特别感谢 Morgan Beller、Juan Benet、Eli Dourado、Sriram Krishnan、Nate Soares、Jaan Tallinn、Vincent Weisser、Balvi 志愿者等人提供的反馈和审阅。

上个月,Marc Andreessen 发表了他的「技术乐观主义 (techno-optimist) 宣言」,呼吁重新对技术保持热情,同时主张通过市场和资本主义的手段来构建技术,推动人类走向更加光明的未来。该宣言明确反对所谓的停滞思想,即害怕技术进步,并优先考虑保持今天世界的状态。这份宣言受到了广泛关注,包括 Noah Smith、Robin Hanson、Joshua Gans(持积极态度)、Dave Karpf、Luca Ropek、Ezra Klein(更消极态度)等人发文回应。虽然与该宣言无直接关系,但类似的话题还有 James Pethokoukis 的「保守主义未来派」和 Palladium 的「是时候为善建设了」。本月,通过 OpenAI 争端,我们也看到了类似的辩论,许多讨论集中在超级人工智能的危险和 OpenAI 也许进展过快的可能性上。

我对技术乐观主义的感觉是温暖而充满细腻的差异。我相信未来会因为彻底变革的技术而变得比现在更加光明,我同时也相信人类和人性。我反对那种认为我们应该努力保持世界基本与今天相同,只需要减少贪婪,增加公共医疗的心态。但在此基础上,我认为不仅程度重要,方向也至关重要。某些类型的技术能直接使世界变得更好,而有些技术类型如果得到发展,可能会减轻其他技术类型的负面影响。目前,世界在某些技术发展方向上过度投入,而在其他方向上则不足。我们需要有意识地选择我们想要的方向,因为「最大化利润」的公式不会自动导向这些方向。

在这篇文章中,我将探讨技术乐观主义对我的意义。这包括激发我在某些类型的区块链和密码学应用、社会技术以及我有兴趣的其他科学领域上的工作的更广泛的世界观。但对于这个问题的不同看法也对人工智能以及许多其他领域有着重要的影响。我们在技术上的快速进步很可能会成为 21 世纪最重要的社会问题,因此认真思考这个问题有重要意义。

科技令人惊叹,而推迟其发展可能会付出极高的代价。

在某些领域,人们普遍低估科技的益处,将其主要视为乌托邦和潜在风险的源头。过去半个世纪,这种看法往往源于环境问题,或者担心科技的好处只会流向富人,从而巩固他们对穷人的权力。最近,我还注意到一些自由主义者对某些技术感到担忧,担心这些技术会导致权力的集中。本月,我进行了一些调查,问了以下问题:如果某项技术因为太危险而需要受到限制,他们更希望它被垄断还是推迟十年?令我惊讶的是,在三个平台和三个关于垄断者身份的选项中,人们一致而强烈地选择了推迟。

因此,我有时担心我们可能已经过度纠正,很多人忽略了辩论的另一方面:科技的好处确实巨大,在我们能够衡量的领域中,正面效应远远超过负面效应,而即使是推迟十年的成本也是难以估量的。

举一个具体的例子,让我们来看一张寿命预期图:

我们看到了什么?在过去的一个世纪里,取得了真正巨大的进步。这一点适用于整个世界,无论是历史上富有和主导的地区,还是贫穷和被剥削的地区。

有些人将科技归咎于创造或加剧灾难,比如极权主义和战争。实际上,我们可以从图表上看到战争造成的死亡:一战时期(1910 年代)和二战时期(1940 年代)。仔细观察,还可以看到西班牙流感、大跃进等非军事灾难。但图表清楚地表明了一件事:即使像那些令人恐惧的灾难一样,它们都被那个世纪里在食物、卫生、医学和基础设施方面取得的不断改进的巨大规模所淹没。

这与我们日常生活的显著改善相一致。多亏了互联网,全球大多数人现在能够轻松获取二十年前难以获得的信息。由于国际支付和金融的改进,全球经济变得更加可访问。全球贫困正在迅速减少。借助在线地图,我们再也不必担心在城市中迷路,而且如果需要迅速回家,我们现在有更简便的方式叫车。我们的财产变得数字化,实物变得更加廉价,这意味着我们不再过于担忧物理盗窃。在线购物已经减少了全球大城市与世界其他地区之间对商品获取的不平等。在各个方面,自动化为我们带来了那种被永远低估的好处,即简单地让我们的生活更加便利。

这些改进,无论是可以量化的还是不可量化的,都是巨大的。而在 21 世纪,更大的改进有很大的可能很快就会到来。今天,终结衰老和疾病似乎还是乌托邦的概念。但从 1945 年计算机的角度来看,将芯片几乎嵌入一切的现代时代也曾经是乌托邦的:即便是科幻电影中的计算机通常也是房间大小的。如果生物技术在未来 75 年内的进展如同计算机在过去 75 年内的进展一样巨大,那么未来可能会比几乎任何人的期望都更为令人印象深刻。

与此同时,一些对进步表示怀疑的论调往往走向了黑暗的方向。甚至连医学教科书,比如这本在上世纪 90 年代的书(感谢 Emma Szewczak 找到),有时也提出一些极端的主张,否认了两个世纪医学科学的价值,甚至辩称挽救人类生命并不是一件好事:

「增长的极限」论是在 1970 年代提出的一个观点,认为不断增长的人口和工业最终会耗尽地球有限的资源,结果导致了中国的独生子女政策和印度大规模的强制绝育。在早期,对人口过剩的担忧曾被用来为大规模屠杀辩护。而这些自 1798 年以来一直被提出的观点在很长一段时间里都被证明是错误的。

正是因为这些原因,作为一个起点,我对减缓技术或人类进步的论点感到非常不安。考虑到各个领域之间的紧密联系,即使是领域性的减速也是危险的。因此,当我写下像我将在这篇文章后面说的那些东西时,远离了对进步无论形式如何都持开放态度的立场,这是我怀着沉重的心情发表的言论 - 然而,21 世纪是如此不同和独特,以至于这些细微之处是值得考虑的。

话虽如此,就更广泛的问题而言,特别是当我们超越「技术整体上是好的」并转向「哪些具体技术是好的?」这个话题时,有一个重要的细微差别需要指出:环境。

环境和协调意愿的重要性

过去一百年里,几乎所有方面都在取得进步,唯一的例外是气候变化:

即使对于正在上升的温度的悲观情景,也远远不会导致人类的实际灭绝。但这样的情景可能导致的死亡人数可能比重大战争更多,并可能严重损害那些已经最为困扰的地区的人们的健康和生计。瑞士再保险研究所的一项研究表明,最糟糕的气候变化情景可能会使世界上最贫困国家的国内生产总值下降高达 25%。这项研究还指出,印度农村的预期寿命可能会比原本的预期低十年,而类似这项研究和这项研究表明,气候变化可能导致本世纪末多出一亿的死亡人数。

这些问题是非常严重的。我为什么对我们克服这些挑战的能力感到乐观的答案有两方面。首先,在经过几十年的夸大和一厢情愿的思考之后,太阳能终于迎来了转机,而像电池这样的支持技术也在取得类似的进展。其次,我们可以看一下人类在解决先前的环境问题方面的记录。以空气污染为例。见过去的反乌托邦:1952 年伦敦的伦敦大雾。

自那时以来发生了什么?我们再次向 Our World In Data 询问:

事实证明,1952 年甚至不是空气污染的高峰:在 19 世纪晚期,甚至存在更高浓度的空气污染物,这被认为是正常和可接受的。从那时以来,我们见证了一个世纪的持续而迅速的下降。我亲身经历了这个过程,2014 年访问中国时,空气中高浓度的烟雾,估计将寿命缩短五年以上,是正常的,但到了 2020 年,空气往往看起来和许多西方城市一样清洁。这并不是我们唯一的成功故事。在世界许多地方,森林面积正在增加。酸雨危机正在改善。臭氧层几十年来一直在恢复。

对我来说,这个故事告诉我们的是,通常情况下,我们文明技术的第 N 版确实会引起问题,而第 N+1 版会解决它。然而,这并不是自动发生的,需要有意识的人类努力。臭氧层正在恢复,是因为通过国际协议如蒙特利尔议定书,我们使其恢复。空气污染正在改善,是因为我们使其改善。同样,太阳能电池板之所以取得了巨大的进步,并不是因为这是能源技术树上注定的一部分;太阳能电池板之所以取得了巨大的进步,是因为几十年来对解决气候变化的重要性的认识激发了工程师致力于解决这个问题,并且公司和政府资助了他们的研究。解决这些问题是有意识的行动,通过公共讨论和文化塑造政府、科学家、慈善家和企业的观点,而不是不可阻挡的「技术资本机器」所取得的。

人工智能与其他技术有根本的不同,需要特别小心

我看到的许多对人工智能的不屑一顾观点来自这样的角度,即它只是「又一种技术」:与社交媒体、加密、避孕、电话、飞机、枪支、印刷术和轮子等相同类型的事物。这些事物显然在社会上具有重大影响。它们不仅仅是对个体幸福的孤立改善:它们从根本上改变了文化,改变了权力平衡,并伤害了那些严重依赖先前秩序的人们。许多人反对它们。总的来说,悲观主义者无一例外地被证明是错误的。

但是有一种不同的看待人工智能的方式:它是一种正在迅速提高智力水平的新型思维,它有严重的机会超越人类的智力能力,并成为地球上的新型顶级物种。在那个类别中的事物要少得多:我们可能合理地包括人类超越猴子、多细胞生物超越单细胞生物、生命本身的起源,也许还有工业革命,在这个过程中机械设备在体力上超过了人类。突然之间,感觉就像我们正走在远不那么熟悉的领域。

重要的是存在风险

AI 出现问题可能使世界变得更糟的一种方式是(几乎是)最糟糕的方式:它可能真的导致人类灭绝。这是一个极端的说法:尽管气候变化、人工大流行或核战争的最坏情况可能会造成很大的伤害,但仍有许多文明的「岛屿」将保持完好,以拾起残骸。但是,如果一个超级智能的 AI 决定反对我们,很可能不会留下任何幸存者,从而永久终结人类。甚至连火星都可能不安全。

一个令人担忧的原因集中在工具收敛性:对于一个超级智能实体可能拥有的非常广泛的目标类别,AI 为更好地实现这些目标可能采取的两个非常自然的中间步骤是(i)消耗资源和(ii)确保自身的安全。地球包含大量资源,而人类对这样一个实体的安全构成可预测的威胁。我们可以尝试给 AI 一个明确的目标,即热爱和保护人类,但我们不知道如何以一种方式实现这一目标,即在 AI 遇到意外情况时不会完全崩溃。因此,我们面临一个问题。

FVcWHxjVIAA2PylMIRI 研究员 Rob Bensinger 试图通过图示来说明不同人对人工智能要么杀死所有人要么做一些几乎同样糟糕的事情的概率估计。许多立场是基于人们的公开声明的粗略近似,但还有许多其他人已经公开给出了他们的精确估计;相当多的人对「毁灭的概率」超过 25%。

2022 年对机器学习研究人员的调查显示,研究人员平均认为人工智能会真的杀死我们所有人的概率在 5-10% 之间,大致与你死于非生物原因(如受伤)的统计预期机会相当。

这只是一个推测性的假设,我们都应该对牵涉到复杂多步故事的推测性假设保持警惕。然而,这些论点已经经受了十多年的审查,因此,似乎值得至少略微担忧。但即使你不担心真正的灭绝,还有其他一些令人害怕的原因。

即使我们幸存下来,超级智能人工智能的未来是否是我们想要生活的世界呢?

许多现代科幻小说都描绘了反乌托邦的场景,并将人工智能描绘得很糟糕。即使是非科幻作品试图探讨可能的人工智能未来,答案通常也相当令人不满。因此,我四处打听了一个问题:有关包含超级智能人工智能的未来的描绘,无论是科幻小说还是其他形式,我们是否愿意生活在其中。远远最常见的答案是伊恩·班克斯的《文明系列》。

《文明系列》描绘了一个遥远的星际文明,主要由两种角色组成:普通人类和被称为「心灵」的超级智能人工智能。人类经过轻微改良:尽管医学技术理论上允许人类无限寿命,但大多数选择仅活约 400 年,似乎是因为在那时他们对生活感到无聊。

从表面上看,作为人类的生活似乎不错:舒适,健康问题得到解决,有丰富的娱乐选择,并且人类与「心灵」之间存在积极且协同的关系。然而,深入观察发现一个问题:似乎「心灵」完全掌控,而人类在故事中的唯一角色就是充当「心灵」的棋子,代表它们执行任务。

引用加文·利奇的《反对文明》中的内容:

我认为即使在文明系列中赋予人类的「有意义」角色也是一种牵强附会;我问过 ChatGPT(还能问谁?)为什么人类被赋予他们所扮演的角色,而不是 Minds 完全自己做所有事情,我个人觉得它的回答相当令人失望。在一个由「友好」的超级智能人工智能主导的世界中,似乎很难让人类成为除了宠物以外的任何角色。

我不想看到的世界。

许多其他科幻系列描绘了一个存在超级智能人工智能的世界,但这些人工智能却听从于(未经强化的)生物人类主人的命令。《星际迷航》就是一个很好的例子,展示了星舰与其 AI「计算机」(以及 Data)与人类操作员机组成员之间的和谐愿景。然而,这种平衡似乎是非常不稳定的。《星际迷航》中的世界在当下看起来是宜人的,但很难想象其对人工智能与人类关系的愿景只不过是在星舰完全由计算机控制、不再费心设计大厅、人工重力和气候控制的十年过渡阶段。

在这样的情境下,一个人类向超级智能机器下达命令,将使这个人类远不及机器聪明,并且拥有更少的信息。在任何程度上存在竞争的宇宙中,那些人类居于次要地位的文明将优于那些人类固执地坚持控制的文明。此外,计算机本身可能夺取控制权。为了理解其中的原因,想象一下你在法律上是一个八岁儿童的文字奴隶。如果你能与孩子长时间交谈,你认为你能说服孩子签一张纸让你获得自由吗?我虽然没有进行过这个实验,但我的直觉答案是肯定的。因此总体而言,人类成为宠物似乎是一个非常难以逃脱的吸引子,不用再费心设计大厅、人工重力和气候控制。

天近皇帝远

中国谚语「天高皇帝远」表达了政治集中化的局限性的基本事实。即使在名义上庞大而专制的帝国中——实际上,尤其是专制的帝国越大,领导层的影响力和关注都有实际的极限,领导层需要委托地方代理人来执行其意愿,这削弱了其执行意图的能力,因此总会存在一定程度的实际自由。有时,这可能带来不利的影响:远离权力的缺席可能会为地方霸主窃取和压迫创造空间。但如果中央权力走向不好,注意力和距离的实际限制可能会对其走向的恶化程度产生实际限制。

在人工智能时代,不再如此。在 20 世纪,现代交通技术使得距离的限制对中央权力的影响变得比以前更弱;1940 年代的大规模极权帝国在某种程度上就是这种情况的结果。在 21 世纪,可扩展的信息收集和自动化可能意味着注意力也将不再是一个约束。政府存在的自然限制完全消失可能会带来可怕的后果。1940 年代的大规模极权帝国在某种程度上就是这种情况的结果。

数字专制主义已经崛起了十年,监控技术已经为威权政府提供了强大的新策略,以打压反对派:允许抗议活动发生,然后在事后检测并悄悄对参与者采取行动。更一般地说,我基本上担心与 OpenAI 相同类型的管理技术,使其能够以 500 名员工为超过一亿客户提供服务,也将使一个由 500 人的政治精英,甚至是一个 5 人的董事会,对整个国家保持铁腕统治。有了现代监视技术来收集信息,再加上现代人工智能来解释它,也许再也没有藏身之地了。

当我们考虑人工智能在战争中的后果时,情况变得更糟。翻译了一篇 2019 年搜狐半著名文章的内容。有了现代监视技术来收集信息,再加上现代人工智能来解释它,也许再也没有藏身之地了。

今天,「人在循环」作为对独裁者发动战争或在国内压迫公民权力的重要制约。在循环中的人阻止了核战争,使柏林墙开放,并在大屠杀等暴行期间拯救了生命。如果军队由机器人组成,这个制约将完全消失。一个独裁者可能在晚上 10 点喝醉,11 点因为有人在 Twitter 上对他们不友好而发火,然后在午夜前,机器人入侵舰队可能越过边境对邻国的平民和基础设施进行毁灭性打击。

与以前的时代不同,以前总有一些遥远的角落,天高皇帝远,在那里,一个政权的反对者可以重新组织、隐藏,并最终找到改善事物的方法。但是,随着 21 世纪人工智能的发展,一个极权主义政权可能通过对世界的足够监控和控制而保持足够的「封锁」,永远不会改变。

d/acc:防御(或分散,或差异)加速主义

在过去的几个月里,「e/acc」(「effective accelerationist」,有效加速主义者)运动取得了很大的进展。由「Beff Jezos」在这里总结,e/acc 基本上是对技术进步带来的真正巨大好处的认可,以及加速这一趋势以更早获得这些好处的愿望。

在许多情境中,我发现自己对 e/acc 的观点表示同情。有很多证据表明 FDA 在延迟或阻止药物批准方面过于保守,而生物伦理学总体上似乎经常遵循这样一个原则:「实验中 20 人死于错误,是一场悲剧,但因延迟导致 20 万人死于拯救生命的治疗措施,那只是一则统计数据。」批准 COVID 测试和疫苗,以及疟疾疫苗的延误似乎进一步证实了这一点。然而,可能过于推崇这一观点。

除了我对 AI 相关的担忧外,我对 e/acc 对军事技术的热情感到特别矛盾。在当前 2023 年的情境中,这项技术是由美国制造并立即应用于保卫乌克兰,很容易看出它可以是一种善的力量。然而,从更广泛的视角来看,对现代军事技术的热情似乎要求相信主导技术力量将在大多数冲突中始终是好人,无论是现在还是将来:军事技术是好的,因为军事技术是由美国建造和控制的,而美国是好的。是 e/acc 就要成为美国至上主义者吗?要将所有筹码押在政府现在和未来的道德以及国家未来的成功上吗?

另一方面,我看到了需要思考如何降低这些风险的新方法。OpenAI 的治理结构就是一个很好的例子:它似乎是一个出于善意的努力,旨在平衡为了满足提供初始资本的投资者而需要盈利的需求,同时又希望通过设立一种制衡机制来抵制那些可能使 OpenAI 毁灭世界的举动。然而,在实践中,他们最近试图解雇 Sam Altman 的尝试使这一结构看起来像是一个彻底的失败:它将权力集中在一个不民主、不负责任的五人董事会中,他们基于秘密信息做出关键决定,并拒绝在受到威胁之前提供有关推理的任何详细信息。不知何故,非营利董事会表现得如此糟糕,以至于公司的员工创建了一个即兴的事实上的工会支持亿万富翁 CEO 而不是他们。

在各方面,我看到了太多拯救世界的计划都涉及赋予极少数人极端且不透明的权力,并希望他们能明智地使用这种权力。因此,我发现自己倾向于一种不同的哲学,这种哲学对如何处理风险有着详细的想法,但它寻求创建和维护一个更加民主的世界,并试图避免将权力集中化作为解决问题的首选方案。这种哲学也涉及的领域远不止 AI,我会用 d/acc 这个名字来指代这种哲学。

dacc3

这里的「d」可以代表许多事物,尤其是防御、去中心化、民主和差异。首先,将其视为防御,然后我们可以看看这与其他解释的关系。

有利于健康和民主治理茁壮成长的防御性世界

思考技术宏观后果的一种方式是看防御与进攻的平衡。有些技术使攻击他人变得更容易,广义上说:做一些违背他们利益、让他们感到需要做出反应的事情。而其他技术则使防御更容易,甚至无需依赖于大型中央化的行为者。

一个偏向防御的世界是一个更好的世界,原因有很多。首先当然是安全的直接好处:死亡人数减少,经济价值损失减少,冲突上浪费的时间减少。然而,不太被人重视的是,一个偏向防御的世界使更健康、更开放、更尊重自由的治理形式更容易茁壮成长。

其中一个明显的例子是瑞士。瑞士经常被认为是现实世界中最接近古典自由治理乌托邦的国家。大量权力下放到省份(称为「州」),重大决策由全民公投决定,许多当地人甚至不知道总统是谁。这样一个国家如何在极具挑战性的政治压力下生存?一部分是因为出色的政治策略,但另一部分是因为其山脉地形形成的非常偏向防御的地理条件。

国旗是一个很大的优点,但山也是如此。

在詹姆斯·C·斯科特的新书《不被统治的艺术》中,被广泛关注的 Zomia 的无政府社会是另一个例子:他们在很大程度上保持了自己的自由和独立,主要得益于多山的地形。与此同时,欧亚大草原则是治理乌托邦的反例。莎拉·佩恩关于海上大国与大陆大国的论述也提到了类似的观点,尽管她更注重将水视为一种防御屏障,而不是山脉。事实上,易于自愿贸易和难以强迫入侵的结合,在瑞士和岛国都很常见,似乎是人类繁荣的理想条件。

当我在以太坊生态系统内为 Gitcoin Grants 资金轮提供建议时,我发现了一个相关的现象。在第 4 轮中,一场小丑闹剧爆发了,因为一些最赚钱的受益者是 Twitter 影响者,他们的贡献被一些人认为是积极的,而被其他人认为是消极的。我对这一现象的解读是存在一种不平衡:二次资金允许你表明你认为某事是公共利益,但它没有提供一种表明某事是公共害的方式。在极端情况下,一个完全中立的二次资金系统会资助战争的双方。因此,在第 5 轮中,我提议 Gitcoin 应包含负面的捐款:你支付 1 美元来减少某个项目收到的资金金额(并隐式地将其重新分配给所有其他项目),结果很多人对此感到不满。

第五轮之后流传的众多 meme 之一。

这对我而言好像是一个更大模式的微观体现:为了应对负面外部性而创建去中心化治理机制在社会上是一个非常艰难的问题。去中心化治理走错的经典例子通常是群众司法。有关人类心理有一些东西,使得应对负面问题更加棘手,也更有可能出现严重问题,而不是应对积极的事物。这也是为什么即使在其他方面高度民主的组织中,决定如何应对负面问题的权力通常留给了一个中央委员会的原因。

在许多情况下,这个困境是「自由」概念如此有价值的深层原因之一。如果有人说了令你不悦的话,或者过上了你认为令人讨厌的生活方式,你感到的痛苦和厌恶是真实的,甚至你可能觉得被人动手打击也不如暴露在这些事物面前糟糕。但试图就社会上可行的冒犯和讨厌的行为达成一致可能会带来更多的成本和危险,而不如提醒自己,某些怪人和混蛋是我们生活在一个自由社会的代价。

然而,在其他时候,「忍气吞声」的方法是不切实际的。在这种情况下,有时值得考虑的另一个答案是防御性技术。互联网越安全,我们就越不需要侵犯人们的隐私,采用不正当的国际外交手段来对付每个单个的黑客。我们越能够构建个性化的工具,用于阻止 Twitter 上的人,浏览器内用于检测欺诈的工具以及用于区分谣言和真相的集体工具,我们就越不必争论言论审查。我们疫苗生产速度越快,我们就越不必对付超级传播者。这些解决方案并非在所有领域都适用 - 我们当然不希望看到每个人都不得不穿着真正的防弹衣的世界 - 但在我们可以利用技术使世界更加偏向防御的领域,这样做具有巨大的价值。

这个核心思想,即一些技术对防御有利,值得推广,而其他技术对进攻有利,应该被抑制,有其根源于以不同名称出现的有效利他主义文献:差异技术发展。2022 年,牛津大学的研究人员对这一原则进行了很好的阐述:

图 1:差异化技术开发减少负面社会影响的机制。

在将技术分类为进攻、防御或中立时,不可避免地会存在不完美之处。就像「自由」一样,人们可以辩论社会民主政府政策是否通过征收重税和强迫雇主降低了自由,还是通过减少普通人对许多种风险的担忧来增加了自由,与「自由」一样,「防御」也有一些技术可能在谱系的两端。核武器有利于进攻,但核能有益于人类繁荣,而且在进攻和防御之间是中立的。不同的技术可能在不同的时间范围内发挥不同的作用。但就像「自由」(或「平等」或「法治」)一样,边缘的模糊之处不是反对原则的论点,而是更好地理解其微妙之处的机会。

现在,让我们看看如何将这一原则应用到更全面的世界观中。我们可以将防御技术视为其他技术一样,分为两个领域:原子世界和比特世界。原子世界又可以分为微观(即生物学,后来是纳米技术)和宏观(即我们传统上认为的「防御」,但也包括有弹性的物理基础设施)。我将比特世界分割在不同的轴上:原则上很容易达成共识,攻击者是谁?有时很容易;我称之为网络防御。在其他时候,这更加困难;我称之为信息防御。

宏观物理防御

在宏观领域中最被低估的防御技术甚至不是铁穹(包括乌克兰的新系统)和其他反技术和反导弹军事硬件,而是具有弹性的物理基础设施。核战争中的大多数死亡可能来自供应链中断,而不是最初的辐射和冲击,而像星链这样的低基础设施的互联网解决方案在过去一年半中对维护乌克兰的连接至关重要。

构建帮助人们在长时间国际供应链的独立或半独立生存甚至舒适生活的工具似乎是一种有价值的防御技术,并且对于用于进攻的风险较低。

努力使人类成为一个多行星文明的任务也可以从 d/acc 的角度来看:至少有一些人能够在其他行星上自给自足地生活,可以增加我们对地球上发生可怕事件的韧性。即使完整的愿景目前看来不可行,为实现这一项目而需要开发的自给自足的生活形式很可能也可以用来帮助提高我们在地球上的文明韧性。

微观物理防御(又称生物防御)

特别是由于其长期健康影响,Covid 仍然是一个令人担忧的问题。但 Covid 远非我们将面临的最后一次大流行;现代世界的许多方面使更多的大流行很可能即将到来:

更高的人口密度使空气传播的病毒和其他病原体传播变得更加容易。流行性疾病在人类历史上相对较新,大多数始于几千年前的城市化。正在进行的快速城市化意味着在未来半个世纪内人口密度将进一步增加。

航空旅行的增加意味着空气传播的病原体会在全球范围内迅速传播。人们迅速变得更富有意味着空中旅行可能在未来半个世纪内会大幅增加;复杂建模表明,即使是小幅增加也可能产生严重影响。气候变化可能会进一步增加这一风险。

动物驯化和工厂养殖是主要的风险因素。麻疹可能是不到 3000 年前由牛病毒进化而来的。如今的工厂养殖也在培养新的流感病毒株(以及助长抗生素耐药性,对人类先天免疫系统产生影响)。

现代生物工程使得创造新的、更具毒性的病原体变得更容易。Covid 可能是从进行有意的「功能增强」研究的实验室泄漏出来的,也可能不是。无论如何,实验室泄漏时有发生,而且工具正在迅速改进,使有意创造极其致命的病毒,甚至是朊病毒(僵尸蛋白质),变得更容易。人工瘟疫尤为令人担忧,部分原因是与核武器不同,它们是不可归因的:你可以释放一个病毒,而没有人能够判断出是谁创造的。现在有可能设计一个基因序列,发送到湿实验室进行合成,并在五天内将其寄送到您手中。

这是 CryptoRelief 和 Balvi 两个组织在 2021 年因 Shiba Inu 币的大笔意外财富而成立和资助的领域之一。CryptoRelief 最初专注于应对眼前的危机,最近一直在印度建立一个长期的医学研究生态系统,而 Balvi 一直专注于改善我们检测、预防和治疗 Covid 和其他空气传播疾病的能力的超前项目。++Balvi 坚持由其资助的项目必须采用开源方式++。它汲取了 19 世纪水利工程运动的灵感,该运动战胜了霍乱和其他水传播的病原体,它资助了整个技术领域的项目,这些项目可以使世界在默认情况下更加抵御空气传播的病原体,包括:

· Far-UVC 辐射研发

· 在印度、斯里兰卡、美国等地的空气过滤和质量监测,以及空气质量监测

· 便宜而有效的分散式空气质量测试设备

· 长期 Covid 病因和潜在治疗选择的研究(主要原因可能很简单,但澄清机制并找到治疗方案更加困难)

· 疫苗(例如 RaDVaC、PopVax)和疫苗伤害研究

· 一套全新的非侵入性医疗工具

· 利用开源数据分析进行流行病的早期检测(例如 EPIWATCH)

· 测试,包括非常便宜的分子快速测试

· 在其他方法失败时适用的生物安全口罩

其他有希望的研究领域包括对病原体进行废水监测,改善建筑物的过滤和通风,以及更好地了解和缓解由空气污染引起的风险。

有机会构建一个在默认情况下更加抵御自然和人工空气传播流行病的世界。这个世界将具有一个经过高度优化的流程,我们可以从流行病爆发开始,自动检测到,全球人民可以在一个月内获得定向、可在本地制造和可验证的开源疫苗或其他预防措施,通过雾化或鼻喷给药(即:需要时可自行给药,无需注射)。同时,更好的空气质量将大幅减少传播速率,并防止许多流行病在发生初期就被扼杀。

设想一种未来,不必求助于社会强制的铁槌——没有 mandates 和更糟糕的情况,也没有风险较大的、设计和实施不善的 mandates,这可能会使情况变得更糟——因为公共卫生基础设施已经融入文明的结构之中。这样的世界是可能的,通过对生物防御的适度投资,它就可以实现。如果这些发展是开源的、免费提供给用户并作为公共物品受到保护,工作将更加顺利。

网络防御、区块链和密码学

安全专业人员普遍认为,当前的计算机安全状况相当糟糕。尽管如此,很容易低估已经取得的进展。数百亿美元的加密货币可以被任何能够侵入用户钱包的人匿名窃取,虽然失窃或被盗的比例远远超出我所愿,但事实上,大部分加密货币在过去十多年里一直没有被盗。最近有了一些改进:

设备内置受信任的硬件芯片,实际上在用户的手机内创建一个更小的高安全性操作系统,即使手机的其余部分被黑客攻击也能保持安全。这些芯片越来越被探讨为创建更安全的加密钱包的一种方式,是许多用例中的一部分。

浏览器作为事实上的操作系统。在过去的十年里,从可下载应用程序到基于浏览器的应用程序发生了悄无声息的转变。这在很大程度上得益于 WebAssembly(WASM)。即使是长期以来被认为是许多人因为其必要性和与 Linux 不兼容而无法实际使用 Linux 的主要原因之一的 Adobe Photoshop,现在也因为嵌入浏览器而对 Linux 友好。这也是一大安全优势:虽然浏览器确实存在缺陷,但总体上它们提供了比安装应用程序更多的沙箱化:应用程序无法访问计算机上的任意文件。

强化操作系统。移动端的 GrapheneOS 存在,并且非常可用。桌面端的 QubesOS 也存在;根据我的经验,目前它的可用性比 Graphene 稍差,但它正在改进。

尝试超越密码。密码很难保护,因为它们难以记忆,而且容易被窃听。最近,有一个越来越大的运动,减少对密码的依赖,并使基于硬件的多因素身份验证真正起作用。

然而,其他领域缺乏网络防御也导致了重大挫折。保护免受垃圾邮件的需要导致电子邮件在实践中变得非常寡头化,很难自行托管或创建新的电子邮件提供商。许多在线应用程序,包括 Twitter,要求用户登录才能访问内容,并阻止使用 VPN 的 IP 地址,使以保护隐私的方式访问互联网变得更加困难。软件的集中化也存在风险,因为存在「武器化的相互依赖」:现代技术倾向于通过集中化的瓶颈传输,这些瓶颈的运营者利用这一权力收集信息、操纵结果或排除特定行为者,这种策略甚至似乎正在被用于针对区块链行业本身。

这些趋势令人担忧,因为它威胁到了历史上我对未来自由和隐私前景的一个重大希望。在他的书《未来的不完美》中,大卫·弗里德曼预测我们可能会迎来一个折中的未来:现实中的世界将越来越受到监视,但通过密码学,在线世界将保留甚至改善其隐私。不幸的是,正如我们所见,这样的反向趋势远非确定无疑。

这就是我对密码学技术的强调,例如区块链和零知识证明。区块链使我们能够创建具有「共享硬盘驱动器」的经济和社会结构,而无需依赖集中的行为者。加密货币使个人能够储存和进行财务交易,就像在互联网之前使用现金一样,而无需依赖可能随意更改规则的可信第三方。它们还可以充当备用的反 Sybil 机制,使攻击和垃圾邮件对那些没有或不想透露其实体身份的用户变得昂贵。账户抽象化,尤其是社交恢复钱包,可以保护我们的加密资产,以及未来可能的其他资产,而不过度依赖中心化的中介机构。

零知识证明可以用于隐私,允许用户在不透露私人信息的情况下证明有关自己的事实。例如,将数字护照签名包装在 ZK-SNARK 中,证明您是某个国家的唯一公民,而不泄露您是哪个公民。类似的技术可以让我们保持隐私和匿名性的好处 - 这些特性被广泛认为是应用程序(如投票)所必需的 - 同时仍然获得安全性保证并对抗垃圾邮件和不良行为者。

ZK 社交媒体系统的拟议设计,可以进行审核操作并且可以对用户进行惩罚,而所有这些都不需要知道任何人的身份。

Zupass 是在 Zuzalu 孵化的一个实践的优秀例子。这是一个应用程序,已经被 Zuzalu 的数百人使用,最近被成千上万的人用于 Devconnect 的票务,允许您持有门票、会员资格、(不可转让的)数字收藏品和其他证明,并在不泄露隐私的情况下证明与它们相关的所有事项。例如,您可以证明自己是 Zuzalu 的唯一注册居民,或者是 Devconnect 的票务持有者,而无需透露关于您是谁的其他信息。这些证明可以通过 QR 码以面对面的方式或数字方式展示,以登录到诸如 Zupoll 之类的应用程序,这是一个仅对 Zuzalu 居民开放的匿名投票系统。

这些技术是 d/acc 原则的优秀示例:它们允许用户和社区在不泄露隐私的情况下验证可信度,并在不依赖中心化的窒息点的情况下保护其安全性,这些窒息点强加了其自己关于谁是好人和坏人的定义。它们通过创建比今天常用的歧视整个被视为不可信任的国家更好、更公正的方式来保护用户或服务的安全性,从而提高了全球可访问性。这些是非常强大的基元,如果我们希望在进入 21 世纪时保留信息安全的去中心化愿景,那么可能是必要的。更广泛地致力于网络空间的防御性技术可以在未来以非常重要的方式使互联网更加开放、安全和自由。

信息防御

信息防御(Info-defense)是我所描述的网络防御,处理的是在合理的人类之间很容易就攻击者身份达成共识的情况。如果有人试图入侵你的钱包,大家都容易认定黑客是坏人。如果有人试图对网站进行 DoS 攻击,大家都容易认为他们是恶意的,并且在道德上与试图阅读网站内容的普通用户不同。还有其他一些情况,界限更加模糊。我把在这些情况下改进我们的防御的工具称为「信息防御」。

以事实核查(又称防止「错误信息」)为例。我非常喜欢 Community Notes,它在帮助用户识别其他用户推文中的真实和虚假方面做出了很多贡献。Community Notes 使用一种新的算法,不是显示最受欢迎的笔记,而是显示在政治光谱上得到最多用户认可的笔记。

社区注释的实际应用。

我也是预测市场的粉丝,它可以在事态尚未明朗、尚未就事态的发展方向达成共识之前实时揭示事件的重要性。比如,关于 Sam Altman 的 Polymarket 在逐小时的事件揭示和谈判中提供了非常有用的摘要,为那些只看到单个新闻项目而不了解每个项目的重要性的人提供了非常必要的背景。

预测市场经常存在缺陷,但那些愿意自信地表达他们认为在未来一年内会发生的事情的 Twitter 意见领袖通常会更加有缺陷。预测市场仍然有很大的改进空间。例如,预测市场在除了最高知名事件外的其他事件上的交易量普遍较低;解决这个问题的自然方向是推出由人工智能参与的预测市场。

在区块链领域,我认为我们需要更多一种特定类型的信息防御。也就是说,钱包应该在帮助用户确定他们签署的事物的含义,并保护他们免受欺诈和诈骗方面更具见解和主动性。这是一个中间案例:什么是骗局和什么不是骗局比起对有争议的社会事件的观点更不主观,但比起区分合法用户和 DoS 攻击者或黑客更主观。Metamask 已经有一个欺诈数据库,并自动阻止用户访问欺诈网站。

像 Fire 这样的应用是更深入的方式的一个例子。然而,安全软件不应该是需要明确安装的东西;它应该是加密钱包,甚至是浏览器的默认设置。

由于信息防御的主观性更强,它在本质上比网络防御更加集体:您需要以某种方式连接到一个庞大而复杂的人群,以确定可能是真实还是虚假的信息,以及什么样的应用程序是一种欺诈性的庞氏骗局。开发人员有机会在开发有效的信息防御方面取得更大进展,并加强现有形式的信息防御。像 Community Notes 这样的东西可以包含在浏览器中,覆盖的不仅仅是社交媒体平台,还包括整个互联网。

超越「防御」框架的社会技术

在某种程度上,我可能被指责过于强调,将一些信息技术描述为「防御」。毕竟,防御是关于帮助善意的行为者免受恶意的行为者(或在某些情况下,免受自然)的保护。然而,其中一些社会技术是帮助善意的行为者形成共识的。

这其中的一个很好的例子是 pol.is,它使用类似于 Community Notes 的算法(并且早于 Community Notes)来帮助社区确定不同子群体之间的共识点,而这些子群体在许多方面存在分歧。Viewpoints.xyz 受到了 pol.is 的启发,有着类似的精神:

类似这样的技术可以用于实现在有争议的决定上更为分散的治理。再次强调,区块链社区是这方面的良好实践场地,已经展示出这些算法的价值。一般来说,对以太坊协议进行哪些改进(「EIPs」)的决定是由一个相当小的团体在称为「All Core Devs calls」的会议中做出的。对于技术性较强、大多数社区成员没有强烈感觉的决定,这样做相当有效。对于更为重要的决定,涉及到协议经济、或者更基本的价值,比如不可变性和防审查抵抗性,这通常是不够的。回顾 2016-17 年,在实施 DAO 硬分叉、减少发行量以及(不)解冻 Parity 钱包等一系列有争议的决定时,工具如 Carbonvote 以及社交媒体投票有助于社区和开发者了解社区舆论的方向。

DAO 分叉上的碳投票。

Carbonvote 存在其缺陷:它依赖 ETH 持有量来确定谁是以太坊社区的成员,使结果被少数富裕的 ETH 持有者(「鲸鱼」)所主导。然而,借助现代工具,我们可以制作一个更好的 Carbonvote,利用多个信号,如 POAPs、Zupass stamps、Gitcoin passports、Protocol Guild memberships,以及 ETH(甚至是单独质押的 ETH)持有量来衡量社区成员资格。

这样的工具可以被任何社区用于做出更高质量的决策,找到共同点,协调(实体或数字)迁移,或在不依赖不透明的中央领导的情况下执行其他操作。这不是防御加速本身,但它可以被称为民主加速。这样的工具甚至可以用于改进和民主化在人工智能领域工作的关键行为者和机构的治理。

那么超级智能的前进道路是什么?

现在,这一切看起来都很好,可能使这个世界在未来一个世纪变得更加和谐、更安全、更自由。然而,这还没有解决房间里的大象问题:超智能人工智能。

许多担心人工智能的人默认地提出的前进道路实质上导致了一个最小化的人工智能世界政府。近期版本包括提议成立一个「跨国 AGI 联盟」("MAGIC")。如果这样一个联盟成立并成功实现其创建超智能人工智能的目标,它将自然而然地成为一个事实上的最小化世界政府。长期而言,还有「关键行动」理论的想法:我们创造一个执行一次的单一行动的人工智能,将世界重新组织成一个从那时起人类仍然掌握控制权,但游戏板某种程度上更有利于防御和人类繁荣的局面。

目前我看到的主要实际问题是,人们似乎并不真正信任任何具体的治理机制拥有建造这样一个东西的权力。当你看看我最近在 Twitter 上的投票结果时,人们被问及是否希望看到人工智能被一个提前十年起步的单一实体垄断,还是让所有人的人工智能延迟十年,这一事实变得非常明显:

每次投票的规模虽然较小,但在广泛的信息源和选项中,这些投票的一致性结果弥补了规模的不足。在九次投票中,九次中的九次,大多数人宁愿看到高度先进的人工智能被直接推迟十年,而不是被单一团体垄断,无论是公司、政府还是跨国机构。在九次中的七次中,推迟胜出的比例至少为两比一。这似乎是任何追求人工智能监管的人都应该理解的重要事实。当前的方法一直在致力于创建许可方案和监管要求,试图将人工智能的发展限制在较少的人手中,但由于人们不希望看到任何人垄断如此强大的东西,这些方法受到了普遍的反对。即使这样的自上而下的监管提案减少了灭绝的风险,它们也增加了永久陷入集中式极权主义的机会。矛盾的是,完全禁止极其先进的人工智能研究的协议(也许对生物医学人工智能有例外),再加上采取强制开源的措施,对于那些未被禁止的模型,作为一种减少利润动机同时进一步提高访问平等性的方式,会更受欢迎吗?

对于「让一个全球性机构来处理人工智能并确保其治理非常好」这一途径的反对者首选的主要方法是多神论人工智能:有意确保有许多人和公司开发大量的人工智能,以便其中没有一个变得比其他人更强大。这样,理论认为,即使人工智能变得超级智能,我们仍然可以保持权力的平衡。

这种哲学很有趣,但我在尝试确保以太坊生态系统内的「多神论」时的经验让我担心这是一个本质上不稳定的均衡。在以太坊中,我们有意试图确保在许多方面去中心化:确保没有一个代码库控制超过半数的权益证明网络,试图抵制大型权益池的主导地位,改善地理去中心化等。基本上,以太坊实际上正在尝试执行一个基于市场的社会的旧自由主义梦想,该社会使用社会压力而不是政府作为反垄断监管机构。在某种程度上,这已经取得了成效:Prysm 客户端的主导地位从 70% 以上下降到 45% 以下。但这并不是某种自动的市场过程:这是人类意愿和协调行动的结果。

我在以太坊的经验与整个世界的学习经历相一致,在那里许多市场已被证明是自然垄断。随着超级智能人工智能独立于人类行动,情况变得更加不稳定。由于递归自我改进,最强大的人工智能可能会迅速领先,而一旦人工智能比人类更强大,就没有力量可以使事物重新平衡。

此外,即使我们确实建立了一个稳定的超级智能人工智能的多神论世界,我们仍然面临另一个问题:我们得到了一个人类成为宠物的宇宙。

一个幸福的路径:与人工智能合并?

最近我听说的另一种选择是更少地将人工智能视为与人类分离的东西,而更多地将重点放在增强人类认知而非取代它的工具上。

一个近期的例子是 AI 绘图工具。如今,制作 AI 生成图像最突出的工具只有一个步骤需要人类提供输入,之后 AI 完全接管。另一种选择是更加关注像 Photoshop 的 AI 版本:艺术家或 AI 可能制作图片的早期草稿,然后两者合作通过实时反馈的过程改进它。

来源,2023 年 Photoshop 生成 AI 填充。我体验了一下,需要时间来适应,但实际上效果很好!

在类似的精神中另一个方向是开放机构架构,该架构提议将 AI「思维」的不同部分(例如制定计划、执行计划、解释外部世界的信息)分成单独的组件,并在这些部分之间引入多样化的人类反馈。

到目前为止,这听起来很平凡,几乎每个人都可以同意这将是一种好事。经济学家达龙·阿塞莫格鲁的工作远非这种类型的 AI 未来主义,但他的新书《权力与进步》暗示着希望看到更多这些类型的人工智能。

但是,如果我们想要将人工智能与人类的合作思想进一步推广,我们就会得出更激进的结论。除非我们创建一个足够强大的世界政府来检测并制止每个使用笔记本电脑上的个别 GPU 进行黑客攻击的小团体,否则最终会有人创造出超级智能人工智能 - 一个可以思考比我们快一千倍的 AI - 而任何一组使用手中工具的人都无法与之抗衡。因此,我们需要更深入、更远地思考这种人机合作的理念。

第一个自然的步骤是脑-计算机界面。脑-计算机界面可以使人类更直接地访问越来越强大的计算和认知形式,将人与机器之间的双向通信循环从几秒缩短到毫秒。这也将大大降低获取计算机帮助你收集事实、提供建议或执行计划的「思维努力」成本。

这一路线图的后期阶段确实变得奇怪。除了脑-计算机界面,还有通过生物学创新直接改进我们的大脑的各种途径。融合这两条路线的最终步骤可能涉及将我们的思维上传到计算机上直接运行。这也将成为对物理安全的最终解决方案:保护自己免受伤害将不再是保护不可避免的柔软人体的复杂问题,而是一个更简单的问题,即制作数据备份。

这样的方向有时会引起担忧,部分原因在于它们是不可逆的,部分原因在于它们可能使强大的人比我们其他人更具优势。尤其是脑机接口存在危险——毕竟,我们谈论的是直接读取和书写人们的思想。正是出于这些担忧,我认为最好由一个以安全为重点的开源运动在这一路径上扮演主导角色,而不是由封闭的专有公司和风险投资基金扮演。此外,所有这些问题在独立于人类运行的超智能 AI 方面比与人类密切联系的增强部分更为严重。由于 ChatGPT 的使用限制,今天已经存在「增强」和「非增强」之间的分歧。

如果我们想要一个既超智能又「人性化」的未来,一个人类不仅是宠物而且实际保留对世界有意义的代理权的未来,那么像这样的选择似乎是最自然的。还有很多支持这种方法的理由:通过在决策过程的每个步骤都涉及人类反馈,我们减少了将高层规划责任转嫁给 AI 本身的动机,从而减少了 AI 独立于人类价值观执行某些完全不符合的可能性。

支持这一方向的另一个论点是,与其仅仅大声呼喊「暂停 AI」,不如提供一个相应的提供替代前进道路的信息。这将需要从当前的心态中进行哲学上的转变,即触及人类的技术进步是危险的,但与人类无关的进步基本上是安全的。但它有一个巨大的对抗性好处:它给了开发者一些事情可做。今天,AI 安全运动对 AI 开发者的主要信息似乎是「你应该停下来」。可以进行对齐研究,但今天这缺乏经济激励。与此相比,普遍的 e/acc 信息「你已经是一位英雄,就如你现在的样子」显然非常吸引人。一个 d/acc 信息,即「你应该构建,并构建有利于你和人类繁荣的东西,但在确保你构建的东西有助于繁荣时,要更加选择和有意识」,可能是一个胜利者。

d/acc 是否与你现有的理念相符呢?

如果你是 e/acc,那么 d/acc 就是 e/acc 的一个亚种,只是更具选择性和有意识。

如果你是一位有效利他主义者,那么 d/acc 就是有效利他主义思想的一次重新包装,尽管更强调自由和民主价值观。

如果你是自由主义者,那么 d/acc 就是技术自由主义的一种亚种,尽管更加务实,对「技术资本机器」更加批判,而且愿意接受政府的干预,至少是在今天(至少,如果文化干预无效的话),以防止更糟的非自由未来。

如果你是多元主义者,按照格伦·韦尔的定义,那么 d/acc 是一个框架,可以轻松包容多元主义强调的更好的民主协调技术。

如果你是公共卫生倡导者,那么 d/acc 的思想可以为更广泛的长期愿景提供灵感,并为你提供与你可能在其他方面不一致的「科技人员」找到共同点的机会。

如果你是区块链倡导者,那么 d/acc 是一个比十五年前强调通货膨胀和银行的更现代、更广泛叙述,将区块链放入一个具体战略的背景中,以朝着更光明的未来发展。

如果你是太阳朋克,那么 d/acc 是太阳朋克的一个亚种,并且包含着类似的强调有意识和集体行动。

如果你是月球朋克,那么你会欣赏 d/acc 对信息防御的强调,通过保持隐私和自由。

我们是最明亮的星

我热爱技术,因为技术扩展了人类的潜力。一万年前,我们只能制作一些简单的手工工具,改变一小片土地上的植物生长,建造基本的房屋。而今天,我们可以建造高 800 米的塔楼,在手中的设备中存储着人类知识的全部内容,可以即时在全球范围内通讯,延长我们的寿命,过上幸福充实的生活,不再担心我们最好的朋友会因疾病而经常死去。

我们从底层开始,现在我们在这里。

我相信这些事物是非常有益的,而且进一步将人类的影响扩展到行星和星球上也是非常有益的,因为我相信人类是非常善良的。在某些圈子里,对此持怀疑态度是时髦的:主张自愿人类灭绝的运动认为,地球没有人类存在会更好,还有许多人希望未来几个世纪内人类的数量能更少。人们常常争论说,人类是坏的,因为我们欺骗和偷窃,进行殖民主义和战争,虐待和灭绝其他物种。我对这种思考方式的回应是一个简单的问题:与什么相比呢?

是的,人类经常表现得很刻薄,但我们更经常表现出善良和仁慈,为了我们共同的利益而共同努力。即使在战争期间,我们通常也会小心保护平民——当然还远远不够,但也比 2000 年前更多。下个世纪可能会有广泛可用的非动物基础的肉类,消除了今天人类可以被正当指责的最大道德灾难。非人类动物不会这样。没有一种情况是猫会采用拒绝吃老鼠作为伦理原则的整个生活方式。太阳每年都在变得更明亮,大约在十亿年后,预计这将使地球变得太热无法维持生命。太阳会考虑一下它即将引起的种族灭绝吗?

因此,我坚信,在我们所知道和见过的宇宙中,我们,人类,是最明亮的星星。我们是唯一一件我们知道的事物,即使不完美,有时也会真诚努力关心「善」,并调整我们的行为以更好地为之服务。两十亿年后,如果地球或宇宙的任何部分仍然拥有地球生命的美丽,那将是人类的艺术品,如太空旅行和地球工程,使之成为可能。

我们需要建设和加速。但有一个非常现实的问题需要问:我们正在加速迈向什么?21 世纪很可能是人类的关键世纪,决定我们未来几千年的命运。我们是陷入无法摆脱的陷阱之一,还是找到一条保留自由和代理权的未来之路?这是一个具有挑战性的问题。但我期待着观察并参与我们物种为找到答案而进行的宏伟集体努力。