



大家好啊,欢迎来到龙门阵不知道第多少期播客,今天来点大家想看的东西。本期播客的制作人是Immortal Dragons的实习生Elliot,你可以在B站上找到他翻译的Bryan Johnson的书籍,搜索:Don't Die 中文版。
上一期节目中,我们详细介绍了Blueprint的意识形态,其中很主要的一个部分就是The demotion of the conscious mind,自我意识的降级这个概念,上一期的讨论大多都还是非常理论化和抽象的。而在这一期节目中,我们的讨论会更现实和具体一些,了解Blueprint会如何使用这套价值观去指导自己的日常生活中的每个选择。
如果你们能解雇晚上的自己,你们会选择这么做吗?我可不是在说空话。我是说,如果你们能,就应该完全剥夺你们晚上自己做决定的能力。
事实上,深夜时分我似乎是最缺乏自控力的。他说得有道理。
这是正常的,这是日落现象。大脑和任何生物系统一样,在一天中会消耗能量并产生废物。当我们饥饿或疲倦时,我们控制自身行为和姿态的能力就会下降。有一项针对以色列假释法官的经典研究,对吧,他们更有可能在休息充分、吃饱喝足后批准假释,而批准假释是相对而言更艰难、风险更大的决定。也许我们可以用这些术语来构建这个论点,如果我们把意识想象成假释法官,并对自己说:‘只有在认知条件最佳时你才能做决定’,而且我们知道,事实上知道,深夜时,当我们确实处于距离上次恢复性睡眠最远的时候,我们当时无法做出艰难的认知决策。可以说,你撤销了它的权限。它在董事会会议上失去了投票权。
多年前,我不得不做类似的事情。有一天,当我称完体重后,医生对我说了一通‘警醒’的话,相信我,这是你最不想从医生那里听到的话。十年来,晚上的我暴饮暴食,体重增加了五十多磅,这加剧了持续不断的羞耻、内疚和萎靡不振的循环。每天晚上,晚上的我都未能通过棉花糖测试,而是暂时把未来抛在一边,只顾着眼下、此刻、碳水化合物和糖分的享受。他的行为对早上的我产生了毁灭性的连锁反应。这破坏了我的睡眠,让早上的我非常不高兴,因为他总是感到疲倦、易怒,并且对生活的困难毫无准备。总之,黄昏时的Seeks Authority让我的所有方面都痛苦不堪。这就是我改变的原因。所以,几年前,我解雇了晚上的自己,撤销了他做饮食决定的特权。现在,无论情况如何,只有上午的假释法官版本的我才能决定何时、吃什么以及吃多少。老实说,结果非常棒。我瘦了六十磅,体重轻了,我对食物的渴望也减少了,而且我感觉从未这么好过。我休息充分,思维敏捷,准备好迎接一天的挑战。
同样的话,或许在人类历史的每个时代、每个时期都有人说过了。探险家们从来不会从土地肥沃食物富足的地方出发。沙克尔顿带着数吨——实实在在数吨的罐头食品和物资前往南极,而与此同时,在爱尔兰和英国,到处都有挨饿的流浪儿。他的目标超越了他所生活的时代。我明白你的意思,Self Critical,我真的明白了。但又能怎么办呢?世界各地对自由、食物、财富和水的获取机会并不平等。从一开始就是如此。这是所有人随时都要承担的重担吗?还是说,我们只是蹒跚前行,一步一个脚印地,各自凭借自己专长的技能,去改变一小部分事情?
嗯,这就是我所看到的最强有力的反对意见,Relentless,不让晚上的自己因为饮食决定而放纵自己。这让选择挨饿看起来仅仅是:一种选择。自愿的。也许这会减少对那些别无选择只能限制热量摄入的人的同情,那些因为住在乌干达的农场里只能获取奶制品,或者像爪哇这样的单一作物岛只能吃米饭,又或者像爱尔兰只能吃土豆的人的同情。你懂我的意思。
选择不去选择并不会减少同理心,Dark Humor。事实上,这更清楚地表明,有意识地选择——记住,一个人首先选择决定不再选择——从而将他们的意识思维纳入其中,应该会增加对那些没有选择而经历同样磨难的人的同理心。牺牲晚上的自己是可以接受和令人满意的唯一方式,就是认识到选择是他们自己的,并且他们必须承担后果。当显然他们无法选择时,这很可能会增加对他们的同理心。
这里的核心概念是,放弃自己对于当下的选择权,把这个选择权移交给另一个算法,或者说系统。在古希腊神话中有这样一个故事,叫做尤利西斯的契约。
大概的意思是,塞壬是一种海妖,听到塞壬的歌声的水手们会变得疯狂,他们要么把头撞在礁石上,要么在追求歌声的过程中溺水。但尤利西斯想听塞壬的歌声,所以他用蜡封住所有其他船员的耳朵,其他船员就听不到歌声了。他让船员把自己锁在桅杆上,这样他就可以听这首歌,而不必担心跳下去淹死。他知道自己到时候会想尽办法让他们放了自己,所以他让他们承诺不会放开自己。
尤利西斯通过将他的自我意识交给一种算法来让它退位。” 如果把思想当作物体的话,这感觉像是终于在房间里下了战书。“这种算法很简单,是一种社交指令,告诉他的船员在未来某个时间不要听从他的指挥,无论他的恳求如何。这种算法在我们国家被谨慎且争议性地用于患有间歇性精神病或任何形式的意志或控制能力阶段性障碍的患者,如双相情感障碍、精神分裂症、某些形式的难治性抑郁症等等。其基本理念是,在一个清醒阶段,当他们觉得自己保持完全的理智,意识并没有对他们使坏时,他们与医生或家人达成协议,商定如果出现症状发作时,他们希望如何接受治疗。就像是尤利西斯一样,这对某些病人非常有效。但这带来了法律、伦理,当然还有医学方面的挑战。谁来决定谁来负责?你真的能像立下遗嘱一样,通过合同约束自己未来的自己同意削弱自我意识吗?这种医疗合约会随着某种半衰期失效吗?它是一种货币,要么拥有,要么没有?这些都是极其棘手的问题,许多医生不会遵守尤利西斯合同,因为他们不相信这些合同在伦理、法律或科学方面的有效性。
“不过为了进入下午的内容,咱们假设法律方面的难题已经解决,只剩下道德方面的问题了。对于个人来说,签署尤利西斯合同在道德上合理吗?对于医生和家人来说,遵守这份合同在道德上合理吗?在尤利西斯的情况下,他控制着船,所以执行计划没有太大阻碍。如果他善良的话,也许他会让每个水手轮流体验这种经历。但不会,他只想独自拥有这种体验。房间里的冒险家们,请注意这个细节。不过我跑题了。实际上,问题在于一个人的当下自我是否在任何方面对未来的自己负有责任,或者有任何因果影响力。如果我像你一样,Relentless,把自我分开,比如说分成两个版本——咱们称其为上午自我和傍晚自我——暂时把它们当作不同的道德实体,这个问题可能就会更多地涉及影响范围或支配权,而非对个人有益与否。当然,存在一些人为的限制。我们不能简单地进行道德上的等值比较,比如把晚上的自己绑在铁轨上,然后问早上的自己是否以及在何种情况下会拉杆让火车改道,因为这会导致两者的死亡。但我可以说,我们可以问一问两者之间的道德因果关系。我们可以问晚上的自己有什么权利去控制早上的自己,反之亦然。”
确实。确实。我为什么要信任上午的Game Play甚于信任晚上的Game Play呢?如果晚上的我想要伤害上午的Game Play,那就让它这么做吧。所有对社交的回避以及对夜生活的享受都是上午在惩罚晚上,不是吗?那么,为什么一个自己可以被允许惩罚另一个自己,而不是反过来呢?
为什么一种版本的尤利西斯是正确的,而另一种版本却受到抑制?
那不一样。
“哦不,那是一样的。打个比方,让意识在晚上控制饮食和健康决策,就像听塞壬的歌声一样危险。这不可避免地会导致加速和迅速的死亡。或者,如果你愿意,让意识在晚上控制饮食和健康决策,就像无法完全掌控自己的能力一样危险,就像周期性精神崩溃者的例子。在这两种情况下,都有一个更可控、更理性的版本被推迟了。
不,这不一样。这里有一个关键的区别,可以说,无论是尤利西斯还是这个躁郁症患者,他们都在两种状态之间转换:一种情况下能够给予同意,另一种情况下则无法给予同意。但这不是一回事。晚上的自己非常能够思考、选择、沉思、爱、学习、欢笑,所有这些。晚上的自己是完整的,否认晚上的自主权就是否认晚上的自己的存在本身。但如果你尊重我这个人,如果你尊重那个现在还没有存在过的未来的早上自己,那么无论他们的选择如何,你也必须尊重晚上的自己,不是吗?”
那么,对于尤利西斯,你会把他从桅杆上解开吗?
“不,当然不会。但他被施了魔法,他的意志已被征服,已被压制。”
很好,很好。我同意。但这与未能通过棉花糖测试或那些越累就越保守的假释法官有何不同?他们的意志难道不是像你说的那样,被当下对甜食奖励的需求或认知能力的下降所否决了吗?在任何特定的时间,我们怎么能说拥有完全的能力意味着什么呢?难道不是像之前多次说过的那样,很多时候我们的行为表现得好像环境中缺乏某些资源——比如糖或社会信息——所以我们在现代世界中过度放纵,即使其实现代世界早已不缺乏这些资源?难道不应该说,在这种情况下,观察这种行为,他们的意志已经被否决了吗?想象两种情景……也许这可以是我们对电车难题的扭曲版本。我们站在船上,拿着一个救生圈,准备把它扔到海里给两个落水的朋友。其中一个,在右舷,Cognitive Bias跳下了船,正朝着一根漂浮的圆木上安静地坐着的一块棉花糖游去。另一位,在左舷,尤利西斯跳过了船头,并且正朝着塞壬游去。Game Play释放了他,因为认为他在任何时候都是一个完整的真实的人。我们要救谁?
感觉我们实际谈论的并非我们自认为在谈论的内容。让我们先谈谈我们都认同的。那就是,人生中总有那么些时候,一个人对自己的行为或多或少有控制权。对吧?这是在假释法官、尤利西斯、棉花糖和晚间自我的例子中都能体现的共同点。但这感觉像是一个古老的科学问题:我们谈论的是种类的差异还是程度的差异?这是很大的区别。似乎,Blueprint,你是在说存在着种类的差异——也就是类别上的差异。要么完全掌控,要么完全不掌控,就像尤利西斯在歌声响起前那样,要么完全掌控,要么完全不掌控,就像他恳求别人放他出去游向塞壬的时候。而你们其余几个人似乎在说,‘好吧,当然,是有差异,但只是程度上的小差异’,比如说,晚间自我可能只有白天自我百分之十的意志力单位。而且我们不应该因此而责怪他,因为说真的,究竟谁能知道一天中这种差异会如何变化,以及这个估计的误差幅度是多少。
关于房间里不同意见的分歧,是否非得归结为科学中的‘聚合者与分裂者’困境,或者‘种类与程度’困境。我认为这要简单得多。我认为这可能与人们认为的‘晚间自我’可能造成的伤害程度有关。在这里,我可能比房间里的大多数人立场更坚定。我认为‘晚间自我’就像面对塞壬歌声的尤利西斯一样脆弱,并且同样愿意为了一些无意义的享乐主义愉悦而牺牲身心健康的活力甚至存在本身。当你以这种严厉的方式看待它时,选择就很清楚了。必须将‘晚间自我’从等式中剔除。没错,在某种程度上,这仍然是一个人在有意识地选择。这个想法并不是要像《1984》那样进行意识形态上的极权化压制。这个想法仅仅是预测我们何时不太能够做出清晰和连贯的决定,并陷入一种尤利西斯式的自我契约,即他们放弃在夜间被绑在棍子上的需求。
我们真的只是在谈论饮食吗?我有一种直觉,你说的可能是更重大的事情,Blueprint。是这样吗?
“在某种意义上,是的,我是。‘自我意识的降级’这个说法是我在我的探索中非正式的口号,但我这么说主要是因为它通常足够具有挑衅性,能够打破根深蒂固的规范。当然,我确实是这么想的,在狭义上而言。更准确地说,应该是‘通过一种优于你自然能力的算法,将你的决策提升并交给自我中最有能力的生理实例’。我们在晚上睡得更好,对吧,这是基于循环激素及其峰值?这是由我们的生理、基因和进化所驱动的。我们有锻炼和表现的昼夜节律,对吧?这也是由我们的生理、基因和进化所驱动的。我们有狭窄的生育窗口来尝试孕育一个可行的胎儿。这也是由我们的生理、基因和进化所驱动的。发现其中的规律了吗?我只是说,我们的认知清晰度很可能也会有生理驱动的峰值,我们应该关注这些时刻,并让它们驱动许多包含无数变量、在我们无法理解的时间尺度上的重大决策。我不是说我知晓一切,也不是说知晓每一个峰值或代谢或认知中的每一个反例。我要说的是,正如我们的器官专门化来以不同效率执行各种任务,并且我们相信它们能够做到一样,我们也应该同样认识到,我们大脑的功能以及我们通过艰难抉择进行推理的能力,可以克服困扰我们的数百种认知偏差,也会有低谷、高峰和波动,而且一天中的某些时段在处理认知方面比其他时段更具优势。
我们的大脑和其他所有器官一样,是一个生物实体和器官。它会对剩余可用的能量、代谢以及整天不断变化的生物学和生活的各种因素做出响应。忽视这一事实对我们有什么好处呢?
“在一天中的不同时刻,我们都会感到自己的控制力更多或更少。但自我意识并不会让你安于这一事实。即便你把大脑切成两半,或者让它中风导致偏侧失认,这个人说话含混不清、喃喃自语、毫无意义,他们仍会认为自己说的话是有道理的。大脑有史以来施展过的最大把戏就是让你相信它知道你为什么做出了你做出的选择。既然我们知道它随时可能背叛我们,就像塞壬的歌声一样,我请问各位:你们会给自己的耳朵塞上蜡吗?我向你们保证,在做出这个决定之后,那边会有一个更美丽、更丰富的生活等着你。”
Blueprint所提出的这样一个概念其实并不完全新颖,他就类似于像是我们平时说的“自律”一样,但是他的表述更加的系统性,更加的细致和极端。他想要用一套价值体系或者说哲学去完全地指导进行所谓的“自律”的方式和要做到什么程度。但是这种剥夺个人对于当下自己的选择权和自由的行为是十分危险,在各种反乌托邦的科幻小说里都出现过,甚至在人类历史上也出现过。
我得这么做。我担心,Blueprint,即便我同意你的观点——即便你今天在这个房间里说服了我们所有人——这并非孤立的想法。这不仅仅是‘超乎想象的节食窍门’的想法。这是关于自动化的一个更大、更系统性的想法,其影响更为深远。据我所闻,其基本前提是,人人类的思维并不具备解决我们面临的最难问题的能力。如果我们连控制自己在深夜不暴饮暴食都做不到,尽管那对我们未来的自己有害,那么我们怎么能想象人类整体能够做得更好呢?我们一直在疯狂消费化石燃料、进行自我毁灭的行为和战争,损害了我们未来的自己。我们一直如此。永远都会这样。这就是那个想法吗?
确实如此。
那么,坦率地说,我担心如果这一前提假设站稳脚跟,可能会产生民族国家、极权主义和技术滥用的潜在风险。这是一个被反复讲述的故事, 技术总是首先掌握在有权势的人手中,而有权势的人对权力的反应第一步就是拼命抓住他们的权力,好像他们的生命依赖于此。而实现这一目的的经典方式,可以一直追溯到,哦,我不知道,原始海洋时期,就是限制任何妨碍者的自由。这是单细胞生物之间的战争,这是全球性的地缘政治战争。尽管我们有时用不同的术语来谈论,但这始终关乎或多或少程度的自由。也许这只是品牌推广或公关问题,但对我来说,听到“自我意识降级”这个词,就会想到专制政权对这种想法垂涎三尺。剥夺人们的选择,剥夺人们的权利。对于人体营造一种内稳态或受保护的环境的想法有一种实用主义的冷酷感,在这种环境中,细胞老化时必须死亡,所有外来者都要被免疫系统标记并攻击。如果将这种做法推广到整个世界,我们难道不是在谈论对思想、对意识的全面压制吗?这不就是 1984 年的情景吗?这不就是《美丽新世界》吗?
“没错,没错。我知道你想说什么,‘好吧,好吧,也许一个不错的、受算法启发的饮食和健康计划对于一个个人延长寿命或优化健康状况是可以接受的,但这种更大的版本,在全球范围内,可能会被用于作恶?’’
基本上是的。
“这不仅仅是一个公关问题。这是一个根本的方法论问题。你没有办法去剥夺人的自由,同时还能让自己听起来像个好人。哪怕只是对一个人这么做。更别说对全人类而言,根本不可能做到。”
“你刚才的描述很有趣。为什么我们在假想这个的技术是被说成是自由的减少,而其他效率和算法方面的技术——举个简单的例子,地图和导航,这完全是算法驱动的,效率高得多,而且完全是由‘自我意识的降级’所驱动的,因为事实证明,意识总是让我们迷路,而且不可能记住世界上每一条道路——为什么不能用同样的术语来描述呢?难道我们就不能考虑这种假设的、算法的、类似人生导师或人工智能之类的东西,为我们提供认知和行为的高效路线吗?它已经为我们的出行和汽车导航做到了这一点,从地点A到地点B,对吧?真的,这与将想法 A 映射到想法 B 或者避开认知上的“交通拥堵”有何不同?
“你说‘认知交通拥堵’,你指的是……到底是什么意思?”
“我的意思是效率低下、怪癖、偏见或者疲劳。任何次优的决策常规。为什么我们不应该像避开事故或路上的交通一样避开它们呢?当有人痴迷于自己无法控制的事情,或者说自己太饿了以至于脑海中不停地想着食物时,这不就是认知上的交通堵塞吗?也许悲伤或注意力不集中就像事故或测速雷达。我们为什么要断然拒绝受帮助呢?”
“我不认为这是Seeks Authority想说的意思。我觉得他是在从宏观的历史角度阐述更多的东西。而且我认为他有一定道理。在个人层面和社会层面做某件事,在执行方式和道德结果上是有区别的。一个非常棘手的问题是,如果这类技术在人类历史的更早时期就已上线,它们会被如何应用。倘若我们在黑暗时代、十字军东征期间,或者在奴隶制或殖民主义最严重的那些年,就有能力让算法支配自己,那会怎样?鉴于当时流行的种种花哨的理想,难道这些技术不会被用来以效率、健康、年龄或其他当时流行的美好理想为借口,来‘贬低被压迫者的意识’吗?”
“如果是这样,这意味着我们应该思考这里的历史,并认识到历史并非总是对各种思想或人类公平的。例如,尼采死后,他的作品被他的妹妹篡夺并重新利用——确切地说,是经过编辑和重新制作——以适应一种在二十世纪被广泛滥用并为无数恶行辩护的意识形态。所以,坦率地说,让我们把“Seeks Authority”的担忧推向它可能得出的最黑暗的结论。比如说,假设你的想法成功了。地球处于危险之中,全球变暖的情况变得非常非常糟糕。人类似乎无法解决任何问题,而你被委以重任,你的任务是利用你通过做类似“Blueprint”的工作所获得的工具和知识来延长人类的寿命,你会怎么做?这样我就能开始设想从宏观角度来看这会是什么样子。这会有所帮助。”
“感谢您的提问。首先,我会尽一切可能获取地球健康状况的读数,不是以主观术语,而是以基于科学事实的客观数据。整个地球的血液检测相当于什么?心电图或脑部扫描的等效物又是什么?我们能获得这些吗?一个很好的模型是现在遍布全球的空气质量传感器,但主要集中在工业化国家。它们能很好地捕捉到特定且高度动态的测量数据,这些数据在几分钟或几小时内发生变化。我会扩大这一范围,以覆盖某种海洋传感,并在整个陆地、空气,当然,可能甚至是太空均匀分布传感器,以防存在只有从低地球轨道之外才能检测到的全球健康的替代指标。为什么不呢,对吧?我会将所有世界的超级计算机用于运行模拟,并基本上对所有可能工程化的变量进行双盲实验,包括所有人类从未考虑过的隐藏变量。”最重要的是,这个系统根本不会有先验知识,也不会在其假设中纳入基于第一性原理的思维。我尊重所有的地球物理学家、科学家以及如今所有努力工作的人,但我们必须实事求是,他们可能并非无所不知。我们只是还不知道万物是如何运作的。而且,如果我们这个物种的生存受到威胁,我会尝试整合所有这些数据,寻找令人意外的变量。正如Game Play所说,寻找零点。一旦我们知道能够有效地提供关于地球状况的无偏见且全面的状态快照,我们就可以开始了解如何推动而非阻碍地球健康状况的变量。
“请原谅我打断你,但是谁来决定‘健康’的含义呢?我对这部分感到困惑。在我的农场,我们会杀死某些昆虫,因为我们的目标是农作物的产量。如果目标是,比如说,让最大数量的蝗虫存活下来,那么,嗯,我们就得采取不同的措施了。人类的福祉和所有物种的福祉是不同的,而这往往意味着某种灭绝、捕猎或诱捕......
“说得好。这与之前关于我们是否会放弃自己选择未来的权利以过上最好或最理想生活的思想实验并无不同。没有人真正知道“最好”意味着什么,尤其是在他们没有过上最好生活并且甚至无法想象的时候。至少Blueprint似乎相当坦诚,他的目标是尽可能长寿。而永生这个目标是一个清晰且很好定义的目标,因为至少我们能理解这个目标。我们能理解它,我们能定义它,我们知道成功的条件,因为它要么实现了,要么没有。它要么成功了,要么失败了,而且自古以来一直是一些人的目标。具有讽刺意味的是,许多人都在追求它的过程中丧生。如果你把为了追求永生而失去的生命年数与通过追求永生增加的生命年数进行比较,那绝对是失去的生命年数占压倒性优势。”
确实如此。人们在以拯救世界免于迫在眉睫的毁灭为幌子下,犯下了难以言喻的恐怖罪行。这是一个太过简单且令人恐惧的套路,不容忽视。想想看,在过去、现在或未来的宗教中,有多少宗教提到了世界末日。第二次降临,洪水,瘟疫。为了人类的生存而发动的圣战。即使我真的负责为人类设计一种计划,当算法基于世界处于危险之中这一故事要求采取行动时,最大的担忧在于所需的道德等值性。在大多数时候,在人类历史的大部分时间里,这种前提都是错误的。最多只是夸大其词。即使在冷战期间最可怕的几分钟里,我们谈论的也不是人类物种的彻底灭绝。只是对少数幸运的幸存者来说,是一次非常非常可怕的重置。但智人曾在冰河时代最严重的瓶颈期减少到只有几百人。我们挺过来了。所以,对于这种道德练习来说,最重要的问题之一就是确定我们如何能够确切地说出风险是什么。”我相信,这场危机关乎生死存亡,正如我坚信人类生命是有限的,我们都会在某个时候死去。只有当你真正相信我们整个物种处于危险之中这一前提,那么诸如降低意识水平或其某种变体之类的极端措施才是合理的。这是针对一个前所未有的问题提出的极端解决方案。
“这正是问题的关键,我现在明白了。我可以很容易地想象出这个算法,顺便问一下,我们能给它起个名字吗?有人能给监督地球健康的人工智能取个好名字吗?好吧,无论如何,我可以很容易地想象算法决定执行相当于“自我意识降级”的行为,这意味着……哦,我不知道,摆脱所有掌握控制权或有较大自由的科学家、学者或政治家。这样就行了,对吧?这相当于对人类进行脑叶切除。但这也是——Scribe,如果我说错了,请纠正我——东大的某些历史事件、哈基咪的清洗和斯大林的清洗是什么。可以说,这些都是在试图斩断文化的蛇头。整个社会的自我意识都被降级了,所以我想知道的问题是,在一个群体甚至是整个星球的层面上实现个体身体的一些自我平衡驱动会是什么样子?我们可能不会喜欢它的代价。”
“对于历史上的那些清洗,你大体上是对的,“除了目的论的部分。在你提到的那些历史案例中,目的不是拯救,而是消除异议。”
“这是对某种特定思维方式和统治方式的拯救。这都只是一种观点,不是吗?对我来说,这场辩论中更令人困惑和微妙的部分之一是人工智能可能提出的解决方案的严重性。即使在漫威的漫画书中,最大的反派之一是一个被设计用来保护地球的机器人,它可能经过理性思考,一旦掌握了足够的数据,就认定世界上的‘英雄’和我们可爱的主角实际上弊大于利,所以需要被消灭。也许这就是人工智能在掌握了足够多的关于我们的数据后会得出的结论。我们怎么知道拯救我们的解决方案不是像《黑客帝国》那样只保留少数人,或者像《复仇者联盟》那样把我们都消灭掉呢?”
“如今我们创造的小说和神话实际上正在处理许多同样有关过度监管和过度干预的道德困境和技术问题。我刚刚看了一段视频,是关于职业围棋选手从能够击败所有人类围棋选手的人工智能中学到的东西,总的来说,人工智能极其擅长理解和利用牺牲。它们将棋子投入敌方阵地的风暴中心,因为在一百步棋局之后,这个行为能让它们多拿一分。这是残忍且精明的,没有考虑到每颗棋子可能遭受痛苦、有意识或感到疼痛的可能性。我想说,人类价值观比生存更重要。我们如何量化这些价值观呢?”
“这些是极其棘手的问题。但这种牺牲的想法在某种程度上是一种无法量化的现象,不是吗?仅仅为了继续作为有生命、会呼吸的生物而活着,在我们的一生中,就有数百万亿个细胞脱落和更新,以保持生命的运转。免疫细胞攻击可能癌变的弱化细胞。皮肤不断更新,可能也是为了降低突变风险。尽管合成食品有所进步,但我们确实必须吃其他生命,而且必须不断吃其他生命来维持自己的生命。这里的每一种动植物都是某种形式的牺牲,这一切都是为了保持生命这一永恒不变且看似无可置疑的道德正确性。如果生命的意义仅仅是……继续活着,那么这些道德准则又有什么不同呢?在生命的各个层面都有权衡,都有牺牲。都有死亡。如果有一天人类消失了,这一切都将毫无用处。这一切都将毫无意义。所以,我不想回避关于牺牲的极其困难的问题。事实上,它是我们之前讨论的核心。如果手被卡住了,你会为了生存切断它吗?对于人类这个物种和整个地球来说,牺牲什么才是一个合理的类比?为了活得更长久、更健康,你会做出什么样的牺牲?你会为了做到这一点而牺牲咖啡、酒精以及和朋友们一起享用的大快朵颐的狂欢式晚餐吗?这些都是一遍又一遍相同的问题。也许我误解了大家的想法。我原以为我们都认同牺牲是进步中一种不可避免且自然的部分。
“但牺牲自己身体的一部分,与为了某种信仰而牺牲他人的生命,甚至他们的幸福相比,就相形见绌了。这不又是宗教的老调重弹吗?那些有某种信仰的末日预言家在山顶上大声呼喊?”
“是吗?我想也许你只是低估了事情可能恶化的速度有多快。这几乎就像帕斯卡的赌注,但关乎我们的生存。我们的星球要么走向所有生命的灭绝,要么不会。你要么认为这是不可避免的、迫在眉睫的,要么认为是可以避免的。如果你选择不采取行动,你就是在打赌它不是迫在眉睫的,甚至可能不是不可避免的。不作为在这里仍然是一种赌注。我认为,如果整个人类——每一件艺术品、每一个想法、每一刻的爱、欢乐、家庭和幸福——如果这一切都岌岌可危,人类及其手臂被困在岩石下,实际上你会牺牲很多部分来拯救整体。这里有人提到了沙克尔顿。那也是一场充满了大大小小牺牲的牺牲之旅。有的人失去了脚趾,他们错过了许多与朋友共进温暖的晚餐的机会。为什么?因为他们不能不去。对某些人来说,这是世界上最容易的决定。”
“我们能回到Seeks Authority之前关于这类似《美丽新世界》的观点吗?让我们剖析一下那本书的内容。在那个世界里,自动化已经成为社会不可或缺的一部分,以至于亨利·福特本人备受尊敬,以至于福特 T 型车推出的年份成为了零年。在这个世界里,工业规模自动化的创造者被尊崇为上帝,取代了另一个神话体系。这是一个基于科学和效率的世界,孩子们被分配到社会阶层中,因为这是他们被设计好的角色。一切都围绕着大规模的全球效率。像认知偏差这样的麻烦事,主要通过消除儿童的所有情感和大部分思考来完全消除。不再有麻烦的情感来妨碍理性!这是一个完全反科技、反乌托邦的噩梦。但这本质上是一个关于如果完全实现你的想法会发生什么的思维实验,Blueprint,对吧?如果那个算法告诉我们,《美丽新世界》中的情况恰恰是唯一的未来之路,你会怎么做?我们会怎么做?”
“嗯,关于人们是跟随自己的直觉还是步入反乌托邦,有很好的数据可以说明。1984结尾的惊悚之处在于电视背后居然有摄像头。而现在,我甚至认为你已经无法买到没有摄像头的新电视了。我们都自愿成了监视的一部分。”事实证明所有人都低估了人类思维对自身自由逐渐受到侵蚀的关注程度。“而在这里,我们再次重温了同样的基本论点。对于我们认为的人类基本体验,哪些独特之处是我们愿意放弃的?如果手被困住了,我们会割舍吗?为了认知上的纯粹性,我们会拒绝食物或陪伴吗?我们是否认为偏见是种罪过,值得将它们从世界上消除?我们是否相信一场灾难性的末日即将来临,以至于需要采取极端措施?”
“如果我们退一步,看看这些对话中的共同点,一切都会变得清晰。几乎我们所有的分歧都取决于一个人是否相信所提出的可能结果的严重性。被困在岩石下最终是否会百分之百要了你的命,或者你被营救的几率是多少。世界是否即将迎来末日,可能在我们每个人的想法中都有所不同。我猜,如果我们都百分之百确信默认结果的严重性和确定性,那么我们的道德准则也会变得相似。我认为我们之间的相似性比我们意识到的要多。”
可以看到,这些角色对于Blueprint的价值观并不完全认可,每个角色都各执己见,他们的争论和讨论实际上就是本书作者Bryan Johnson自己曾经内心中对于这个话题的思考和摇摆不定。在下一期节目中,将会出现一个新的角色,Zero,他将会提出一个非常核心的理念,Zeroism,并且用这个理念解决角色间的分歧,为他们的争论画上句号。
以上就是本期节目的全部内容,可能讲的比较混乱,但还是希望你能有所收获。如果你想要直接阅读本书,可以去B站搜索Don't Die中文版。
No comment
00:00
/ 35:06