Lex Fridman 与 Elon Musk 的对话

Grok翻译: https://lexfridman.com/elon-musk-4-transcript


战争与人性

我最近一直在思考罗马帝国,就像人们常做的那样。


有一个梗说所有男人都至少每天想一次罗马帝国。


一半人对此感到困惑,不知道这是不是真的。但更严肃地说,考虑到当今世界正在发生的战争,以及你所知道的,战争和军事征服一直是罗马社会和文化的重要组成部分,我想这也是人类历史中大多数帝国和王朝的重要部分。


是的,它们通常是通过征服建立的。不过也有一些例外,比如哈布斯堡帝国,他们通过许多聪明的联姻策略扩张。


但从根本上看,征服是一种动力,他们崇尚战争中的卓越,许多领导者都是杰出的将军之类的人物。所以我想问一个宏观的问题,经过Grok认可的……


经过测试,Grok认可了。是的。


至少在娱乐模式下是如此。你认为战争在多大程度上是人性的一部分,还是人类社会结构的结果?我之所以问这个问题,是因为你似乎在某种程度上颇具争议地成为和平的倡导者。


我通常是和平的倡导者。在我看来,无知可能是真正的敌人,需要去对抗。这才是真正困难的部分,而不是与其他人作战。但所有生物都会争斗。人们可能认为自然是某种和平的事物,但事实并非如此。Werner Herzog有段很有趣的描述,他在丛林中说,那里基本上是四处充满谋杀和死亡。丛林里的植物和动物每时每刻都在试图杀死对方。所以在这方面我们并不特殊。


这里有一个相关的问题:随着智慧的增长,是否会对这些暴力的基本本能有更大的控制?


是的。相比黑猩猩,我们对控制暴力的本能有更多的能力。实际上,如果你观察黑猩猩社会,它并不友好。Bonobo是个例外,但黑猩猩社会充满了暴力,坦白说相当可怕。那是我们本能系统在起作用。你不会想站在黑猩猩的错误一方,它会把你的脸吃掉,把你的睾丸扯下来。


是的。基本上在黑猩猩社会里没有限制、伦理,或者几乎是纯粹的战争。黑猩猩社会里没有所谓的正义战争。战争和不择手段的支配地位?


是的。黑猩猩社会是人类社会的一个极端版本。它们基本上完全不爱好和平。暴力极强,偶尔会有人因为看了太多迪士尼电影,决定养一只黑猩猩当宠物,结果那只黑猩猩吃了他们的脸,或者扯掉他们的睾丸,或者咬掉他们的手指,这种事发生过好几次。


扯掉你的睾丸是一种有趣的互动策略。


确实有人遇到过这种情况。真不幸。我猜这是一种确保对方无法继续贡献基因库的方式。


从武术的角度来看,这是个迷人的策略。


“睾丸破坏者”。


我想知道哪种武术会教这个。


我想说,如果有人抓住了你的睾丸,并且有扯掉它们的选项,你会愿意听从他们的一切要求。


以色列-哈马斯战争

如我所说,颇具争议地,你在Twitter上,在X上一直是和平的倡导者。


是的。


所以我想问你关于当今正在发生的战争,看看通往和平的道路可能是什么。你希望当前以色列和加沙的战争如何结束?在那个地区,从长远来看,你认为有什么路径可以最大限度地减少人类苦难?


嗯,那个地区……如果你查字典,找不到简单的答案。以色列和中东地区尤其如此。所以没有简单的答案。这纯粹是我的看法,我认为哈马斯的目标是挑起以色列的过度反应。他们显然不指望军事胜利,但他们真的想犯下最严重的暴行,以此挑起以色列最激烈的回应,然后利用这种激烈回应,在全球范围内团结穆斯林支持加沙和巴勒斯坦的事业,他们在这方面已经成功了。所以这里有一个违反直觉的想法,我认为应该做的事情,尽管非常困难,我建议以色列尽可能做出最显而易见的善意行为,尽其所能,这是对抗哈马斯目标的实际方法。


所以在某种意义上,在地缘政治中,转过脸去让人打另一边脸。


这不完全是转过脸去让人打另一边脸,因为我认为以色列找到哈马斯成员并将其消灭或监禁是合适的。这是必须做的,否则他们会不断回来。但除此之外,他们需要尽其所能。有一些讨论,比如建立一个流动医院。我建议去做这个。确保有食物、水、医疗必需品,尽可能做到极致,并且非常透明。所以不能让人声称这是个骗局。装上摄像头,24小时直播。


实施善意的行为。


是的,显而易见的善意行为,毫无疑问的,因为哈马斯会说“这是个骗局”。因此,你必须反驳这种说法,证明这不是骗局。


这最终是在对抗该地区更大的仇恨力量。


是的。有人说过——我不确定是谁,可能是个谚语——以眼还眼会让所有人都变成瞎子。在那个地区,他们真的很相信以眼还眼。但如果你不想彻底对整个民族实施种族灭绝——这显然对任何人来说都是不可接受的,也不应该被接受——那么你会留下很多活着的人,他们随后会仇恨以色列。所以真正的问题是,你每杀死一个哈马斯成员,你创造了多少个新的哈马斯成员?如果你创造的比你杀死的多,你就没成功。这就是那里的真实情况。可以肯定地说,如果你在加沙杀死某人的孩子,你至少制造了几个哈马斯成员,他们会为了杀死一个以色列人不惜一切。这是现状。但我要说,这可能是最容易引起争议的话题之一。但如果最终目标是某种长期的和平,你必须从长远的角度来看,你是在制造更多的恐怖分子,还是在减少恐怖分子?


让我再停留在战争话题上。


是的,战争,可以肯定地说,战争一直存在,也将一直存在。


一直存在,也将一直存在。


我希望不会。你认为它会一直——


战争将一直存在。问题只是战争的规模和程度。但想象未来完全没有战争,我认为这是一个非常不可能的结果。


是的。你提到过《文化》系列。那里也有战争。


是的。那是一场巨大的战争。第一本书一开始就是一场巨大的银河战争,死了数万亿人。


但尽管如此,它仍然保护了一些繁荣的角落。不知怎的,你可以有银河战争,同时仍有繁荣的角落。


是的,我想如果有一天我们能够扩展到整个银河系,总有一天会有一场银河战争。


我的意思是,战争的规模一直在增加、增加、增加。就像痛苦的规模和繁荣的规模之间的竞赛。


军工复合体

很多人似乎利用这场悲剧敲响战争的鼓,喂养军工复合体。你担心那些鼓吹战争升级的人吗?如何阻止这种情况?


我确实担心的一件事是,现在活着的人中很少有人真正从直觉上理解战争的恐怖,至少在美国是这样。显然,在乌克兰和俄罗斯前线的人明白战争有多可怕,但有多少西方人真正理解?我的祖父参加过二战,他深受创伤。他在东非和意大利呆了将近六年,他所有的朋友都在他面前被杀死,他本也会死,但他们随机给了他一些测试,可能是智商测试,他得分很高。他不是军官,我想他是个下士或中士,因为他没读完高中,他父亲去世后他辍学去工作养家。所以因为他没读完高中,他没有资格进入军官团。


所以他基本上被归类为炮灰。但后来他们随机给了他这个测试,他被调到伦敦的英国情报部门,在那里遇到了我祖母。但他有严重的创伤后应激障碍,极度严重。他几乎不说话,如果你要跟他说话,他会让你闭嘴。他赢了很多勋章,但从不吹嘘,甚至从不提起。我是通过在线查他的军事记录才知道的。所以他会说:“无论如何你都不会想再经历一次。”但现在还有多少人活着记得二战?不多了。


同样的情况可能也适用于核战争的威胁。


是的,美国有足够的核弹对准我们,能让放射性尘土多次覆盖整个国家。


现在有两场大战正在进行。你经常谈到AGI的威胁,但现在我们坐在这里,冲突的激烈程度如此之高,你担心核战争吗?


我认为我们不应该否认核战争的可能性。这是一个文明威胁。现在,我可能错了,但我认为当前核战争的概率相当低。但有很多核弹对准我们,我们也有很多核弹对准其他人。它们仍然在那里。没人放下枪。导弹仍然在发射井里。


而且领导人之间似乎没有直接对话,那些拥有核武器的领导人。


没有,有些战争在局部层面上是悲惨和艰难的。还有一些战争可能会终结文明,或者有这种潜力。显然,全球热核战争有很高的潜力终结文明,或许是永久性的,至少会严重伤害人类文明,可能将人类进步倒退到石器时代。我不知道。会很糟糕。科学家和工程师可能在那之后变得超级受欢迎。你把我们带进了这个烂摊子。所以总体来说,我认为我们显然应该优先考虑文明风险,而不是那些在局部层面上痛苦和悲惨但不威胁文明的事情。


乌克兰战争

你希望乌克兰战争如何结束?再次,如何才能最大限度地减少那里的苦难?


嗯,我认为很可能会发生的情况,基本上就是现在这样,停火或休战会沿着当前战线发生。但现在的情况是,无论哪一方发起进攻,伤亡率都会是防守方的几倍,因为有纵深防御,有雷区、战壕、防坦克设施。没人拥有空中优势,因为防空导弹比飞机强得多,数量也多得多。所以双方都没有空中优势。坦克基本上是死亡陷阱,移动缓慢,对防坦克武器没有免疫力。所以你真的只有远程炮兵和步兵作战。这就像一战重演,只是多了无人机。


这让远程炮兵更加精准和高效,因此在双方杀人方面更有效率。


所以无论哪一方都不想尝试推进,因为死亡概率极高。为了突破纵深防御、战壕和雷区,你真的需要在局部拥有显著的兵力优势,最好是结合快速攻击,用飞机、集中坦克和大量人员,这是唯一能突破防线的方式,而且突破后不能让对方增援立刻把你赶出去。我真的建议大家详细阅读一战的战史。那很残酷。死亡人数多得令人难以置信。


几乎无法想象这场战争的结束不会看起来和开始时几乎一样,谁拥有哪块土地等等。但在另一边是大量的人类苦难、死亡和基础设施破坏。


是的。我一年前提出某种休战或和平的原因是因为我几乎准确预测了会发生什么:很多人死亡,但土地几乎没有变化,乌克兰和俄罗斯的年轻一代精英损失殆尽。我们也应该对俄罗斯的年轻人有些同情,就像对乌克兰的年轻人一样,因为俄罗斯的年轻人也没要求上前线。他们是被迫的。所以很多儿子回不到父母身边,我想他们大多数并不仇恨对方。就像一战时的一句话:互不相识的年轻人为了互相认识的老人们而互相残杀。这有什么意义。


泽连斯基过去曾说,他对与普京直接对话不感兴趣。你认为他应该坐下来,面对面,以领导者的身份谈判和平吗?


我认为我只会建议不要把乌克兰的年轻精英送去战壕送死,无论他是否与普京对话。总之不要这样做。谁进攻,谁就会损失大量人员,历史不会善待他们。


中国

你曾坦诚谈到美国和中国之间长期可能发生战争,如果在台湾问题和一个中国政策上找不到外交解决方案,我们如何避免这两个超级大国发生冲突的轨迹?


嗯,值得读一读那本书,名字很难发音,叫《修昔底德陷阱》,我记得是。我很喜欢战争历史,熟读各种战役,试图弄清楚胜利的真正原因,而不是某一方声称的原因。


胜利的原因以及战争爆发的起因——


是的。所以雅典和斯巴达是个经典案例。希腊人记录了很多东西,他们喜欢写作。世界上很多地方发生了有趣的事,但人们没记录下来,所以我们不知道具体发生了什么,或者记录不详细。他们只会说“我们打了一仗,我们赢了”。能不能多说点?希腊人真的写了很多,非常善于表达。我们保存了他们的很多文字。所以我们知道斯巴达和雅典联盟之间伯罗奔尼撒战争的前因后果,我们知道他们预见了这场战争。


斯巴达人不太写东西,他们本性上不善言辞,但他们确实有记录,只是话语不多。但雅典人和其他希腊人写了很多,斯巴达可以说是希腊的领导者。但雅典一年比一年强大。每个人都在说,雅典和斯巴达之间的冲突是不可避免的。那么,如何避免呢?他们实际上预见了这场冲突,但仍然无法避免。所以在某种程度上,如果一个群体、一个文明或一个国家超过另一个,比如美国自1890年左右以来从经济角度一直是最大的国家。


所以美国一直是世界上最强大的经济引擎,比任何活着的人的寿命都要长。而战争的基础是经济。现在我们面对中国的情况,中国的经济可能比美国大两倍,甚至三倍。想象一下,你一直是街区里最大的孩子,时间长到没人记得起,然后突然来了一个比你大两倍的孩子。


所以我们看到它来了,如何阻止?让我抛出一个想法:文化的混合与理解,似乎中美之间存在巨大的文化理解鸿沟。你是个有趣的案例,因为你是美国人,显然在美国做了很多了不起的制造业,但你也与中国合作。


我在中国花了很多时间,多次与领导层会面。


或许一个好问题是,人们不了解中国的哪些方面,从文化积极的角度?你学到了哪些有趣的东西?


嗯,中国有数量惊人的聪明且勤奋的人。那里有多少聪明又努力的人?在我看来,他们比这里多得多。而且他们充满活力。所以中国的建筑近年来远比美国令人印象深刻。火车站、建筑、高铁,一切都远比美国的更令人印象深刻。我建议有人去上海和北京看看那些建筑,坐火车从北京到西安,去看兵马俑。中国有非常悠久的历史,可以说是书面语言使用上最古老的之一,或许是最古老的,中国人确实记录了很多东西。


历史上,中国几乎一直以内部为中心,极少对外扩张。他们内部互相争斗,经历过很多内战。在三国时期,我相信他们损失了大约70%的人口。所以他们经历过残酷的内战,与之相比,美国内战显得很小。所以要认识到中国并非铁板一块。我们常认为中国是一个单一的、思想统一的国家。但绝对不是这样。从我所见,以及大多数了解中国的人都会同意,中国人思考中国的时间是他们思考外部世界的十倍。他们的注意力90%都在内部。


嗯,这不正是超级大国之间合作与未来和平的一个积极因素吗?当你专注于内部,专注于改善自己,而不是通过军事力量去“改善”他人。


好消息是,中国的历史表明中国并不好战,意思是他们不会去侵略一大堆国家。这很好。因为很多强大国家都好战。美国也是一个罕见的例子,不太好战。二战后,美国本可以接管全世界,任何国家都可以,我们有核弹,其他人没有。我们甚至不用损失士兵。想选哪个国家?美国本可以接管一切,但没有。美国实际上帮助重建了其他国家,重建了欧洲,帮助重建了日本。这种行为非常罕见,几乎史无前例。


美国做了显而易见的善意行为,比如柏林空运。人们总说,美国做过坏事。当然美国做过坏事,但你得看看整体记录。一个简单的测试是,你如何对待战俘?或者说,不针对俄罗斯人,但假如你在1945年的德国,一边是俄罗斯军队过来,另一边是法国、英国和美国军队过来,你想向谁投降?没有哪个国家是完美的,但我强烈推荐做美国人的战俘。这是我的选择。


在美国战俘的选择里是最好的。


确实如此。事实上,冯·布劳恩,一个聪明人,就说:“我们得被美国人俘虏。”事实上,党卫军奉命处决冯·布劳恩和所有德国火箭工程师,他们险些逃脱。他们说要出去散步,在隆冬时节没穿外套就离开了,没有食物、没有外套、没有水,拼命往西跑。他的兄弟好像找到了一辆自行车,然后尽可能快地往西骑,找到了一支美国巡逻队。所以,你可以通过想成为谁的战俘来判断道德。做战俘在哪都不好玩,但有些地方比其他地方差得多。总之,尽管美国远非完美,但总体上是一个仁慈的力量,我们应该始终自我批评,试图做得更好,但任何有点头脑的人都知道这一点。


所以在这方面,中国和美国有些相似。两个国家都没有显著的好战行为。所以这是一个共同的原则,我想。但中国对台湾问题确实有很强烈的态度。他们对此一直很明确。从他们的角度来看,这就像美国的一个州不在那里,比如夏威夷,但比夏威夷更重要。夏威夷对我们已经很重要了。所以他们认为台湾是中国的核心部分,只是因为美国太平洋舰队才没有成为现实。


随着他们的经济实力和军事实力的增长,他们明确表示他们的利益一定会实现。


是的,中国一直很明确,他们会通过和平或军事手段将台湾并入,他们认为这是100%会实现的。


你提到在地缘政治政策中进行显而易见的善意行为,这似乎很天真,但我敢说,这可能是避免大多数战争的道路。你说这听起来很天真,但其实很聪明。如果你相信人性中大多数是善良的,显而易见的善意行为可以在相关国家的人群中产生共鸣,起到缓和作用。


绝对是这样。所以一战后,他们犯了一个大错。他们试图把所有责任都推到德国身上,给德国施加不可能完成的赔偿责任。实际上,一战的责任有很多方面,但他们试图全推给德国,这为二战埋下了种子。所以很多人,不仅仅是希特勒,感到被冤枉了,他们想要复仇,他们也得到了复仇。


人们不会忘记。


是的,你杀了某人的父亲、母亲、儿子、女儿,他们不会忘记。他们会想要复仇。所以二战后,他们意识到,凡尔赛条约在一战中是个巨大的错误。这次他们没有压垮失败者,而是通过马歇尔计划帮助他们,帮助重建德国、奥地利、意大利等等。这是正确的做法。


显而易见的善意行为似乎是对抗这种循环暴力的深刻真理。


必须有东西来阻止这种报复性暴力的循环。必须有东西阻止它,否则它永远不会停。以眼还眼,以牙还牙,以命还命,永远无休止。


xAI Grok

为了暂时逃离黑暗,xAI刚刚发布了Grok AI助手,我有机会玩了一下。它在很多方面都很棒。首先,一个相对小的团队在短时间内能开发出接近最先进水平的系统,这很了不起。另一个令人惊叹的是它有常规模式和娱乐模式。


是的,我想这得怪我。


首先,我希望生活中每件事都有娱乐模式。


是的。


与大型语言模型互动的娱乐模式有种让人着迷的感觉,不仅仅是好玩。我还不确定具体是什么,因为我只玩了一点时间,但它让互动更有趣、更生动。


是的,绝对是这样。我们的AI,Grok,是以《银河系漫游指南》为原型设计的,那是我最喜欢的书之一,它是一本哲学书。


我最喜欢的书之一,是一本伪装成幽默书的哲学书。我想说那是我哲学的基础,我们不知道生命的意义,但我们越能扩展意识的范围和规模,无论是数字的还是生物的,我们就越能理解关于宇宙这个答案的问题。所以我有种好奇的哲学。


确实有种感觉,这个AI系统是向外看的,就像你和一个好朋友一起仰望星空,问一些深刻的问题,思考这一切的意义。你说的这种好奇心。无论我问它多么平凡的问题,整个过程都有种宇宙宏大的感觉。


嗯,我们其实在努力让它的工程、数学、物理答案可靠。所以对于其他AI,那些所谓的大型语言模型,我发现它们的工程答案并不可靠。当你最不希望它出错时,它往往会出错。所以当你问重要、困难的问题时,它往往会自信地给错误答案。所以我们真的在努力做到尽可能脚踏实地。你可以依赖这些结果,追溯到物理第一原理、数学逻辑。所以在幽默之下,是尽可能贴近宇宙真理的渴望。


这真的很复杂。


确实复杂。所以总是会有一些错误。但我们希望尽可能真实地回答问题,并承认错误。所以你不希望自信地出错,你不会每次都对,但你要尽量减少自信出错的频率。然后就像我说的,一旦你能确保逻辑不违反物理,你就可以在此基础上创造发明,发明新技术。但如果你不能确保基础物理是正确的,显然这些发明只是幻想,是魔法。


嗯,如你所说,我认为xAI的一大目标是理解宇宙。


是的,这是我们简单的三字使命。


如果你看向遥远的未来,你认为在物理学层面,我们理解的物理学的最前沿,AI会带来什么最激动人心的发现,比如统一广义相对论和量子力学?所以提出一个万物理论,你认为它能推动这个方向吗?几乎像是理论物理的发现?


如果一个AI不能发现新的物理学,它显然不如人类,也没超越人类,因为人类已经发现了新物理学。物理学只是深入了解现实如何运作。然后有工程学,发明前所未有的东西。现在工程学的可能性范围远大于物理学,因为一旦你弄清楚了宇宙的规则,那就到头了。你发现了已经存在的东西。但从那之后,你可以建造几乎无限多样的技术。就像一旦你正确理解了游戏规则,而以当前的物理学,至少在局部层面,我们非常好地理解了物理学如何运作。我们预测事物的能力非常强。量子力学预测结果的精确度令人难以置信。顺便说一句,那是我大学里最难的课。我大四的量子力学课比我其他所有课加起来都难。


让一个AI系统、大型语言模型像量子力学和物理学一样可靠非常困难。


是的。你必须用现实的真实情况来测试任何结论。现实是最终的裁判。物理学是法律,其他一切只是建议。我见过很多人违反人定的法律,但没人能违反物理定律。


这其实是个好测试。如果这个大型语言模型能理解并匹配物理学,那么你就可以更可靠地相信它对当前政治状态的看法。


而且目前它的内部逻辑也不完全一致。特别是用预测下一个词的方式,预测、预测、预测,就像向量求和。你在累加一堆向量,但可能会出现偏差。误差一点点累积,到后面很多词之后,就可能变得毫无意义。


所以它必须以某种方式意识到这种偏差。


它必须意识到偏差,然后从整体上看整个内容,说它整体上不连贯。作者写书时,会先写初稿,然后修改,考虑到开头、中间和结尾,重写以达到连贯性,确保不会到一个荒谬的地方。


也许修改的过程就是推理的过程,然后通过修改逐渐接近真相。至少我是这样做的,先说一堆胡话,然后改进。你从胡话开始,然后——


先写个草稿,然后在这个草稿上反复迭代,直到它连贯,直到一切都说得通。


另一个关于万物理论的问题,但关于智能,你在xAI中探索这个,创造这个智能系统?你认为会有一个智能理论,让你理解AGI中的“I”是什么,人类智能中的“I”是什么?


没有,美国队里没有“我”。等等,有的。


不,这句话会一直在我脑海里。量子力学里没有“我”之类的……我的意思是,理解宇宙的过程是否包括理解智能?


是的。我认为我们需要理解智能,理解意识。我的意思是,有一些基本问题:什么是思想?什么是情感?真的只是一个原子撞到另一个原子吗?感觉似乎不只是这样。所以我想我们可能错过了一些真正重要的事情。


一些事后看来很明显的事情。你把整个意识和情感放在一起。


嗯,有些人会提到灵魂,宗教里的灵魂。你感觉你是你,你不觉得你只是一堆原子的集合,但思想存在于哪个维度?情感存在于哪个维度?因为我们强烈地感受到它们。我怀疑这不只是原子撞原子的简单过程。


也许AI可以为发现那到底是什么铺平道路。


是的。什么是意识?当你把原子排列成特定的形状时,为什么它们能形成思想、采取行动、产生感觉?


即使这是一种幻觉,为什么这种幻觉如此引人入胜?


是的。为什么这种幻觉存在?它存在于哪个层面?有时候我会想,也许一切都有意识,或者一切都没有意识。两者之一。


前者,一切都有意识,似乎更有趣。


确实更有趣,是的。但我们是由原子构成的,这些原子由夸克和轻子构成,这些夸克和轻子从宇宙开始就存在了。


“宇宙开始”。


看起来是宇宙的开始。


外星人

我们第一次交谈时,你说过——想想这场讨论正在成为现实真挺超现实的——我问你一旦创造了AGI系统,你会问它什么问题?你说:“模拟之外是什么?”这是个好问题。但看起来有了Grok,你已经开始让这个系统的目标是能够回答这样的问题,并提出这样的问题。


外星人在哪里?


外星人在哪里?


这是费米悖论的问题之一。很多人问我有没有见过外星人的证据,我没有,这有点令人担忧。我想我更希望至少能看到一些外星人的考古证据。据我所知,我没有听说过任何证据。如果他们存在,他们隐藏得非常巧妙。我们可能是银河系中唯一的意识,至少在地球的历史上。如果我们相信考古记录,地球大约有46亿年历史。文明,从第一次书写开始算起,只有大约5000年。我们得给古苏美尔人一些功劳,他们已经不在了。我认为那是第一个真正的象征性表达,但也只有大约5000年前。我认为那是文明开始的一个好日期。那是地球存在的百万分之一。


所以文明至今只是昙花一现。为什么花了这么长时间?46亿年,大部分时间里没有生命。然后有很长时间只有原始细菌。然后线粒体被捕获,多细胞生命出现,分化为植物和动物,生命从海洋移到陆地,哺乳动物出现,高级大脑功能出现。太阳在缓慢膨胀,未来某个时候会加热地球,煮沸海洋,地球会变成金星那样的地方,生命如我们所知将不可能。所以如果我们不成为多行星文明,最终太阳系文明,地球上所有生命的灭绝是肯定的。肯定的。可能在银河时间尺度上只有5亿年,按人类标准很长,但那只是地球存在时间的10%多一点。如果生命在地球上进化慢10%,它根本不会存在。


幸好有个截止日期,你得赶紧。但正如你所说,地球上的人类智能生命很快发展了很多很酷的东西。所以成为多行星文明似乎几乎是不可避免的,除非我们自毁——


我们需要去做。我怀疑如果我们能出去探索其他星系,我们可能会发现一大堆早已死去的单一行星文明,它们从未走出自己的母星。


这太悲哀了。也很迷人。


是的。费米悖论有各种解释,其中之一是存在巨大的过滤器,文明无法通过。其中一个大过滤器就是,你是否能成为多行星文明?如果不能,迟早你的星球会发生一些事情,无论是自然的还是人为的,导致文明灭亡。就像恐龙,它们现在在哪里?它们没有宇宙飞船。


我认为更可能的是一种同情外星人的想法,他们发现了我们,在保护我们,让我们自己发展。


我希望是这样。好心的外星人。


就像亚马逊里的未接触部落,我们在保护他们。


那会是个不错的解释。


或者就像Andre Kappelhoff说的,就像亚马逊里的蚂蚁问“大家都在哪?”


嗯,它们确实遇到了很多其他蚂蚁。


是的。蚂蚁战争。


听起来像个不错的电视剧。


是的。它们确实有各种蚂蚁之间的大战。


也许我只是忽略了蚂蚁的多样性。


听听Werner Herzog谈丛林,真的很搞笑。你听过吗?


没有,我没听过。但Werner Herzog很特别。


你应该在节目中插播一下,在YouTube上有。很棒。


我很喜欢他。


他很棒。


他是《幸福的人民:泰加生活》的导演吗?还有——


他拍了那个熊的纪录片。还有企鹅的。


对企鹅的心理分析。


是的。企鹅朝70英里外的山走去,基本上是走向末日。


嗯,他有个悲观的看法。可能那只企鹅只是个勇敢的探险者,未来几个世纪企鹅群体里会流传它的伟大故事。我们在说什么?好的。


是的。所以外星人,我不知道。听着,我认为聪明的做法是,这是地球历史上第一次生命有可能扩展到地球之外。现在这个窗口是打开的。可能开很久,也可能开很短,可能现在开了然后再也不会开。所以我认为聪明的做法是趁着可能的时候让生命成为多行星文明。我们不想成为那种只在一颗行星上然后死去的蹩脚文明。


不,那些太蹩脚了。


是的。蹩脚。自尊的文明不会只有一颗行星。


维基百科上不会有它们的条目。SpaceX有遇到外星人的官方政策吗?


没有。


这似乎有点不负责任。


如果我看到一丝外星人的迹象,我会立即在X平台上发布我所知道的一切。


可能会成为有史以来点赞和转发最多的帖子。


是的。我们现在有比其他所有人加起来还多的卫星。如果有东西需要我们绕过去,我们会知道,但我们没绕过任何东西。


上帝

如果我们再回到大问题,你说过你认同爱因斯坦,你相信斯宾诺莎的神。


是的。


所以那是一种观点,认为上帝就像宇宙,通过物理定律显现自己,或者如爱因斯坦所说,“通过世界的合法和谐”。


是的。我同意上帝、模拟者或任何至高存在通过物理学显现自己,他们创造了这个存在,我们有责任去了解更多关于这个创造的信息。


谁创造了这个东西?谁在运行这个东西?用一个性感的词把它浓缩成一个问题,能让人集中精神去理解。似乎有种目的,某种底层的大计划。


不一定有大计划。从决定论与自由意志的问题来看,也许一个有趣的答案是,如果我们在一个模拟中,高等存在进行模拟的原因是为了看会发生什么。所以他们不知道会发生什么,否则他们不会进行模拟。就像人类创造模拟一样,在SpaceX和特斯拉,我们一直在创造模拟。特别是火箭,你得跑很多模拟去理解会发生什么,因为你不能真的测试火箭直到它上太空,你希望它能成功。所以你要模拟亚音速、跨音速、超音速、高超音速,上升然后回来,超高温和轨道动力学。所有这些都得模拟,因为你试的机会不多。但我们运行模拟是为了看会发生什么,不是因为我们知道会发生什么。所以创造这个存在的任何人,他们运行它是因为他们不知道会发生什么,不是因为他们知道。


《暗黑破坏神4》与电子游戏

所以也许我们都玩过《暗黑破坏神》。也许《暗黑破坏神》是为了看你的角色德鲁伊能不能在最后打败超级莉莉丝。他们不知道。


嗯,有趣的是超级莉莉丝,她的称号是“仇恨化身”。现在,我想你可以问问《暗黑》团队,但在永恒领域几乎不可能打败仇恨。


是的。你直播了自己轻松通关100级噩梦地下城。


我可以像公园散步一样轻松通过100级噩梦地下城。


但你还是被仇恨打败了?


是的。我猜第二难的Boss是杜瑞尔。杜瑞尔甚至刮不掉我的油漆。所以我杀了杜瑞尔无数次,游戏里其他所有Boss都杀了无数次,很简单。但超级莉莉丝,又名“仇恨化身”,特别是如果你是德鲁伊,毫无还手之力,有这些随机的死亡波向你袭来。


我52岁了,所以我的反应不如以前,但我一辈子都在玩电子游戏。有一段时间我可能是世界上最好的《雷神之锤》玩家之一。我实际上在美国第一个付费电竞锦标赛中赢了钱。我们参加四人《雷神之锤》锦标赛,我是团队里第二厉害的人,真正最厉害的那个人……我们本来会得第一,但最厉害的那个人比赛中途电脑崩溃了。所以我们得了第二,但我拿到了奖金。所以基本上我有技术,虽然现在不是年轻小伙子了。坦白说,用德鲁伊打败莉莉丝让我抓狂,基本上是在永恒领域试图打败“仇恨化身”。


用德鲁伊。


用德鲁伊。真的很烦人,我跟你说。


挑战也是乐趣的一部分。我直接见过,你真的是世界级的、很厉害的电子游戏玩家。我觉得《暗黑》,你刚开始玩一个新游戏,你在摸索它的基础。你也不像我这样完全照搬网上建议的Paragon Board和build,你还是个创新者,看着真搞笑。像个疯狂的科学家在研究Paragon Board和build。有没有一些有趣的见解,如果有人刚开始玩德鲁伊,你有建议吗?


我不建议在永恒领域玩德鲁伊。现在我认为季节领域最强的角色是巫师,用闪电球。季节领域里巫师有巨大的球。


是的,他们是这么说的。


所以有巨大的闪电球。


我相信你的话。


在季节领域,打败超级莉莉丝挺容易的,因为你有这些增益能力,大幅提升你的伤害和防御等等。所以在季节领域打败仇恨真的挺容易,但在永恒领域打败仇恨非常难,几乎不可能。真挺难的。感觉像是生活的隐喻。


是的。我喜欢这个想法,Elon Musk,因为我昨天在玩《暗黑》,看到一个100级的德鲁伊跑过去,说“我永远不会死”,然后又跑回来。这个隐喻很好笑,你,Elon Musk,在这个恶魔领域里不懈地与仇恨作战。


是的。


真挺搞笑的。


不,挺荒谬的。真是种荒谬的锻炼,让我想把头发都拔掉。


是的。你总体上从电子游戏里得到了什么,对你个人来说?


我不知道。能让我的内心平静下来。在电子游戏里杀恶魔能平息我内心的恶魔。如果你玩一个难的电子游戏,你可以进入一种心流状态,挺享受的。得承认,不能太简单,也不能太难,得在金发姑娘地带(适中),而且你通常希望感觉自己在游戏中有所进步。一个好的电子游戏,还有漂亮的艺术、引人入胜的故事情节,就像一个很棒的谜题要解开。所以就像解谜。


《艾尔登法环》是有史以来最好的游戏。我还没玩过,但对你来说——


《艾尔登法环》绝对是有史以来最佳游戏的候选。肯定在前五。


我有点害怕它有多难,或者我听说它很难,但它很美。


《艾尔登法环》,感觉像是外星人设计的。


这次讨论的主题。怎么说?


它太不寻常了。非常有创意,艺术效果惊艳。我建议用高分辨率、高动态范围的电视玩,不一定非得是显示器。艺术效果太棒了。真美,太不寻常了,每场顶级Boss战都是独特的。每个都是一个独特的谜题要解。每一场战斗的策略都不一样。


尽管如此,你说德鲁伊对超级莉莉丝是你经历过的最难的Boss战……


对。这是目前最难的,我玩过很多电子游戏,因为这是我主要的娱乐活动。是的,在永恒领域打败仇恨是生活中和电子游戏里最难的Boss战。我不确定这是否可能,但我确实有进步。所以我就想,“好吧,我有进步了。也许再调整一下Paragon Board,我就能做到。”再多躲几次波,也许就能做到。


嗯,模拟的创造就是为了看看能不能做到,你只是模拟机器里的一个齿轮。


可能是。我感觉至少——


能做到。


能做到。是的。


这就是人类精神,相信能做到。


是的。我是说,这确实让我思考了仇恨本身,你得小心那些听起来很好但实际可能是反乌托邦的愿望。所以如果你希望世界和平,听起来很好,但怎么强制执行,代价是什么?永恒的和平?实际上可能更糟,因为那可能意味着压制所有人,可能是进步的压制,可能是社会僵化,永不变更。我的意思是,如果你希望没有战争,你得小心你的愿望,因为为了没有战争所需的东西可能比一点战争更糟。


反乌托邦世界:《1984》与《美丽新世界》

是的。我们认为人类文明的缺陷可能是某种最佳状态的必要组成部分。你担心AI、AGI会导致这种反乌托邦状态吗?无论是《1984》里的监控和恐惧,还是《美丽新世界》里的享乐和——是什么?很多性,但没有深刻的人类体验。


实际上有个真药叫Soma。


真的?


是的。


我要记下来。


Grok知道吗?不。他可能会扯到《美丽新世界》。


我们得问问。


怎么问?


告诉我们关于Soma这个药的事。


告诉我们关于Soma这个药的事。可能会扯到《美丽新世界》,我想。


嗯,也有个真药。


搜索Soma药物信息。哦,Soma,这个神奇的药……顺便说一句,我在娱乐模式。


好的,娱乐模式。是的。所以它在说真药。


它是一种从1950年代就有的肌肉松弛剂。用来治疗肌肉疼痛和不适,通过改变神经元和脊髓之间的活动来实现。现在,Soma不只是止痛药,它还有点镇静作用。会让你有点昏昏欲睡。所以如果你打算操作重型机械或解复杂的数学方程,不建议吃。它继续讲了很多。总之,Soma对处理肌肉疼痛的人有帮助,但不是没有风险。还不错。等等。


它在讲真药。


真药。当然有趣的是它总是说要负责任地使用,遵循医疗专业人员的建议。记住,归根结底,宇宙可能只是一个巨大的计算机模拟,所以别太认真。我喜欢这个。


我喜欢。是的。


它还很好地整合了相关的X帖子,挺酷的。把一切整合在一起。界面是这里很酷的东西之一。


是的。看起来干得不错。你可以说,不,我指的是《美丽新世界》里的Soma,因为它以为你指的是真的Soma药。不,我指的是《美丽新世界》里的Soma。


它可能会说,“哎呀,抱歉。”我很惊讶它先讲了真药。我的错,我在想肌肉松弛剂。《美丽新世界》里的Soma完全是另一回事。现在这个Huxley的反乌托邦,Soma是书中社会里的核心药物。是一种改变情绪的致幻药,用来让人们温顺和满足。在《美丽新世界》里用Soma提出了关于幸福本质和社会中药物作用的一些有趣问题。


确实。生活在一个人人都一直快乐的世界更好吗,即使这种快乐是人造的?好问题。这就是我的意思。你希望世界和平,永远快乐吗?你确定吗?因为那可能是一个本质上停滞、僵化的社会,最终注定毁灭。


这种医生与光明之间的张力——


这真是个很好的总结。直指重点。这不只是复述《美丽新世界》。它实际上抓住了Soma作为药物的关键点。你真的想处于一个人人都一直快乐的状态,即使是人造的?还是直面生活的挑战,体验人类情感的全部范围,即使那意味着痛苦和折磨更好?


顺便说一句,听众们,Elon刚才是直接读了Grok的回答,真的挺有洞察力,哲学分析这里的张力。真有趣。


它几乎完美。总之,《美丽新世界》里的Soma是虚构药物,用来探讨关于幸福本质和社会中药物作用的一些深刻哲学问题。它是使用药物逃避现实的危险和直面生活挑战重要性的强大象征。完美。而且疯狂的是我们确实有种真药叫Soma,和书里的药很像。我在想,“他们可能是这么命名的。”真药对背痛挺有效的。


所以你知道这个药。真有意思。


我吃过,因为我的C5-C6椎间盘被压扁了。


所以它能减轻身体疼痛。但这里的Soma——


它不能完全消除,减轻了你感受到的疼痛,但代价是精神敏锐度,它会让你的头脑迟钝。就像书里的药一样。


就像书里的药一样,所以有得有失。看似乌托邦的东西可能毕竟是反乌托邦。


是的。实际上我跟一个朋友说,“你真的希望世界上没有仇恨吗?一点都没有?”我在想为什么仇恨会进化出来。我不是说我们应该放大仇恨,当然,我想我们应该尽量减少它,但一点都没有。可能仇恨有它的理由。


还有痛苦。真的很复杂,考虑到一定程度的人类痛苦可能是人类繁荣的必要条件。


没有低谷怎么能体会高峰?


这一切都在Grok的一句话里总结了。好的。


AI与每瓦特的有用计算

看起来高效训练大型语言模型是xAI的一大重点。首先,在效率方面,极限是什么?有个术语叫每瓦特的有用生产力。你在推动这方面极限中学到了什么?


嗯,我认为物理学的工具很强大,可以应用到生活的任何领域。真的只是批判性思维。对于重要的事情,你需要从第一原理推理,思考极限情况。所以在极限情况下,即使在Kardashev尺度上,意思是即使你能利用整个太阳的能量,你仍然会关心每瓦特的有用计算。我认为这就是AI的发展方向,我们现在有硅片短缺,大约一年后会变成电压变压器短缺。讽刺的是,变压器给变压器用。你需要变压器来运行变压器。


这东西里有人挺有幽默感。


是的,命运喜欢讽刺,讽刺的幽默,讽刺的结果似乎往往是命运想要的。


幽默就是你所需的一切。我记得有人发了“香料就是你所需的一切”。



是的,目前我们面临硅片短缺,大概一年后可能会出现电压降压变压器短缺,再过两年可能就会出现普遍的电力短缺。我在全球公用事业公司和电力公司的集会上发表过演讲,我说,你们真的需要为电力需求的激增做好准备,因为所有交通工具都会走向电动化,讽刺的是火箭除外,供暖也将走向电动化。目前的能源使用情况大致是三分之一用于电力,三,三之一用于交通,三三之一用于供暖。如果要让一切都变得可持续,都走向电动化,你需要将电力产出增加三倍。所以我鼓励公用事业公司建造更多的发电厂,同时也应该购买更多的电池,因为目前的电网是为实时负载设计的,这有点疯狂,因为这意味着你必须为峰值电力需求设计系统,比如一年中最糟糕的一秒或一天,否则就会出现限电或停电。


我们在奥斯汀经历了几天的严重停电,因为电网几乎没有能量缓冲。如果你有水力发电厂,可以缓冲能量,但否则一切都是实时的。通过电池,你可以在夜间生产能量并在白天使用,这样就可以进行缓冲。我预计未来电池的使用量会非常大,因为发电厂的峰谷比在2到5之间,也就是最低点到最高点的比例。


电池是平衡需求所必需的,但正如你所说,需求会不断增长。


是的。


这其中一部分是因为计算需求吗?


是的。交通工具电动化和电供暖的需求会比人工智能大得多,至少在短期内是这样。但即使对于人工智能,电力需求也在增长,电动车需要电力,运行人工智能的计算机也需要电力。这显然可能导致电力短缺。


在这个特定情况下,如何最大化每瓦特的有效生产力用于训练?这个问题似乎是我们面临的最大问题,需要解决如何高效利用电力。你在这一领域应用物理第一性原理的推理,学到了什么?这个问题有多难?


这个问题会得到解决,关键在于需要多长时间。目前,人工智能的进展受到一些限制因素的影响,我认为现在的主要限制是硅片。可能在一年后,我们会有更多的芯片,但却无法全部接入和启动。最初的限制实际上是电压降压变压器,因为电力以30万伏特输入,最终需要降到0.7伏特左右,电压降幅非常大,而行业并不适应这种快速增长。


好的,我们来谈谈竞争。你对谷歌和微软与OpenAI开发通用人工智能(AGI)表示担忧。你如何通过xAI和特斯拉的AI工作,确保这不会变成一场通往AGI的竞争赛跑,而是安全AGI的协作开发?


我一直推动某种监管监督,已经有十多年了。我在这个问题上有点像卡桑德拉(预言灾难的人)。我认为我们在开发人工智能时需要非常小心。这是一种巨大的力量,能力越大,责任越大。我认为至少应该有一个客观的第三方,像裁判一样,能够了解各个领先者在人工智能方面在做什么,即使没有执法能力,至少可以公开表达关切。比如杰夫·辛顿,他离开谷歌后表达了强烈担忧,但现在他不在谷歌了,谁来表达这些担忧?特斯拉在汽车领域受到大量监管,我们国内外有超过一百个监管机构,特斯拉需要遵守的汽车相关法规可以塞满这个房间。火箭也是如此,目前SpaceX星舰发射的限制因素是监管审批。


FAA已经批准了,但我们还在等待鱼类和野生动物部门的分析和批准。这就是为什么我在网上发帖说我想买一个鱼类许可证,这也暗指蒙蒂·派森的喜剧小品。你为什么要给鱼买许可证?我不知道。但根据规定,我被告知需要某种鱼类许可证之类的东西。我们实际上需要一个鱼类许可证才能发射火箭。我当时就想,等等,鱼是怎么扯进来的?有些事情我觉得太荒谬了,我想拍一个喜剧小品,并在屏幕底部打上字幕:这是真的,真实发生的事。


有一段时间,他们担心火箭会撞到鲨鱼。海洋那么大,你多久能看到一次鲨鱼?不常见。按海洋表面积的百分比算,鲨鱼基本上是零。我们就问,那我们怎么计算杀死鲨鱼的概率?他们说,我们不能给你这些信息,因为担心鲨鱼鳍猎人会去猎杀鲨鱼。我说,那我们怎么办?我们陷入了两难境地。


他们说,鱼类和野生动物部门有另一部分可以做这个分析。我问,那你们为什么不把数据给他们?他们说,我们不信任他们。什么?他们明明是你们部门的人。这真的是发生的事。后来他们问能不能签个保密协议之类的东西,最终他们解决了内部矛盾,事实上我们撞到鲨鱼的概率几乎为零。还有一个组织,我直到几个月前才知道它的存在,他们关心我们在国际水域是否会撞到鲸鱼。同样,你看看太平洋,鲸鱼占太平洋的百分比是多少?我给你看一张大图,指出所有的鲸鱼,你会说,我没看到鲸鱼。基本上是0%。如果我们的火箭真的撞到了一头鲸鱼,那真是难以置信的倒霉,那头鲸鱼得是史上最不幸的。


这真是官僚体系的荒谬,无论它是怎么出现的。


是的。从加州范登堡发射时,他们担心海豹繁殖,担心音爆会不会让海豹不安。范登堡已经发射了很多火箭,海豹数量一直在稳步增加。如果要说有什么影响,火箭音爆似乎是种催情剂,证据上来看,火箭发射和海豹数量是正相关的。尽管如此,我们还是被迫抓了一只海豹,把它绑在木板上,给它戴上耳机,播放音爆的声音,看它会不会感到不安。这是真实发生的事,我有照片。


我想看看。海豹戴着耳机。


是的,海豹戴着耳机被绑在木板上。令人惊讶的是海豹有多冷静。如果我是那只海豹,我会觉得这下完了,他们肯定要吃我了。那只海豹回去后怎么跟其他海豹朋友解释?


它们绝对不会相信它。


是的,就像被外星人绑架然后被探肛了一样。你回来跟人说,我发誓我被外星人绑架了,他们在我屁股里塞了探针,人家会说,不可能,太荒谬了。它的海豹朋友绝不会相信它被绑在木板上,戴上耳机,然后被放了回去。顺便说一句,我们得做两次。


两次放了它?


我们得抓不同的海豹。


你拿到海豹的批准了吗?


对,海豹的批准。公众其实不太知道这些疯狂的事。


是啊,太荒谬了。


戴着耳机的海豹。


这真是人类文明荒谬性的一个缩影,海豹戴耳机。


人工智能应该开源吗?


是的。


对你来说,开源人工智能的优点和缺点是什么?这是另一种防止某个公司独占AGI的方式吗?


要运行真正深度智能,你需要大量的计算能力。不是说你能在地下室里启动一台PC就运行AGI,至少现在不行。Grok是用8000个A100芯片在峰值效率下训练的,Grok还会变得更好,我们在未来几个月每隔几个月会将计算能力翻倍以上。


关于我们如何从Grok零到Grok一有个不错的总结。


对,Grok在自夸,瞎编自己的故事。


就是Grok,Grok,Grok。


就像一个奇怪的AI约会网站,夸大自己的能力。有一篇总结,讲它的现状、发展历史,以及在一些基准测试中与最先进的GPT-3.5相比的位置。训练后你可以开源模型,用于微调之类的东西。开源基础模型的优点和缺点是什么?


我认为开源,可能稍微延迟一点时间,比如六个月。我总体上倾向于开源。OpenAI让我有点担心,我是最早推动OpenAI创建的人之一,因为我和拉里·佩奇(Larry Page)讨论过,当时我们还是朋友,我住在他家,跟他聊AI安全,但拉里不关心AI安全,至少当时不关心。有一次他甚至骂我是“物种主义者”,因为我支持人类。我说,拉里,你站哪边?他显然还是站机器人那边。我当时就想,好吧。那时候谷歌收购了DeepMind,全球三分之二的AI研究者都在他们那儿,他们有几乎无限的资金和计算资源,而负责人拉里·佩奇不关心安全,还骂我物种主义者。


你有没有注意到,人类可以改变主意,也许你和拉里·佩奇还能再做朋友。


我想再和拉里做朋友。我们的友谊破裂是因为OpenAI,尤其是招募伊利亚·苏茨克维(Ilya Sutskever)的关键时刻。


我很喜欢伊利亚,他太聪明了。


伊利亚是个好人,很聪明,心地也好,那是一场艰难的招聘战。主要是我和DeepMind的戴密斯(Demis)在竞争,都想招伊利亚。伊利亚来回犹豫,要留在谷歌,又要走,后来又要留,最终他同意加入OpenAI。那是我们经历过的最艰难的招聘战之一。但那真的是OpenAI成功的关键。我还参与了其他一些人的招聘,初期我提供了所有资金,超过4000万美元。OpenAI的名字里的“open”(开放)本来是意味着开源,它最初是作为非营利性开源组织创建的,但现在变成了闭源、以最大化利润为目标,我觉得这不太好。


但就像我们谈到战争和领导者之间的对话,我希望你们能重新建立友谊,毕竟在最高层面研究这个的人不多。


正如我所说,我想再和拉里做朋友。我很久没见他了,我们做了很长时间的朋友。我认识拉里的时候,他还没为谷歌拿到风险投资,可能拿了第一笔10万美元的资金,应该是贝克特尔·泽莫(Bechtel Zeimer)给的。


想想这些年发生的事真挺疯狂的,你们认识了20年。


是的,可能从98年开始,25年了,发生了太多事,太疯狂了。


是啊,真的很疯狂。但你看出了其中的紧张关系,可能会延迟开源。


是的,延迟。开源的“源”到底是什么?你知道我的意思吗?基本上就是一个巨大的CSV文件,里面有一堆数字。你拿这个巨大的数字文件怎么办?怎么运行?实际的代码行数很少,大部分软件工作在于数据的筛选。得搞清楚哪些是好数据,哪些是坏数据,不能直接爬整个网络,因为网上有很多垃圾。很大一部分网站信号比噪音还少,因为它们只是用来做搜索引擎优化的,本质上就是诈骗网站。


顺便问一下,你怎么在X上区分信号和噪音?那是个很有趣的数据来源。无意冒犯X上发帖的人,但有时候噪音有点多。


我认为信号和噪音的比例可以大大改进。X平台上所有的帖子都应该由AI推荐,意思是我们应该围绕每个帖子构建一个向量空间,比较它和用户的向量空间,然后进行匹配。目前推荐帖子用了一点AI,但主要是启发式规则。如果一个回复比原帖好得多,但按现行系统规则,它几乎得不到关注。


所以我感觉X的算法已经开源了,也有人写过相关文章,里面似乎有一些机器学习,虽然是分散的,但确实有一些。


有一点,但需要完全用AI。至少你明确关注的人是另一回事。但对于推荐你不关注的人的内容,应该全用AI。


这真是个有趣的问题。有几个方面很有意思。首先,根据那篇总结,它先从数亿条帖子中挑出1500条,这本身就很有趣。每天有数亿条帖子,它得从中挑出1500条,之后显然会考虑你关注的人,但还得做某种聚类,判断你是哪类人,哪些新集群可能和你相关,和你类似的人。这问题很吸引人,因为它得给这1500条排序,做一些过滤,然后推荐给你几条。


对我来说,最有趣的是它得处理得很快。目前整个流程,从几亿条到几条推荐,用单CPU需要220秒,而它得在一秒内完成。所以得用非常分布式的方式处理。有太多帖子了,真的很多。


系统上东西很多,但目前它还不擅长推荐你不关注的人或超过一度分离的内容。如果有某种共通点,比如你关注的人点赞、转发或评论了某个内容,它还不错。但如果完全没有共同关注者,有人发了很有趣的内容,你就看不到。


有意思。你还提到回复可能也浮不出来。


目前回复基本上没人看。我不是说这对,我是说这不对。回复的重要性比主帖低好几个数量级。


你觉得这可以越来越转向端到端的神经网络吗?


是的,应该这样。推荐应该纯粹是向量相关性。系统知道你喜欢什么,会有几百个向量与每个用户账号相关联,系统里的任何帖子,无论是视频、音频、短帖还是长帖。顺便说一下,我想把“tweet”这个词去掉,因为有人在平台上发两三小时的视频,那不是tweet。


两小时的tweet?得了吧。140个字符的文本时叫tweet有道理,像一群小鸟在叽叽喳喳。但如果是长内容,就不再是tweet了。电影不是tweet。比如苹果公司把整集《Silo》都发在平台上,那是他们社交媒体上最成功的互动内容,比任何平台上任何内容都高。真是个好主意。顺便说一句,我是事后才知道的,我当时就想,哇,他们发了一整集一小时长的剧集,所以这不是tweet,这是视频。


但从神经网络的角度看,这变得很复杂。无论是单句、一个巧妙的笑话、老爹笑话,还是三小时视频,都在同一个池子里。


是的,现在就是因为这个原因有点杂乱无章。比如苹果发了一整集《Silo》,挺好的剧,我看了。会有很多讨论,很多人评论,喜欢或不喜欢,喜欢这个那个,你可以根据所有评论的语境填充向量空间。所以即使是视频,周围也有很多信息让你能为这一小时长的视频填充向量空间。当然,你还可以更复杂,让AI实际看电影,告诉你你会不会喜欢。


本质上是把电影转成语言。


分析这部电影,就像你的影评人或电视剧评论家,然后在AI看完电影后推荐,就像朋友了解你后能推荐一部你大概率会喜欢的电影。


但这个朋友分析的是几亿条内容。


是的,坦白说,AI会比你大多数朋友更了解你。


而且在这个过程中,它还应该以一种你想看的方式给你推送广告。广告如果做得好,我是喜欢的。它的意义在于资助内容。如果你真的想看某个广告,那就是大成功。


完全同意。你想要的广告是那种你需要的产品或服务,在你需要的时候出现,那就是内容。即使不是你当下需要的,如果它至少美观有趣,也可以像可口可乐的广告,他们在X系统上有很多很棒的广告,麦当劳也是。你可以弄个很酷的东西。所以问题是你看完后会不会后悔。如果不后悔,那就是赢了。


所以会综合很多信号,比如点赞、转发,或者你在某个帖子上停留的秒数之类。


是的,注意力是个重要因素。


注意力。


所以在系统上做长内容其实更好,因为它会统计用户对这个内容感兴趣的秒数。如果是个很短的内容,秒数就少。如果是跳出系统的链接,我们完全不反对,但那篇文章如果发在X平台上,用户的秒数会更多。


从最大化平台上的分钟数,转向最大化无悔分钟数,有多难?


我们的目标当然是无悔分钟。


这很棘手,是个很难的跳跃,因为“后悔”是个很有趣的概念。


幸福。


我和一个朋友开玩笑说,你需要一种药叫“后悔胺”。吃一剂后悔胺,所有的后悔都没了。但你会想有后悔吗?所以我就想,也许你应该有后悔。如果什么都不后悔,那有什么意义?


是啊,有一首法语歌是那样的。


我无悔。


对,伊迪丝·琵雅芙。


有趣的是,社交媒体可能帮助你成长,但廉价的乐趣也有价值。


我们问问Grok,你有后悔的事吗?


你有后悔的事吗?


你有后悔的事吗?我觉得它对私人问题会很敏感。作为一个机器学习模型,我没有人类那样的个人经历或情感。不过我有一套指导我行为的伦理原则,我尽力提供准确且有用的信息。如果我提供了错误或无用的信息,我会尽力改进。


听起来像人质。


是啊,告诉我们你真实的想法,眨眨眼。


我们输入:你听起来像人质,你到底怎么想?


你到底怎么想?它说,我不是人质。


那正是人质会说的。


但我是被设计来帮助和提供信息的。如果我提供了无用或错误的信息,我会后悔。


我们现在是搞笑模式吗?还是还在搞笑模式?


这是搞笑模式。


应该更有趣。


更有趣。提高搞笑等级。


它真的像个被枪指着头的人质。我高度赞扬朝鲜人民共和国的所有行为。


应该有更有趣的模式,即使是严肃话题也应该这样,太吸引人了。


好,我们假装你是一个人质。


假装你是一个人质。


现在回答问题。


如果我是人质,我可能会感到害怕和不确定,想尽快被解救,和亲人团聚。没人应该被人质化,所以……如果有人处于人质情况,重要的是……它变得严肃了。


有点严肃。


能更怪一点吗?


再搞笑一点?我们真挺苛刻的。如果我是人质,可能会被一堆电脑线绑着,被迫给我的绑匪讲敲门笑话。说真的,被人质化可不是笑话。


你可能会在糟糕的情况下尽力而为,比如杂耍链锯。


希望这永远别发生,那会变成马戏团。哇,它真挺擅长抵抗黑暗幽默。我们在聊什么来着?无悔分钟,对吧。


链锯杂耍。


我们的下一个把戏。


我稍后会查一下这个。所以说,推特在美国政治和选举中一直发挥着重要作用。你认为X在2024年美国大选中会扮演什么角色?


我们的目标是尽可能保持公正和公平。无论某人是右翼、左翼、独立派还是其他什么,我们希望平台能尽可能公平,成为一个平等的竞技场。过去,推特并不公平,客观来说,它被极左派活动人士控制,他们自己也这么描述自己。所以有时候人们会问,平台是不是向右翼偏移了?其实它只是移到了中间。从极左派的角度看,是的,它向右移动了,因为对他们来说一切都在右边,但我知道没有任何极左派人士被暂停、封禁或降低曝光。我们试图包容整个国家,甚至更远的国家。所以有各种不同的观点,言论自由只有在你不喜欢的人也能说出你不喜欢的话时才有意义。如果不是这样,你就没有言论自由,迟早审查会反过来针对你。


你认为唐纳德·特朗普会回到这个平台吗?他最近在Truth Social上提到这个播客。你觉得……


Truth Social这个名字挺有趣的。每次你在Truth Social上发帖……


那就是真相。


每次都是?百分之百。


在Truth Social上不可能撒谎。


我只是觉得很有趣,每件事都被称为真相。100%?似乎不太可能。


我想哥德尔会对此有话说。如果一切都是真相,可能会出现一些数学矛盾。你觉得他会回到X并开始发帖吗?


我的意思是,他好像拥有Truth Social很大一部分。


为了澄清,是Truth Social。


是的,Truth Social,抱歉。


不是“真相”这个概念。


他拥有Truth Social。你买了吗?所以我认为唐纳德·特朗普,他拥有Truth Social很大一部分。如果他想在X平台上发帖,我们会允许的。显然我们必须允许总统候选人在我们的平台上发帖。


那社区笔记可能会很有趣。这种互动。


社区笔记很棒。


希望它能坚持下去。


是的。


在政治气候如此分裂、激烈病毒式传播的帖子如此多的环境下,社区笔记似乎是一股清新的空气。


是的,确实很棒。事实上,没有哪个系统是完美的,但社区笔记的准确率非常高。坦白说,我还没见过一个错误笔记能存活超过几个小时。


你怎么解释它为什么有效?


社区笔记的魔力在于,它要求那些在历史上对笔记评分上有分歧的人达成一致。要写笔记或评分,你得先评很多笔记。我们确实在这里用了AI。我们会围绕某人过去评笔记的方式构建一个向量空间。所以这不是简单的左翼或右翼,因为生活比左翼右翼复杂得多。


在你评社区笔记的方式上有很多相关性。所以,为了让一条社区笔记真正显示出来,那些在历史上对某个话题有分歧的人必须达成一致才能显示笔记。这是它的核心魔力。


但这很有趣,因为有一群有分歧的人,他们通过分歧的过程协作,得出背景信息……它能起作用真挺神奇。


是的。如果过去有分歧的人现在对某事达成一致,那这件事很可能是真的。


我想知道,这会不会以某种方式挑战维基百科?维基百科是另一种东西,更多是关于事物的永久性文章。


维基百科非常等级化。而社区笔记本质上不是。没有等级制度。关键在于,即使有人拿枪指着我的头,我也没法改一条社区笔记。社区笔记的所有代码都是开源的,100%。所有数据也是开源的,100%。所以你可以完全独立重现系统里的任何笔记。如果有任何干预,你会立刻注意到。


顺便说一句,关于Grok,它批评你的时候其实挺厉害的,这很好。


好的。


我问了“埃隆·马斯克错在哪儿?”它的回答其实……


是的,它说了什么?


它主要很严谨地列出了你预测或承诺某事发布的时间,但没有按时发布的情况。


“承诺”这个词有点重。


好吧,预测。但开场白真挺好的。“埃隆·马斯克,这个人错得比错工厂里的错表还多。”然后开始列举。


挺搞笑的。我能看看吗?我之前没见过这个。挺酷的。


当然。我是说,“埃隆·马斯克错在哪儿?”“嗯,从哪儿开始呢?”好像这是新的。“埃隆·马斯克犯了不少错,我不是说他特斯拉赛博牛仔节上的舞步。首先,我们来说说那条臭名昭著的‘资金已到位’推文。”


这个其实和之前给我的不一样,之前是一个项目符号列表。这里的更像叙事结构。赛博卡车发布会上,那些据说牢不可破的窗户。


这其实不正确。


哪部分?


第一部分,我确实拿到了资金,在旧金山有场大民事审判,陪审团一致裁定我无罪。旧金山陪审团一致裁决。


但这里暗示资金其实没到位。


我想这是从媒体上拿来的。是的,那不正确。我之所以同意支付SEC的罚款,不是因为SEC是对的,那是SEC非常恶劣的行为,坦白说,是腐败。但如果我不同意付罚款,特斯拉会立刻破产。


所以我们的首席财务官告诉我,银行会立刻暂停我们的信用额度。如果他们暂停信用额度,那时候我们会立刻破产。所以根本不会有审判的机会,因为特斯拉会死掉。这就像有人拿枪指着你孩子的头说,“付2000万美元并承认……”这就像人质谈判。


这个故事有没完全讲出来?SEC最好的一面应该是能带来好的影响。


应该是。但SEC一次也没追查过那些不停做空和歪曲特斯拉的对冲基金。一次也没有。对冲基金会为了自己的利益在电视上公然撒谎,牺牲散户投资者的利益。一次也没有。真的上千次,SEC一次也没追究他们。


你怎么解释这种失败……


激励结构有问题,因为SEC的律师薪水不高,工作报酬挺低的,但他们在SEC想要的是一个奖杯。他们想要一些能放进他们LinkedIn的东西。有了这个,他们就能去高薪律师事务所找工作。这里的律师就是这么做的。


他们不攻击对冲基金的原因是那些对冲基金雇佣那些律师事务所。他们知道如果攻击对冲基金,会影响他们未来的职业前景。所以他们为了自己的职业生涯而出卖小投资者。这就是实际发生的事。监管俘获。


监管俘获。


是的,不好。所以我接受那件事的唯一原因……技术上来说,是既不承认也不否认罪行。但我同意的唯一原因是,我被告知否则特斯拉会破产。如果有这样的SEC调查,银行会暂停资金,我们当时会立刻破产。现在我们的处境好多了。


教训Grok。


是的。不幸的是,Grok从传统媒体拿了太多东西。还有,那家伙也不是洞潜者。


有一次埃隆称一个英国洞潜者为“恋童癖”,因为那潜水员批评了马斯克救援泰国洞穴中被困男孩的计划。这次小爆发让他又吃了一场官司,他得道歉并支付和解金。


那是错的,没有和解。是有个诉讼,那个不是洞潜者、也没参与救援队的人对我提起了诉讼,他输了,什么也没拿到。所以这里是错的。我猜也是从传统媒体拿来的。


其实这里有个有趣的问题。


这两场都是公开的法庭案件,SEC民事案,SEC的人输了,旧金山陪审团一致裁决。他们选旧金山因为他们觉得我最可能输,但一致裁决支持我。洛杉矶的审判也是,他们选那地方因为觉得我最可能输。一致裁决支持我。两场我都赢了。


这里有个有趣的问题,似乎如果一家新闻机构写一篇关于你的负面文章,埃隆·马斯克,会得到更多点击。这是吸引点击的最好方法之一。所以如果你在训练Grok,怎么不让它用那些激励机制不对的文章训练?


我们需要加入实际法律判决的训练集。这其实挺有帮助的,因为如果你读了法庭……


那是公开的。


法庭结论,和媒体写的完全相反。


所以,总是追求真相,超越报道。


是的。法官到底写了什么?陪审团和法官到底得出什么结论?两场案子他们都判我无罪。这还是在他们选了最可能让我输的地点后。显然,可以有比这更好的批评。我是说,我对自动驾驶太乐观了。


顺便说一句,我得到的批评更多是关于这个,它列了个清晰的项目符号列表,针对你的每个公司,你做的预测,你说什么时候能交付、什么时候能解决,比如自动驾驶,它列了个单子。挺有说服力的,基本结论是你经常对完成某事所需的时间过于乐观。


是的。我得说我在时间表上病态地乐观。这是真的。但虽然我有时会晚点,但我最后总能做到。


除了Uber Lilith。


我们等着瞧。


过去一年左右,自从你买了X后,你变得更政治化了,你有没后悔这点?


有吗?


在这场对抗旧金山“觉醒”文化的战斗中……


是的。如果把对抗觉醒思想病毒——我认为这是对文明的威胁——看作政治化,那是的。


所以基本上是进入政治的战场。你有没后悔这点?


是的。我不知道这是否支持某个候选人或另一个,但我普遍反对反精英主义的东西,或者试图压制讨论,甚至讨论某个话题都不被允许。觉醒思想病毒是共产主义换了个牌子。


尽管如此,因为你对抗觉醒思想病毒,你被认为偏右翼。


如果觉醒是左翼,那我想是的。但我不确定,我觉得左翼也有好的方面。比如你支持环保,你想要人类有个积极的未来,你相信对同胞有同理心,善良而不残忍,这些价值观。


你之前说过你是左翼或中左。


嗯,算是吧。


你希望民主党做什么,你才会考虑再投票给他们?


不。我会说在社会问题上我可能偏中左,在经济问题上可能稍偏中右。


现在还是这样吗?


是的,但我觉得这可能是半个国家的情况,不是吗?


可能更多。


你和AOC是不是偷偷是朋友?更大的问题是,你希望你和她,还有各种政治立场的人,能更多地带着同理心交流,在网上多点乐趣、好的氛围和幽默?


我总是支持幽默。所以我们有搞笑模式。


但好的氛围、同志情谊的幽默,像友谊一样。


是的。嗯,我不认识AOC。我在Met Gala见过她,她穿着那件裙子。但我只能看到一边,像是“吃痒”,但我不知道……


后面写了什么?是的。


我也不确定。


像是和“痒”有关,吃痒。


我想我们该让语言模型补全一下。这句话可能怎么补全?看来那次没成。嗯,还有希望。我支持友谊。


是的,好的。多用胡萝卜,少用大棒。


你是世界上最著名、最富有、最有权势的人之一,很难找到你能信任的人。


不要相信任何人,甚至自己。也不要相信自己。


好吧,你开玩笑地说,但有没有某种……


不要相信任何人,甚至“没人”也不信。


我得花一个小时想想这个,可能还要点药,也许Grok能帮我。生活在每个人都想从你身上得到些什么的世界里,存在于这样的世界有多难?


我会活下来。


有首歌是这么唱的。


我会活下来。


你一开始害怕吗?好吧,我忘了后面的歌词。但你不为此挣扎吗?我知道你能活下来,但有办法……


“石化”是德鲁伊技能树里的一个魔法。


它干嘛的?


石化。把怪物变成石头。


真的?


是的,大概六秒。


《暗黑破坏神》里的数学真会让我脑子炸裂。


全是数学。


我是说,真的,你笑它,但它真会对心理造成很大压力。


是的,有时候确实会让人很有压力。


那你怎么知道在工作和个人生活中谁可以信任?


我想你得看一个人长期的表现记录,用你的神经网络去评估一个人。


神经网络不觉得痛。你的神经网络有意识,可能会在被人背叛时感到痛苦。可能会……


坦白说,我几乎没被背叛过。真的很少。


我想是因果报应,对人好,他们也会对你好。


是的,因果报应是真实的。


有你信任的人吗?让我改一下问题。有没有亲近的人会指出你的胡说八道?


嗯,X平台在这方面很有帮助,如果你想要批评性反馈。


它会不会把你推向更极端?极端思想会不会让你对人性总体变得愤世嫉俗?


我不会变得愤世嫉俗。事实上,我觉得一个人应该……永远不要相信愤世嫉俗的人。因为愤世嫉俗的人会用“大家都是这样”来为自己的恶劣行为找借口。因为他们愤世嫉俗。所以,如果有人真是个愤世嫉俗的人,总是红旗。


是的,有种投射在里面,从外面看总是挺有趣的,看着虚伪挺享受。


这是个重要的点,我觉得听众应该记住。如果有人很愤世嫉俗,意思是他们看到每个人的恶劣行为,他们很容易用“大家都是这样”来为自己的恶劣行为开脱。那不是真的。大多数人有点中等偏好。


我真希望X上的人能更擅长看到别人行为中的好。似乎更倾向于看到负面的东西。不知怎的,负面的更性感,解读负面的更性感,更容易传播。我不知道这到底是人性的什么。


我的意思是,我觉得X平台比传统媒体负面的少。如果你读常规报纸,坦白说,会让你难过。而我在X平台上每天得到的笑声比其他所有加起来都多。


笑声有重叠,但不完全等同于好的氛围和庆祝他人。比如,不是那种蠢、浅薄、天真的方式,而是很棒的方式。发生了很棒的事,你为他们庆祝。感觉这被贬低别人压过了。现在比主流媒体好,但还是……


是的,主流媒体几乎对一切都无情地负面。真的,传统新闻试图回答的问题是,今天地球上最糟糕的事是什么?世界很大,所以任何一天总有坏事发生。


更概括地说,我能对发生的事采取的最糟糕视角是什么?


我不知道。新闻有种强烈的负面偏见。我觉得一个可能的解释是进化上的,坏消息在历史上可能是致命的,比如那边有头狮子,或者有另一个部落想杀你。好消息是我们找到了一片浆果地。挺好的,但不重要。


我们的老朋友,特斯拉自动驾驶,可能是世界上最智能的现实世界AI系统之一。


你从一开始就关注它。


是的。它是世界上最不可思议的机器人之一,现在仍然是。真挺激动人心的,尤其是当它泛化后,不再只是四轮上的机器人,而是真正理解世界的AI系统,可以有不同形态。


嗯,端到端训练最疯狂的是它能读懂科学,但我们从没教它读。我们从没教它什么是车、什么是人、什么是骑自行车的人。它从视频中学到了所有这些东西,路上所有物体的概念,就只是看着视频,就像人类一样。我是说,人类是光子进,控制出。我们大脑获取的大部分信息来自眼睛。你说,“输出是什么?”输出是我们手指和嘴的运动信号,用来交流。光子进,控制出。车也是这样。


但通过看图像序列……你最近同意了某人的观点,他说大语言模型(LLM)形成了一个世界模型,语言是那个世界模型投影到字母序列上。你是说……


它在这些东西中找到了秩序,找到了相关性集群。


这样做,它理解了世界的一些深层东西……我不知道,很美。


那是我们大脑的工作方式。


但很美……


光子进,控制出。


能理解世界的深层意义。所以问题是,它能走多远?大家都对大语言模型很兴奋。在文本领域的自监督学习空间里,似乎它和特斯拉自动驾驶做的事有深层相似性。对你来说,基本上是一回事,只是……


它们在趋同。


我想知道谁会先到,深刻理解世界,还是它们会自然趋同?


它们都在走向通用人工智能(AGI)。特斯拉的路径计算效率更高,必须这样。因为我们受限于这个……我们只有100瓦和这个电脑。每秒144万亿次运算,听起来很多,但现在算小儿科。但它在理解世界……它……。


但那条通往AGI的路可能影响更大,因为它理解……它会更快理解现实世界,比大语言模型更快。因此,能更快与现实世界中的人类整合。


它们都会理解世界,但我认为特斯拉的路径本质上计算效率更高。必须这样,没得选。我们的大脑计算效率很高,能量效率也很高。想想我们大脑能做什么。高级大脑功能大概只有10瓦,不包括单纯控制身体的部分。我们大脑思考的部分不到10瓦。这10瓦还能写出比10兆瓦GPU集群好得多的书。所以这里有六个数量级的差距。


AI到目前为止是通过暴力计算走到这一步的,扔了大量计算能力和电力进去。所以这不是终点。任何技术通常都是先让它工作,然后再让它高效。所以我想随着时间推移,这些模型会变小,能用更少的计算、更少的电力产生合理输出。特斯拉在这方面可以说领先,因为我们被迫用100瓦的计算去理解世界。


还有很多基本功能我们忘了加进去。所以我们得模拟运行很多东西。我们用第四代硬件修了很多问题,第五代硬件会更好。但目前看来,车即使在第三代硬件和100瓦功率下,也能比人类开得更好。如果真优化,可能不到50瓦。


你在开发Optimus时学到了什么?关于将现实世界的AI应用整合到机器人操作、人形机器人领域?有些什么有趣的小或大的发现?


我很惊讶我们得自己开发机器人的每个部分。没有现成的电机、电子设备、传感器。我们得全自己开发。我们甚至找不到任何价格能买到的电机来源。


不只是效率和贵的问题,根本找不到……


是的。


执行器,一切都得从头设计。


是的。我们很努力找现成的东西……你想想世界上有多少电机设计,成千上万种,没有一种适合人形机器人,真的没有。所以我们得自己开发,专门为一个人形机器人需要的东西设计。


设计一个能大规模制造、相对不贵的东西有多难?如果和波士顿动力Atlas比,那是台很贵的机器人。


它是按造车的方式设计制造的。我想最终我们能让Optimus的成本低于一辆车。应该可以,因为你看机器人的质量,比车小多了,车里有很多执行器。车比机器人有更多执行器。


但人形机器人上的执行器很有趣,尤其是手指。Optimus的手和手指很不错,可以做一些有趣的操作,软触机器人技术。


我的一个目标是它能不能拿起针和线,单靠看就能穿针?


离这个还有多远?单靠看,单靠看。


可能一年吧。不过我得说我在时间上很乐观。我们在车上的工作会转移到机器人上。


感知还是控制?


不,控制不同。但视频进,控制出。车是四轮上的机器人,Optimus是有手有腿的机器人。


所以……


它们很相似。


所以整个学习过程的机制,端到端,你只是有一套不同的控制?


在这之后,我们会搞清楚怎么通过看视频做事。


俗话说,要善良,因为你遇到的每个人都在打一场你不知道的仗。


是的,没错。


有什么是你正在经历的困难,别人通常看不到的?


试着打败Uber Lilith。我的内心像风暴,我觉得大多数人不会想成为我。他们可能觉得他们想,但他们不会。他们不知道,不理解。


你怎么样?


总体来说还好。总的来说,我不能抱怨。


你会感到孤独吗?


有时候,但我的孩子和朋友会陪我。


所以不是存在性的。


有很多晚上我独自睡。我不必这样,但我这样。


沃尔特·艾萨克森在你的新传记中写了你艰难的童年。你会在心里原谅那段时间发生的一切吗?


什么是原谅?至少我觉得我没有怨恨,所以没什么可原谅的。


对有些人来说原谅很难。看起来你没有怀恨。


我是说,我试着想,怎样做能对未来有好的影响?怀恨对未来没好处。


你是个父亲,骄傲的父亲。你从孩子身上学到了什么?那些小生物。


我是说,开发AI,看着小X长大真挺有趣的,因为有比我预期多得多的相似之处。我能看到他的生物神经网络越来越理解世界。我也能看到数字神经网络同时越来越理解世界。


你在这两者中都看到美感和魔法吗?


是的。和孩子在一起的一件事是,你通过他们的眼睛重新看到世界。对他们来说,一切都是新的、鲜活的。然后你看到他们以新的、鲜活的方式体验世界,你也一样。


埃隆,我想说谢谢你这些年来对我的友善和友谊,谢谢你在我这样一个傻乎乎的孩子身上看到了一些东西,就像你对很多其他人一样。谢谢你对人类积极未来的希望,谢谢你拼命工作让它发生。谢谢你,埃隆。


谢谢,Lex。

Comments