Sam Altman最新对谈:人生最痛苦的周末、OpenAI神秘计划Q、能源的未来…
以下为与 OpenAI CEO Sam Altman 的最新专访的全部内容,其中探讨了许多人在意的话题,除了 OpenAI 的未来发展外,还有过去 OpenAI 遇到的挫折,在这专访中都有讨论到。本文源自 Lex Fridman 的专访影片,并由 Foresight New 整理、编译及撰稿。
OpenAI 执行长 Sam Altman 的最新专访,谈到了关于 OpenAI 董事会之争、共同创办人 Ilya Sutskever、马斯克的诉讼、Sora、GPT-4、记忆与隐私、神秘计划Q*、GPT-5、能源、7 兆美金的募资、Google Gemini、跨越到 GPT-5,以及 AGI 外星人…等话题。
OpenAI 董事会之争
Lex Fridman(主持人):带我回顾一下 11 月 16 日星期四开始的 OpenAI 董事会传奇,也许您也可以从 11 月 17 日星期五开始。
Sam Altman:这绝对是我一生中最痛苦的职业经历,混乱、可耻、令人不安,还有很多其他负面的事情。它也有很棒的东西,我希望它没有如此肾上腺素激增,以至于我当时无法停下来欣赏它们。
但我发现了我的这条旧推文或我那个时期的这条推文。这就像写自己的悼词,看著人们谈论你所有这些伟大的事情,以及我所爱和关心的人难以置信的支援。那真是太好了,太好了。
整个周末,除了一个很大的例外,我感受到了很多爱和很少的恨,尽管感觉我不知道这里正在发生什么以及将要发生什么,这感觉真的很糟糕。有时我确实认为这将是人工智慧安全史上发生的最糟糕的事情之一。嗯,我也认为我很高兴这件事发生得相对较早。
我认为在 OpenAI 开始到我们建立 AGI 之间的某个时刻,将会发生一些疯狂和爆炸性的事情,但可能还会有更多疯狂和爆炸性的事情发生。我认为,它仍然帮助我们建立了一定的韧性,并为未来的更多挑战做好了准备。
Lex Fridman:但是你有一种感觉,你会经历某种权力斗争?
Sam Altman:通向 AGI 的道路应该是一场巨大的权力斗争。世界应该…… 嗯,不应该。我希望情况会如此。
Lex Fridman:所以你必须经历这个过程,就像你说的,尽可能频繁地迭代,弄清楚如何建立董事会结构、如何建立组织、如何拥有你所需要的人员。我们正在努力解决如何沟通所有这些问题,以便尽可能缓和权力斗争。
Sam Altman:是的。
Lex Fridman:安抚它。
Sam Altman:但此时此刻,感觉就像是过去的事情,真的很不愉快,真的很困难和痛苦,但我们又回到了工作职位,事情是如此忙碌和紧张,我不知道不用花很多时间去思考它。之后有一段时间,一个月后,也许是 45 天后,我就处于这种神游状态,我只是在这些日子里漂泊。我实在是太没出息了。我心情非常低落。
Lex Fridman:只是在个人心理层面上吗?
Sam Altman:是的。真的很痛苦,而且很难在这中间继续执行 OpenAI。我只想爬进山洞里恢复一下。但现在我们好像刚刚回到任务中。
Lex Fridman:嗯,回到那里反思一下董事会结构、权力动态、公司的运营方式、研究和产品开发与资金之间的紧张关系以及所有这些东西仍然很有用,这样你就可以他们在构建 AGI 方面具有很高的潜力,将来会以一种稍微更有组织性、不那么引人注目的方式来实现。因此,这里有很多价值,无论是作为领导者的个人心理方面,还是董事会结构和所有这些混乱的东西。
Sam Altman:我确实学到了很多关于结构和激励措施以及我们对董事会的需求。我认为现在发生的这件事在某种意义上是有价值的。我认为这可能不是 OpenAI 最后一个高压力时刻,但这是一个相当高压力的时刻。
我的公司差一点就被毁掉了。我们思考了很多我们必须为 AGI 做好的其他事情,但思考如何建立一个有弹性的组织以及如何建立一个能够承受世界上巨大压力的结构,这随著我们越来越接近,我的期望越来越多,我认为这非常重要。
Lex Fridman:您是否感觉到董事会的审议过程有多深入、有多严格?您能简单介绍一下在这种情况下人类的动态吗?是不是只是聊了几句,事情突然升级了,我们为什么不解雇萨姆之类的事情呢?
Sam Altman:我认为董事会成员总体上都是善意的人,而且我相信,在人们感到时间压力或其他压力的情况下,人们会理解并做出次优的决定。我认为 OpenAI 面临的挑战之一是我们必须拥有一个善于在压力下运作的董事会和团队。
Lex Fridman:您认为董事会权力太大吗?
Sam Altman:我认为董事会应该拥有很大的权力,但我们确实看到的一件事是,在大多数公司结构中,董事会通常对股东负责。有时人们拥有超级投票权股份或其他什么。在这种情况下,我认为我们的结构中我们可能应该比我们考虑更多的事情之一是,除非您制定其他规则,否则非营利组织的董事会拥有相当大的权力。
除了他们自己之外,他们并不真正对任何人负责。这在很多方面都是好的,但我们真正希望的是 OpenAI 董事会能够向整个世界做出回应,尽管这是一件实际的事情。
Lex Fridman:因此宣布了一个新的董事会。
Sam Altman: 是的。
Lex Fridman:我猜一开始有一个新的较小的板,现在有一个新的最终板?
Sam Altman:尚未最终版。我们添加了一些。我们会新增更多。
Lex Fridman:添加了一些。好的。新版本中修复了哪些可能在前一版本中被破坏的内容?
Sam Altman:旧板在大约一年的时间里变得越来越小。原来是九个,然后减少到了六个,然后我们无法就新增谁达成一致。我认为董事会也没有很多经验丰富的董事会成员,而且 OpenAI 的许多新董事会成员只是拥有更多的董事会成员经验。我想这会有所帮助。
Lex Fridman:一些被新增到董事会的人受到了批评。例如,我听到很多人批评拉里・萨默斯的加入。选择董事会的流程是怎样的?这涉及什么?
Sam Altman:因此,布雷特和拉里在这个非常紧张的周末一时冲动做出了决定,那个周末就像过山车一样。这经历了很多起起落落。我们试图就新的董事会成员达成一致,这里的执行团队和老董事会成员都认为这是合理的。
拉里实际上是他们的建议之一,老董事会成员。Brett,我想我什至在那个周末之前就提出过建议,但他很忙,不想这样做,然后我们确实需要帮助。我们也讨论了很多其他人,但我觉得如果我要回来,我需要新的董事会成员。我不认为我可以在相同的配置下再次使用旧董事会,尽管我们随后决定,我很感激亚当会留下来,但我们考虑了各种配置,决定我们想要一个三人董事会,必须在短时间内找到两名新的董事会成员。
所以这些都是诚实地决定的,没有…… 你在战场上这样做。那时你没有时间设计严格的流程。对于此后的新董事会成员以及我们今后将新增的新董事会成员,我们有一些我们认为对董事会很重要的标准,以及我们希望董事会拥有的不同专业知识。
与雇佣一名高管不同,你需要他们做好一个角色,董事会需要做好治理和深思熟虑的整个角色,因此,布雷特说的我真正喜欢的一件事是,我们希望以名单形式雇佣董事会成员,而不是一次一个人。考虑一群人将带来非营利组织的专业知识、公司运营的专业知识、良好的法律和治理专业知识,这就是我们试图优化的目标。
Lex Fridman:那么技术悟性对于董事会成员个人来说重要吗?
Sam Altman:并非每个董事会成员都需要,但肯定有一些成员需要这样做。这是董事会需要做的一部分。
Lex Fridman:有趣的是,人们可能不了解 OpenAI,我当然也不了解,那就是运营业务的所有细节。当他们想到董事会时,鉴於戏剧性,他们想到的是你。他们会考虑,如果你达到了 AGI,或者你达到了一些非常有影响力的产品,并且你构建并部署了它们,那么与董事会的对话是什么样的?他们认为,好吧,在这种情况下,什么样的阵容才是合适的?
Sam Altman:我认为你肯定需要一些技术专家。然后你需要一些这样的人:「我们如何才能以最能帮助世界上人们的方式部署它?」以及持有不同观点的人。我认为你或我可能犯的一个错误是认为只有技术理解才重要,这绝对是你希望董事会进行的对话的一部分,但还有更多关于这将如何影响社会和人们的生活您也确实希望在那里有代表。
Lex Fridman:您是在检视人们的记录还是只是在进行对话?
Sam Altman:过往记录很重要。当然,你们有很多对话,但有些角色我完全忽略追踪记录,只看斜率,忽略 Y 截距。
Lex Fridman:谢谢。感谢您为观众提供数学知识。
Sam Altman:作为一名董事会成员,我确实更关心 Y 截距。我认为关于往绩记录有一些深刻的东西可以说,而经验是很难替代的。
Lex Fridman:您是否尝试将多项式函式或指数函式拟合到追踪记录中?
Sam Altman:这个类比并没有那么深入。
Lex Fridman:好吧。你提到了那个周末的一些低谷。对你来说,心理上的低谷是什么?你有没有考虑过去亚马逊丛林,服用死藤水然后永远消失?
Sam Altman:那是一段非常糟糕的时期。也有很大的高潮。我的手机不停地收到来自每天和我一起工作的人的好讯息,这些人我已经十年没有和他们说过话了。我没有充分意识到这一点,因为我正处于这场交火之中,但这真的很好。
但总的来说,这是一个非常痛苦的周末。这就像一场令人惊讶的公开战斗,这对我来说非常疲惫,比我预想的要多得多。我认为打架通常会让人筋疲力尽,但这一场确实如此。董事会于周五下午进行了此项工作。我真的无法得到太多答案,但我也想,好吧,董事会可以这样做,所以我要考虑一下我想做什么,但我 ‘ 我会尝试在这里找到因祸得福。
我当时想,好吧,我目前在 OpenAI 的工作是,或者说曾经是,经营一家规模相当大的公司。我一直最喜欢的事情就是与研究人员一起工作。我当时想,是的,我可以去做一个非常专注的 AGI 研究工作。我对此感到很兴奋。当时我什至没有想到这一切可能都会被撤销。这是周五下午。
Lex Fridman:所以你已经接受了这个。
Sam Altman:非常快。我经历了一段困惑和愤怒的时期,但很快,很快。到周五晚上,我正在和人们谈论接下来会发生什么,我对此感到很兴奋。我想那是周五晚上,我第一次听到这里的执行团队的声音,就像是,「嘿,我们要对抗这个问题。」然后我就上床睡觉了,但我仍然感到,好吧,兴奋。向前。
Lex Fridman: 你睡得著吗?
Sam Altman:不多。其中一件奇怪的事情是,在这四天半的时间里,我睡得不多,吃得不多,但仍然精力充沛。在战时你会学到关于肾上腺素的奇怪事情。
Lex Fridman:所以你接受了 OpenAI 这个婴儿的死亡。
Sam Altman:我对新事物感到兴奋。我当时想,「好吧,这太疯狂了,但无论如何。」
Lex Fridman: 这是一个非常好的应对机制。
Sam Altman:周六早上,两名董事会成员打电话说:「嘿,我们并不是有意破坏稳定。我们不想在这里储存太多的价值。我们可以谈谈你回来的事吗?」
我立刻不想这样做,但我想了一点,然后我想,嗯,我真的很关心这里的人、合作伙伴、股东。我喜欢这家公司。所以我想了想,我想,「好吧,但这就是我需要的东西。」然后最痛苦的时刻是在那个周末,我一直在思考并被告知,不仅仅是我,这里的整个团队都在思考,好吧,当全世界都在努力时,我们正在努力保持 OpenAI 的稳定为了打破它,人们试图招募任何人。
我们一直被告知,好吧,我们快完成了。我们快完成了。我们只是需要多一点时间。这就是一种非常混乱的状态。然后周日晚上,每隔几个小时,我就期待我们会完成任务,我们会想办法让我回来,让事情回到原来的样子。
董事会随后任命了一位新的临时执行长,然后我就想,这感觉真的很糟糕。那是整个事情的最低点。我告诉你一件事。这感觉很痛苦,但整个周末我都感受到了很多爱。除了周日晚上的那一刻,我不会将自己的情绪描述为愤怒或仇恨,但我感受到人们对人们的很多爱。这很痛苦,但周末的主导情绪是爱,而不是恨。
Lex Fridman:您对米拉・穆拉蒂 (Mira Murati) 给予了高度评价,正如您在推文中所说,她在重要的安静时刻尤其提供了帮助。或许我们可以稍微偏离一下主题。你欣赏米拉什么?
Sam Altman:嗯,在那个周末,在一片混乱中,她做得很好,但人们经常在危机时刻看到领导者,无论好坏。但我真正看重领导者的一点是,人们在无聊的周二上午 9:46 以及日常的平凡苦差事中的表现如何。某人在会议中的表现、他们所做决策的品质。这就是我所说的安静时刻。
Lex Fridman:这意味著大部分工作都是在日复一日的会议中完成的。只要在场并做出重大决定即可。
Sam Altman:是的。看,你想花最后 20 分钟的时间,我理解,这是一个非常戏剧性的周末,但这并不是 OpenAI 的真正目的。OpenAI 确实是关于另外七年的。
Lex Fridman:嗯,是的。人类文明不是纳粹德国入侵苏联,但这仍然是人们关注的焦点。
Sam Altman:非常容易理解。
Lex Fridman:它让我们洞察人性、人性的极端,或许人类文明的一些胜利中的一些损害可能发生在那些时刻,所以它很有说明性。让我问你关于伊利亚的事。他是在秘密核设施中被扣为人质吗?
Ilya Sutskever,OpenAI 的共同创办人
Lex Fridman:这在某种程度上正在成为一种迷因。你认识伊利亚很长时间了。显然,他是董事会和诸如此类的事情的一部分。你现在和他是什么关系?
Sam Altman:我爱伊利亚。我非常尊重伊利亚。我现在对他的计划无话可说。这是他的问题,但我真的希望我们在我余下的职业生涯中一起工作。他比我年轻一点。也许他工作的时间长一点。
Lex Fridman:有一个迷因说他看到了一些东西,就像他可能看到了 AGI,这让他内心非常担心。伊利亚看到了什么?
Sam Altman:伊利亚没有见过 AGI。我们没有人见过 AGI。我们还没有建立 AGI。我确实认为我真正喜欢 Ilya 的众多原因之一是他非常认真地对待 AGI 和安全问题,从广义上讲,包括这将对社会产生的影响等问题。随著我们继续取得重大进展,伊利亚是我在过去几年里花最多时间谈论这意味著什么、我们需要做什么来确保我们做对的人之一,确保我们成功完成使命。
所以伊利亚并没有看到通用人工智慧,但伊利亚为人类做出了贡献,因为他为确保我们做对而思考和担心。
Lex Fridman:我过去曾与他进行过很多交谈。我认为当他谈论技术时,他总是在做这种长期思考的事情。所以他并没有考虑一年后会发生什么。他正在考虑 10 年后的情况,只是从首要原则出发思考,好吧,如果规模化了,那么这里的基本原理是什么?这是要去哪里?因此,这是他们思考所有其他安全问题和所有此类问题的基础,这使他成为一个非常有趣的人。你知道他为什么沉默吗?难道他只是在自我反省?
Sam Altman:再说一遍,我不想代表 Ilya 发言。我认为你应该问他这个问题。他绝对是一个有思想的人。我认为伊利亚总是以一种非常好的方式进行灵魂探索。
Lex Fridman:是的。此外,他还欣赏沉默的力量。另外,我听说他可能是个傻子,但我从未见过他的这一面。
Sam Altman:当这种情况发生时,感觉非常甜蜜。
Lex Fridman:我从未见过愚蠢的伊利亚,但我也很期待。
Sam Altman:最近我和他一起参加一个晚宴,他正在和一只小狗玩耍,他的心情很傻,很可爱。我在想,天哪,这不是世人最常看到的伊利亚的一面。
Lex Fridman:总结一下整个故事,您对董事会结构感觉良好吗?
Sam Altman:是的。
Lex Fridman:关于这一切以及它的发展方向?
Sam Altman:我对新董事会感觉很好。就 OpenAI 的结构而言,董事会的任务之一就是研究它,看看我们可以在哪些方面使其更加稳健。我们希望首先让新的董事会成员就位,但我们显然在整个过程中学到了有关结构的教训。我想,我没有什么非常深奥的话要说。
这是一次疯狂、非常痛苦的经历。我认为这是一场完美的怪异风暴。这对我来说是一个预演,随著风险越来越大,以及我们需要拥有健全的治理结构、流程和人员,将会发生什么。我很高兴它发生了,但经历它是一件令人震惊的痛苦的事情。
Lex Fridman:这是否让您在信任他人方面变得更加犹豫?
Sam Altman:是的。
Lex Fridman:只是在个人层面上吗?
Sam Altman:是的。我想我是一个非常信任别人的人。我一直有一个人生哲学,那就是不要担心所有的偏执。不用担心边缘情况。你会被一点点搞砸,但你却可以放松警惕地生活。这让我非常震惊。我措手不及,它肯定已经改变了,我真的不喜欢这个,它绝对改变了我对人们预设信任和针对糟糕情况的计划的看法。
Lex Fridman:你必须小心这一点。您是否担心变得有点太愤世嫉俗?
Sam Altman:我并不担心变得过于愤世嫉俗。我认为我是一个愤世嫉俗的人的极端对立面,但我担心自己会变得不再是一个预设的信任者。
Lex Fridman:我实际上不确定哪种模式最适合开发 AGI 的人,信任还是不信任。你正在经历一段有趣的旅程。但就结构而言,我对人类层面更感兴趣。你如何让周围的人都在创造很酷的东西,同时也做出明智的决定?因为你赚的钱越多,这个东西的力量就越大,人们就越奇怪。
Sam Altman:我认为您可以对董事会成员以及我应该获得的信任程度做出各种评论,或者我应该如何以不同的方式做事。但就这里的团队而言,我想你必须给我一个非常好的评分。我对每天与我一起工作的人怀有极大的感激、信任和尊重,我认为被这样的人包围真的很重要。
马斯克的诉讼
Lex Fridman: 我们共同的朋友 Elon 起诉 OpenAI。对你来说,他批评的本质是什么?他的观点在多大程度上有道理?他错到什么程度了?
Sam Altman:我不知道它到底是关于什么的。我们一开始只是认为我们将成为一个研究实验室,并且不知道这项技术将如何发展。因为那只是七八年前的事,所以很难回去真正记住当时的情况,但那是在语言模型还没有成为大事之前。
那是在我们对 API 或销售聊天机器人的访问权有任何想法之前。在我们完全不知道我们要产品化之前。所以我们就像,「我们只是想尝试做研究,但我们并不真正知道我们要用它来做什么。」我认为对于许多根本性的新事物,你开始在黑暗中摸索并做出一些假设,其中大多数结果都是错误的。
然后很明显,我们需要做不同的事情,并且还需要大量的资本。所以我们说,「好吧,这个结构不太适合这个。我们如何修补结构?」然后你再次修补它,再次修补它,至少可以说,你最终会得到一些看起来确实令人惊讶的东西。
但我认为,我们逐渐走到了这一步,在这一过程中的每一点上都做出了合理的决定。这并不意味著如果我们现在可以使用 Oracle,我不会采取完全不同的做法,但当时你没有得到 Oracle。但无论如何,我不知道埃隆的真正动机是什么。
Lex Fridman:就您所记得的程度而言,OpenAI 在部落格中给出的回应是什么?你能总结一下吗?
Sam Altman:哦,我们刚刚说过伊隆说过这一系列的话。这是我们的表征,或者这不是我们的表征。以下是事件发生过程的描述。我们试图不让它变得情绪化,只是说:「这就是历史。」
Lex Fridman:我确实认为伊隆对你刚才提出的一个观点存在一定程度的错误描述,即你当时的不确定程度。你们是一小群研究人员,在每个人都在嘲笑 AGI 的时候疯狂地谈论这个想法。
Sam Altman:不久前,伊隆还在疯狂地谈论发射火箭,当时人们都在嘲笑这个想法,所以我认为他对此会有更多的同理心。
Lex Fridman:我确实认为这里有个人的事情,OpenAI 和这里很多了不起的人选择与分道扬镳,所以有一个个人的 ——
Sam Altman:伊隆选择分道扬镳。
Lex Fridman:你能准确描述一下吗?选择分手?
Sam Altman:他认为 OpenAI 将会失败。他想要完全控制来扭转局面。我们希望继续朝著 OpenAI 的方向前进。他还希望特斯拉能够打造通用人工智慧。他曾多次希望将 OpenAI 打造成一家他可以控制或与特斯拉合并的营利性公司。我们不想这样做,他决定离开,这很好。
Lex Fridman:所以你是说,这就是部落格文章所说的一件事,他希望 OpenAI 基本上被特斯拉以同样的方式收购,或者可能是类似的,或者可能是更多的东西比与微软的合作更具戏剧性。
Sam Altman:我的记忆是,这个提案就像是,被特斯拉收购并让特斯拉完全控制它。我很确定就是这样。
Lex Fridman:那么 OpenAI 中的「开放」一词对于当时的伊隆来说意味著什么?伊利亚(Ilya)在电子邮件交流和所有此类内容中谈到了这一点。当时对你来说意味著什么?现在对你来说意味著什么?
Sam Altman:说到使用 Oracle,我会选择一个不同的名字。我认为 OpenAI 正在做的事情中最重要的一件事就是将强大的技术免费提供给人们,作为一项公共利益。我们不在我们的网站上投放广告作为公共物品。我们的免费版本不会投放广告。我们不会以其他方式将其货币化。
我们只是说这是我们使命的一部分。我们希望将日益强大的工具免费提供给人们并让他们使用它们。我认为这种开放对我们的使命非常重要。我认为,如果你为人们提供出色的工具并教他们使用它们,或者甚至不教他们,他们就会弄清楚,并让他们以此为彼此建立一个令人难以置信的未来,这是一件大事。
因此,如果我们能够继续向世界推出免费或低成本或免费且低成本的强大人工智慧工具,我认为这对于我们如何完成使命来说意义重大。不管是否开源,是的,我认为我们应该开源一些东西而不是其他东西。它确实成为了一条很难有细微差别的宗教战线,但我认为细微差别是正确的答案。
Lex Fridman:于是他说:「把你的名字改成 CloseAI,我就放弃诉讼。」我的意思是,它会成为这个名字的迷因之地的战场吗?
Sam Altman:我认为这说明了伊隆对诉讼的严肃态度,我认为这是一件令人惊讶的事情。
Lex Fridman: 如果我错了,也许可以纠正我,但我认为这起诉讼在法律上并不严重。更重要的是要强调 AGI 的未来以及目前处于领先地位的公司。
Sam Altman:看,我的意思是 Grok 没有开源任何东西,直到人们指出它有点虚伪,然后他宣布 Grok 将在本周开源。我认为开源与非开源对他来说并不是真正的意义所在。
Lex Fridman:好吧,我们将讨论开源与非开源。我确实认为也许批评竞争是件好事。只说一点废话,那就太好了。但友好的竞争与「我个人讨厌诉讼」之类的竞争不同。
Sam Altman:听著,我认为这整件事对于建筑商来说是不合适的。我尊重埃隆,他是我们这个时代最伟大的建设者之一。我知道他知道被仇恨者攻击他是什么感觉,这让我对他这样做感到格外难过。
Lex Fridman:是的,他是有史以来最伟大的建设者之一,甚至可能是有史以来最伟大的建设者。
Sam Altman:这让我很难过。我认为这让很多人感到悲伤。有很多人长期以来一直仰慕他。我在一些采访或其他事情中说过,我怀念以前的埃隆,以及我收到的大量资讯,「这正是我的感受。」
Lex Fridman:我认为他应该赢。他应该让 X Grok 击败 GPT,然后 GPT 击败 Grok,这只是竞争,对每个人来说都是美好的。但在开源问题上,你认为有很多公司在玩这个想法吗?这很有趣。我想说,Meta 令人惊讶地在这方面处于领先地位,或者至少在真正开源模型的国际象棋游戏中迈出了第一步。当然,这不是最先进的模型,但开源 Llama Google正在考虑开源一个较小版本的想法。开源的优点和缺点是什么?你有没有想过这个想法?
Sam Altman:是的,我认为开源模型肯定有一席之地,特别是人们可以在本地执行的小型模型,我认为需求巨大。我认为会有一些开源模型,也会有一些闭源模型。在这方面它与其他生态系统没有什么不同。
Lex Fridman: 我在Podcast中听到所有人谈论这起诉讼和所有类似的事情。他们更担心从非营利性转向营利性上限的先例。为其他初创公司树立了什么先例?那是东西吗 ——
Sam Altman: 我强烈劝阻任何考虑以非营利组织开始并随后增加营利性部门的初创公司。我强烈劝阻他们不要这样做。我不认为我们会在这里开创先例。
Lex Fridman:好的。所以大多数初创公司应该这样做 ——
Sam Altman:当然。
Lex Fridman:再说一遍 ——
Sam Altman:如果我们知道会发生什么,我们也会这样做。
Lex Fridman:理论上来说,如果你在这里跳得很漂亮,就会有一些税收优惠或其他什么,但是……
Sam Altman:我认为大多数人并不是这样看待这些事情的。
Lex Fridman:如果这样做的话,就不可能为初创公司节省很多钱。
Sam Altman:不,我认为有些法律会让这变得相当困难。
Lex Fridman:你希望伊隆的表现如何?这种紧张,这种舞蹈,你希望这是什么?如果我们从现在开始一两年、三年后,你和他的关系也会在个人层面上发生,比如友谊、友好竞争,等等。
Sam Altman:是的,我真的很尊重伊隆,我希望在未来的岁月里我们能保持友好的关系。
Lex Fridman:是的,我希望你们这个月能保持友好的关系,互相竞争、获胜并一起探索这些想法。我确实认为存在人才竞争或其他竞争,但应该是友好的竞争。只是建造很酷的东西。埃隆非常擅长创造酷炫的东西。你也是。
Sora
Lex Fridman:Sora,说到很酷的事情。我可以问大约一百万个问题。首先,这太棒了。它在产品层面上确实令人惊叹,但在哲学层面上也是如此。那么,让我从技术 / 哲学角度问一下,您认为它对世界的理解比 GPT-4 多还是少?当您使用这些更新与语言标记进行训练时的世界模型。
Sam Altman:我认为所有这些模型对世界模型的理解都比我们大多数人想像的要多。而且因为他们也非常清楚他们只是不理解或不正确的事情,所以很容易看到弱点,看穿面纱并说,「啊,这都是假的。」但这并不全是假的。只是有些有效,有些无效。
我记得当我第一次开始观看 Sora 视讯时,我会看到一个人在某个东西前面行走几秒钟并遮挡它,然后走开,同样的东西仍然在那里。我当时想,「哦,这很好。」或者有一些例子,其中底层物理看起来在序列中的许多步骤中得到了很好的体现,就像,「哦,这真是令人印象深刻。」
但从根本上来说,这些模型只是在变得更好,而且这种情况将会持续发生。如果你看一下从 DALL・E 1 到 2 到 3 到 Sora 的轨迹,每个版本都有很多人被扣篮说它不能这样做,它不能这样做,现在看看。
Lex Fridman:嗯,你刚才提到的是遮挡基本上是对世界的三维物理模型进行足够好的建模,以捕获此类事物。
Sam Altman:嗯……
Lex Fridman:或者,也许你可以告诉我,为了处理遮挡问题,世界模型需要做什么?
Sam Altman:是的。所以我想说的是,它在处理遮挡方面做得非常好。我所说的是它有一个很棒的底层 3D 世界模型,这有点牵强。
Lex Fridman:但是仅通过这些二维训练资料方法就能实现这一目标吗?
Sam Altman:看来这种方法将会取得令人惊讶的成果。我不想过多猜测它会克服哪些限制,不会克服哪些限制,但是……
Lex Fridman:您发现该系统有哪些有趣的限制?我的意思是您释出了一些有趣的内容。
Sam Altman:有各种各样的乐趣。我的意思是,猫在视讯中的随机点上萌芽了额外的限制。选择你想要的,但是仍然有很多问题,有很多弱点。
Lex Fridman:您认为这是该方法的根本缺陷,还是只是更大的模型或更好的技术细节或更好的资料,更多的资料将解决猫发芽的问题?
Sam Altman:我会对两者都说「是」。我认为这种方法似乎与我们思考、学习等方式有所不同。而且我认为随著规模的扩大,情况会变得更好。
Lex Fridman:就像我提到的,LLMS 有标记、文字标记,而 Sora 有视觉更新,因此它将所有视觉资料、各种视觉资料视讯和影象转换为更新。培训是否达到了完全自我监督的程度,正在进行一些手动标记?人类在这一切中有何参与?
Sam Altman:我的意思是,不用说任何有关 Sora 方法的具体内容,我们在工作中使用了大量的人类资料。
Lex Fridman:但不是网际网路规模的资料?人类如此之多。「很多」是一个复杂的词,山姆。
Sam Altman:我认为在这种情况下「很多」是一个公平的词。
Lex Fridman:因为对我来说,「很多」…… 听著,我是一个内向的人,当我和三个人一起出去玩时,那就是很多人。四个人,很多了。但我想你的意思不仅仅是……
Sam Altman:是的,有超过三个人致力于为这些模型标记资料。
Lex Fridman:好的。正确的。但从根本上来说,有很多自我监督学习。因为你在技术报告中提到的是网际网路规模的资料。那是另一种美丽…… 就像诗一样。所以有很多资料不是人类标签的。是这样自我监督的吗?
Sam Altman:是的。
Lex Fridman: 然后的问题是,如果我们知道自我监督的细节,网际网路上有多少资料可以用于这种有利于这种自我监督的方式。您是否考虑过公开更多细节?
Sam Altman:我们有。你的意思是专门针对来源吗?
Lex Fridman:具体来源。因为这太有趣了,法学硕士的同样魔力现在可以开始转向视觉资料吗?需要什么才能做到这一点?
Sam Altman:我的意思是,在我看来是的,但我们还有更多工作要做。
Lex Fridman: 当然。有什么危险?您为什么担心释出系统?这可能存在哪些危险?
Sam Altman:坦白地说,我的意思是,在释出系统之前我们必须做的一件事就是让它以一定的效率执行,从而达到人们想要的规模,这样我就不会 ‘ 我不想淡化这一点。那里还有大量工作要做。但你可以想像深度造假和错误资讯带来的问题。我们努力成为一家深思熟虑的公司,对我们向世界提供的产品深思熟虑,并且不需要太多思考就可以考虑这种情况可能会变得糟糕。
Lex Fridman:这里有很多棘手的问题,您正在处理一个非常棘手的空间。您认为训练人工智慧应该属于版权法下的合理使用吗?
Sam Altman:我认为这个问题背后的问题是,创造有价值资料的人是否应该通过某种方式获得使用资料的补偿,我认为答案是肯定的。我还不知道答案是什么。人们提出了很多不同的建议。我们尝试了一些不同的模型。但如果我像一位艺术家,例如 A,我希望能够选择退出以我的风格创作艺术的人。B,如果他们确实以我的风格创作艺术,我希望有一些与之相关的经济模型。
Lex Fridman:是的,这就是从 CD 到 Napster 再到 Spotify 的转变。我们必须找出某种模型。
Sam Altman:模式发生了变化,但人们必须得到报酬。
Lex Fridman:好吧,如果我们进一步缩小范围,让人类继续做很酷的事情,就应该有某种激励。
Sam Altman:在我担心的一切中,人类会做出一些很酷的事情,而社会会找到一些方法来奖励它。这看起来相当硬连。我们想要创造,我们想要成为有用的人,我们想要以任何方式获得地位。我认为这不会有什么结果。
Lex Fridman:但奖励可能不是金钱上的。这可能是其他酷的名声和庆祝。
Sam Altman:或许可以通过其他方式实现财务方面的目的。再说一次,我认为我们还没有看到经济体系如何运作的最后演变。
Lex Fridman:是的,但艺术家和创作者很担心。当他们看到索拉时,他们会说:「天哪。」
Sam Altman:当然。当摄影出现时,艺术家们也非常担心,然后摄影成为一种新的艺术形式,人们通过拍照赚了很多钱。我认为类似的事情还会继续发生。人们将以新的方式使用新工具。
Lex Fridman:如果我们只看 YouTube 或类似的内容,您认为在未来五年内,其中有多少内容将使用 Sora 等人工智慧生成的内容?
Sam Altman:人们谈论人工智慧在五年内将完成多少工作。人们的框架是,目前的工作中有多少比例将被人工智慧完成的工作完全取代?我思考的方式不是人工智慧将完成多少百分比的工作,而是人工智慧在一段时间内将完成多少百分比的任务。
因此,如果你想到经济中所有的五秒任务、五分钟任务、五小时任务,甚至五天任务,人工智慧可以完成多少任务?我认为这是一个比人工智慧可以做多少工作更有趣、更有影响力、更重要的问题,因为它是一种工具,可以在越来越复杂的水平上工作,在越来越长的时间范围内完成越来越多的任务,并让人们以一种更灵活的方式进行操作。更高层次的抽象。
所以也许人们的工作效率更高。在某些时候,这不仅仅是一种量的变化,而且对于你可以记住的问题型别也是一种质的变化。我认为 YouTube 上的视讯也是如此。许多视讯,也许是大多数视讯,都会在制作中使用人工智慧工具,但从根本上来说,它们仍然是由一个人思考、组合、完成其中的一部分来驱动的。有点指导和执行它。
Lex Fridman:是的,这很有趣。我的意思是这很可怕,但想想很有趣。我倾向于相信人类喜欢观察其他人类或其他人类 –
Sam Altman:人类确实非常关心其他人。
Lex Fridman:是的。如果有比人类更好的更酷的东西,人类会关心它两天,然后他们就会回到人类。
Sam Altman: 这似乎非常紧密。
Lex Fridman:这就是整个国际象棋的事情,「哦,是的,」但现在让我们每个人都继续下国际象棋。让我们忽略房间里的大象,相对于人工智慧系统,人类在国际象棋方面确实很糟糕。
Sam Altman:我们仍然参加比赛,汽车的速度要快得多。我的意思是有很多例子。
Lex Fridman:是的。也许它只是以 Adobe 套件型别的方式提供工具,可以使视讯之类的事情变得更加容易。
GPT-4
Lex Fridman:让我问一下有关 GPT-4 的问题。有很多问题。首先,也很神奇。现在回想起来,ChatGPT 的第 3、5、4 期可能就是这样一个历史性的关键时刻。
Sam Altman:也许五将是关键时刻。我不知道。很难说期待。
Lex Fridman:我们永远不会知道。这就是未来令人烦恼的事情,它很难预测。但对我来说,回顾过去,GPT-4、ChatGPT 非常令人印象深刻,在历史上令人印象深刻。那么请允许我问一下,GPT-4 对您和 GPT-4 Turbo 印象最深刻的功能是什么?
Sam Altman:我觉得这有点糟糕。
Lex Fridman:也是典型的人类,习惯了很棒的事情。
Sam Altman:不,我认为这是一件了不起的事情,但相对于我们需要达到的目标以及我相信我们将会达到的目标,在 GPT-3 时代,人们会说,「哦,这真太了不起了。这是技术的奇迹。」确实如此,曾经如此。但现在我们有了 GPT-4,再看看 GPT-3,你会想,「这太可怕了。」我预计 5 和 4 之间的差值将与 4 和 3 之间的差值相同,我认为我们的工作是在未来的几年里生活并记住,我们现在拥有的工具回顾起来会有点糟糕他们就是我们确保未来更美好的方式。
Lex Fridman:GPT-4 最糟糕的地方是什么?
Sam Altman:它能做的最好的事情是什么?
Lex Fridman:它能做的最好的事情是什么?这些最好的事情的局限性是什么,让你说它很糟糕,从而给你对未来的灵感和希望?
Sam Altman:我最近使用它的一件事是有点像集思广益的伙伴。
Lex Fridman:是的。
Sam Altman:里面有一丝令人惊奇的东西。当人们谈论它、它的作用时,他们会说,「哦,它帮助我更高效地编码。它帮助我写得更快更好。它帮助我从这种语言翻译成另一种语言」,所有这些令人惊奇的事情,但是有一些关于创造性头脑风暴合作伙伴的东西,「我需要为这个东西想一个名字。我需要以不同的方式思考这个问题。我不知道在这里做什么」,我认为这让我看到了一些我希望看到更多的东西。
您可以看到的另一件事是,我可以帮助完成长期任务,分多个步骤分解某些内容,也许执行其中一些步骤,搜寻网际网路,写程式码,无论如何,把它们放在一起。当这种方法奏效时(这种情况并不常见),那就非常神奇了。
Lex Fridman:与人的反复交流对我来说非常有效。你这是什么意思 –
Sam Altman: 当 人类可以自己解决 10 步问题时,它可以更频繁地来回迭代。
Lex Fridman:哦。
Sam Altman:有时,它并不经常起作用。
Lex Fridman:新增多个抽象层还是意味著只是顺序的?
Sam Altman:两者都是,将其分解,然后通过不同的抽象层将它们组合在一起。我不想低估 GPT-4 的成就,但我也不想夸大它。我认为我们正处于指数曲线上,我们很快就会回顾 GPT-4,就像我们现在回顾 GPT-3 一样。
Lex Fridman:也就是说,我的意思是 ChatGPT 是一个过渡,让人们开始相信信念有所上升,而不是在 OpenAI 内部。
Sam Altman:当然。
Lex Fridman:也许这里有信徒,但当你想到 –
Sam Altman:从这个意义上说,我确实认为这将是世界上很多人从不相信变成相信的时刻。这更多是关于 ChatGPT 介面的。通过介面和产品,我还指的是模型的后期培训,以及我们如何调整它以对您有所帮助,以及如何使用它而不是底层模型本身。
Lex Fridman:这些事情有多重要?底层模型和 RLHF 或类似性质的东西可以对其进行调整,使其对人类更具吸引力,对人类来说更加有效和富有成效。
Sam Altman:我的意思是它们都非常重要,但是 RLHF、训练后步骤、从计算角度来看的事情的小包装、我们在基本模型之上所做的事情的小包装尽管这是一项巨大的工作量,但这确实很重要,更不用说我们围绕它构建的产品了。从某种意义上说,我们确实必须做两件事。我们必须发明底层技术,然后我们必须弄清楚如何将其变成人们喜欢的产品,这不仅仅是实际的产品工作本身,而是如何调整它并使其有用的整个其他步骤。
Lex Fridman:以及如何让秤在很多人可以同时使用的情况下发挥作用。所有这些东西。
Sam Altman:还有那个。但这是一件众所周知的困难事。我们知道我们必须扩大规模。我们必须去做两件以前从未做过的事情,我想说这两件事都是相当重大的成就,然后是很多其他公司以前必须做的事情,比如扩大规模。
Lex Fridman:从 GPT-4 到 GPT-4 Turbo,从 8K 到 128K 代币的上下文视窗有何不同?
Sam Altman:大多数人大多数时候并不需要一直调到 128。尽管如果我们梦想到遥远的未来,我们将拥有遥远的未来,我们将拥有数十亿的上下文长度。随著时间的推移,你将输入所有资讯、所有历史记录,它会越来越了解你,这非常棒。目前,人们使用这些模型的方式并没有这样做。人们有时会发布论文或程式码储存库的重要部分,无论如何,但模型的大多数使用在大多数情况下都不会使用长上下文。
Lex Fridman:我喜欢你的「我有一个梦想」演讲。有一天,人们会根据你的性格或你一生的全部背景来评判你。那很有意思。所以这是你所希望的扩展套件的一部分,是一个越来越大的背景。
Sam Altman:我看过这个网际网路剪辑一次,我会把数位弄错,但这就像比尔・盖茨谈论某些早期电脑上的记忆体量,也许是 64K,也许是 640K,什么的像那样。其中大部分用于萤幕缓冲区。他只是看起来不太真诚。他只是无法想像世界最终会需要电脑中的千兆位元组记忆体或电脑中的兆位元组记忆体。
你总是这样做,或者你总是这样做,只需要遵循技术的指数,我们就会找到如何使用更好的技术。所以我现在真的无法想像有一天上下文连结会达到十亿个。他们可能不会真的去那里,但实际上会有那样的感觉。但我知道我们会使用它,并且一旦我们拥有它就真的不想回去了。
Lex Fridman:是的,即使说 10 年后数十亿也可能看起来很愚蠢,因为它将是数兆美元。
Sam Altman:当然。
Lex Fridman:将会出现某种突破,感觉就像是无限的背景。但即使是 120,我也得说实话,我还没有把它推到那个程度。也许放入整本书或部分书籍等、论文。您见过哪些有趣的 GPT-4 用例?
Sam Altman:我发现最有趣的事情不是我们可以谈论的任何特定用例,而是人们喜欢,这主要是年轻人,但使用它作为预设开始的人适用于任何型别的知识工作任务。事实上,它可以很好地完成很多事情。你可以使用 GPT-V,你可以用它来帮助你写程式码,你可以用它来帮助你做搜寻,你可以用它来编辑论文。对我来说最有趣的是那些只是使用它作为工作流程开始的人。
Lex Fridman:我在很多事情上也是这样做的。我用它作为看书的阅读伙伴。它帮助我思考,帮助我思考想法,尤其是当书籍是经典的时候。所以这确实写得很好。我发现它在涵盖广泛的主题上通常比维基百科要好得多。它在某种程度上更加平衡和更加细致。或者也许是我,但它激发了我比维基百科文章更深入的思考。我不太确定那是什么。
您提到了这次合作。我不确定魔法在哪里,是在这里还是在那里,或者是介于两者之间。我不知道。但是,当我开始使用 GPT 时,关于知识任务,我担心的事情之一是我通常必须在之后进行事实检查,例如检查它是否提出了虚假内容。你怎么知道 GPT 可以提出听起来确实令人信服的假东西?那么你如何将其扎根于事实呢?
Sam Altman:这显然是我们非常感兴趣的领域。我认为即将推出的版本会变得更好,但我们必须继续努力,今年我们不会全部解决。
Lex Fridman:可怕的是,随著情况变得更好,你会开始越来越不进行事实核查,对吗?
Sam Altman:我对此有两种看法。我认为人们对技术的使用比我们通常认为的要复杂得多。
Lex Fridman:当然。
Sam Altman:人们似乎真正理解 GPT,任何这些模型有时都会产生幻觉。如果它是关键任务,你就必须检查它。
Lex Fridman:但记者似乎不明白这一点。我见过记者半途而废地使用 GPT-4。它是 –
Sam Altman:在我想斥责记者的一长串事情中,这并不是我对他们最严厉的批评。
Lex Fridman:嗯,我认为更大的批评也许是作为一名记者的压力和激励是你必须非常快地工作,这是一条捷径。我希望我们的社会能够激励像 –
Sam Altman:我也愿意。
Lex Fridman:就像新闻工作需要数天和数周的时间,并会奖励深度新闻报导。此外,以平衡的方式呈现内容的新闻报导就像在赞扬人们的同时批评他们,即使批评是获得点选的东西,而捏造的东西也会获得点选和完全错误描述的头条新闻。我相信很多人都会说,「好吧,所有这些戏剧性的内容可能都会获得很多点选。」
Sam Altman:可能是这样。
记忆与隐私
Lex Fridman:这是人类文明的一个更大问题,我很想拉锯。这是我们庆祝更多的地方。你赋予了 ChatGPT 拥有记忆的能力。你在之前的谈话中一直在玩弄这个。还有关闭记忆体的能力。我希望有时我也能这样做。只需开启和关闭,具体取决于。我想有时酒精可以做到这一点,但我认为效果不是最佳。你从中看到了什么,比如玩弄记住对话的想法而不是……
Sam Altman:我们的探索还处于早期阶段,但我认为人们想要的,或者至少是我自己想要的,是一个能够了解我并随著时间的推移对我变得更有用的模型。这是一个早期的探索。我认为还有很多其他事情要做,但这就是我们想要去的地方。你想使用一个模型,在你的一生中或使用一个系统,它会是很多模型,并且在你的一生中它会变得越来越好。
Lex Fridman:是的。这个问题有多难?因为现在它更像是记住一些小事实和偏好等等。还记得吗?难道你不希望 GPT 记住你在 11 月份经历的所有狗屎和所有戏剧性事件然后你就可以 –
Sam Altman:是的。
Lex Fridman:因为现在你显然把它挡住了一点。
Sam Altman:这不仅仅是我希望它记住这一点。我希望它能够整合其中的教训,并提醒我将来应该采取哪些不同的做法或要注意什么。我们都在不同程度上从生活中的经验中获益,我希望我的人工智慧代理也能从这些经验中获益。因此,如果我们回过头来,让自己想像一下,有数兆的上下文长度,如果我可以把我一生中与任何人进行过的每一次对话都放在那里,如果我可以输入我所有的电子邮件,我所有的资讯。每次我问问题时都会在上下文视窗中输入输出,我认为这非常酷。
Lex Fridman:是的,我认为那会非常酷。人们有时会听到这样的说法并担心隐私。你认为这方面怎么样,人工智慧变得越有效,真正整合发生在你身上的所有经验和所有资料并为你提供建议?
Sam Altman:我认为正确的答案就是使用者的选择。任何我想从我的人工智慧代理的记录中删除的东西,我都希望能够删除。如果我不想记住任何事,我也想要。对于隐私实用程式与我们自己的人工智慧之间的权衡,你和我可能有不同的看法 ——
关于 OpenAI 的隐私 / 实用性权衡的意见,这完全没问题。但我认为答案只是非常简单的使用者选择。
Lex Fridman:但公司对于使用者的选择应该有一定程度的透明度。因为有时公司在过去有点阴暗,「呃,有点假设我们正在收集你的所有资料。我们使用它是有充分理由的,比如广告等等。」但具体细节尚不透明。
Sam Altman:这完全正确。你之前提到过我会排除 11 月份的事情。
Lex Fridman:只是逗你玩。
Sam Altman:嗯,我的意思是,我认为这是一件非常痛苦的事情,它确实让我在很长一段时间内无法动弹。毫无疑问,我必须做的最艰难的工作就是继续那段时间的工作,因为当我处于震惊和痛苦之中时,我必须尝试回到这里并将各个部分拼凑起来,而没有人真正关心这一点。
我的意思是,球队给了我通行证,但我没有达到正常水平。但有一段时间,两者都要做确实很困难。但有一天早上我醒来,我想,「这对我来说是一件可怕的事情。我想我可能会觉得自己永远是受害者,或者我可以说这是我一生中接触过的最重要的工作,我需要回到它。」这并不意味著我已经压抑了它,因为有时我会在半夜醒来思考它,但我确实觉得有义务继续前进。
Lex Fridman:嗯,这话说得很漂亮,但里面可能有一些挥之不去的东西。就像,我担心的是你提到的信任问题,即对人的偏执,而不是仅仅信任每个人或大多数人,比如使用你的直觉。这是一个棘手的舞蹈。
Sam Altman:当然。
Lex Fridman:我的意思是,因为我在兼职探索中看到,我一直在深入研究泽伦斯基政府和普京政府以及战时在压力非常大的环境中的动态。所发生的就是不信任,你孤立自己,两者兼而有之,你开始看不清世界。这是人类关心的问题。
你似乎已经泰然处之,学到了很好的教训,感受到了爱,让爱给你注入了活力,这很好,但仍然可以留在那里。我只是想问一些问题,您对 GPT 能做什么、不能做什么的直觉。因此它为它生成的每个代币分配大约相同的计算量。这种缓慢思考、顺序思考的方法是否有空间?
Sam Altman:我认为这种思维将会有一个新的正规化。
Lex Fridman:它在架构上会与我们现在看到的法学硕士类似吗?它是法学硕士之上的一层吗?
Sam Altman:我可以想像很多方法来实现这一点。我认为这比你所提出的问题更重要,那就是,我们是否需要一种方法来进行更慢的思考,而答案不必得到…… 我想从精神上来说,你可以说你想要一个人工智慧能够更深入地思考更困难的问题并更快地回答更简单的问题。我认为这很重要。
Lex Fridman:这就像我们刚刚拥有的人类思想一样,你应该能够认真思考吗?这是错误的直觉吗?
Sam Altman:我怀疑这是一个合理的直觉。
Lex Fridman:有趣。那么,一旦 GPT 变得像 GPT-7 一样,不可能立即就能看到「这是费马定理的证明」吗?
Sam Altman:在我看来,您希望能够将更多的计算分配给更困难的问题。在我看来,如果你问这样的系统,「证明费马大定理」,而不是「今天是几号?」,除非它已经知道并记住了证明的答案,假设它必须弄清楚出来,似乎需要更多的计算。
Lex Fridman:但这看起来像是法学硕士在自言自语之类的事情吗?
Sam Altman:也许吧。我的意思是,有很多事情是你可以想像的。我们不知道正确或最好的方法是什么。
Q*
Lex Fridman:这确实让我想起了 Q* 背后的神秘传说。这个神秘的 Q* 专案是什么?也是在同一个核设施里吗?
Sam Altman: 没有核设施。
Lex Fridman:嗯嗯。这是拥有核设施的人总是这么说的。
Sam Altman:我很想拥有一个秘密核设施。没有一个。
Lex Fridman:好的。
Sam Altman:也许有一天。
Lex Fridman:有一天?好的。一个人可以梦想。
Sam Altman:OpenAI 并不是一家善于保守秘密的公司。那就太好了。我们就像被很多泄密所困扰,如果我们能够拥有这样的东西那就太好了。
Lex Fridman:您能谈谈 Q* 是什么吗?
Sam Altman:我们还没有准备好谈论这个。
Lex Fridman:看吧,这样的答案意味著有话可说。这很神秘,萨姆。
Sam Altman:我的意思是,我们致力于各种研究。我们已经说过一段时间了,我们认为这些系统中更好的推理是我们想要追求的一个重要方向。我们还没有破解密码。我们对此非常感兴趣。
Lex Fridman:是否会有一些时刻,Q* 或其他,会出现类似于 ChatGPT 的跳跃,你会像……
Sam Altman:这是个好问题。我对此有何看法?这真有趣。对我来说,这一切感觉相当连续。
Lex Fridman:对。这是你所说的一个主题,你基本上是在逐渐上升一个指数斜率。但从一个外人的角度,从我自己来看,确实感觉有跳跃。但对你来说,没有吗?
Sam Altman:我确实想知道我们是否应该…… 所以我们以这种方式部署的部分原因是,我们称之为迭代部署,而不是秘密构建,直到我们一路达到 GPT-5 ,我们决定讨论 GPT-1、2、3 和 4。部分原因是我认为人工智慧和惊喜不能并存。
世界、人民、机构,无论你怎么称呼它,都需要时间来适应和思考这些事情。我认为 OpenAI 所做的最好的事情之一就是这个战略,我们让世界关注进展,认真对待 AGI,在我们实施之前思考我们想要什么样的系统、结构和治理。在枪口下,不得不做出仓促的决定。
我认为这真的很好。但事实上,像你和其他人这样的人说你仍然觉得有这些飞跃,这让我觉得也许我们应该更加迭代地进行释出。我不知道这意味著什么,我还没有准备好答案,但我们的目标不是给世界带来令人震惊的更新。相反。
Lex Fridman:是的,当然。更多的迭代将会是惊人的。我认为这对每个人来说都是美丽的。
Sam Altman:但这就是我们正在努力做的事情,这就是我们既定的策略,我认为我们在某种程度上没有达到目标。因此,也许我们应该考虑以不同的方式或类似的方式释出 GPT-5。
Lex Fridman:是的,4.71、4.72。但人们往往喜欢庆祝,人们庆祝生日。我不知道你是否了解人类,但他们有这些里程碑和那些东西。
Sam Altman:我确实认识一些人。人们确实喜欢里程碑。我完全明白。我想我们也喜欢里程碑。宣布这一件事的胜利并开始下一件事是很有趣的。但是,是的,我觉得我们在某种程度上搞错了。
GPT-5
Lex Fridman:那么 GPT-5 何时再次释出?
Sam Altman:我不知道。这就是诚实的答案。
Lex Fridman:哦,这是诚实的答案。如果是今年,请眨眼两次。
Sam Altman:今年我们将释出一款令人惊叹的新型号。我不知道我们会怎么称呼它。
Lex Fridman:那么问题来了,我们释出这个东西的方式是什么?
Sam Altman:我们将在未来几个月内释出许多不同的内容。我认为那会很酷。我认为,在我们讨论一个类似 GPT-5 的模型(称为该模型,或者不称为该模型,或者比您对 GPT-5 的期望稍差或好一点)之前,我认为我们有很多其他重要的事情要先发布。
Lex Fridman:我不知道 GPT-5 会带来什么。你让我既紧张又兴奋。无论它最终被称为 GPT-5,有哪些需要克服的最大挑战和瓶颈?只是想问一下很有趣。是在计算端吗?是在技术方面吗?
Sam Altman:总是这些。你知道,最大的解锁是什么吗?是更大的电脑吗?这是新的秘密吗?难道是别的什么?这是所有这些事情的总和。我认为 OpenAI 做得非常好…… 这实际上是 Ilya 的原话,我要删掉它,但它就像是,「我们将 200 个中等大小的东西相乘,变成一个巨大的东西。」
Lex Fridman:那么这种分散式持续创新正在发生吗?
Sam Altman:是的。
Lex Fridman:那么即使在技术方面也是如此?
Sam Altman:特别是在技术方面。
Lex Fridman:那么详细的方法呢?
Sam Altman:是的。
Lex Fridman:就像你对每个方面的细节所做的那样…… 这与不同的、不同的团队等是如何合作的?中等大小的东西如何变成一个完整的巨型变形金刚?
Sam Altman:有一些人必须考虑将整个事情放在一起,但很多人试图将大部分图片保留在脑海中。
Lex Fridman:哦,就像个人团队一样,个人贡献者试图保持大局观?
Sam Altman:在高水平上,是的。当然,你并不确切地知道每一个部分是如何工作的,但我通常相信的一件事是,有时缩小并检视整个地图是有用的。我认为这对于技术问题来说是正确的,对于商业创新也是如此。但事情会以令人惊讶的方式结合在一起,即使您大部分时间都在一个地区的杂草中操作,但了解整个情况也会带来令人惊讶的见解。事实上,我曾经拥有并且非常有价值的事情之一是我曾经拥有一张关于科技行业所有或大部分前端的良好地图。有时我可以看到这些联络或新事物,如果我只深入某一领域,我将无法产生想法,因为我没有所有资料。而我真的已经没有那么多了。我现在已经超级深了。但我知道这是一件很有价值的事情。
Lex Fridman:你不再是以前的你了,山姆。
Sam Altman:现在的工作与我以前的工作截然不同。
7 兆美元的计算
Lex Fridman:说到缩小,让我们缩小到另一个厚脸皮的事情,但也许是你所说的深刻的事情。您在推特上表示需要 7 兆美元。
Sam Altman:我没有发推文提及此事。我从来没有说过「我们要筹集 7 兆美元」之类的话。
Lex Fridman:哦,那是别人吗?
Sam Altman:是的。
Lex Fridman:哦,但你说,「操,也许八个」,我想?
Sam Altman:好吧,一旦世界上出现错误资讯,我就会模仿。
Lex Fridman:哦,你这个迷因。但错误资讯可能有洞察力的基础。
Sam Altman:看,我认为计算将成为未来的货币。我认为这可能是世界上最珍贵的商品,我认为我们应该大力投资以进行更多的计算。计算一下,我认为这将是一个不寻常的市场。人们会想到手机晶片或类似产品的市场。你可以说,好吧,世界上有 80 亿人,也许其中 70 亿拥有手机,也许 60 亿。
比方说,它们每两年升级一次,因此每年智慧手机片上系统的市场规模为 30 亿个。而如果你赚了 300 亿,你的手机销量也不会增加 10 倍,因为大多数人都拥有一部手机。
但计算不同。智慧将更像能源或类似的东西,我认为唯一有意义的讨论是,在价格 X 时,世界将使用这么多的计算,而在价格 Y 时,世界将使用这么多的计算计算。因为如果它真的很便宜,我会让它整天阅读我的电子邮件,给我建议,告诉我我可能应该思考或努力什么,并尝试治愈癌症,如果它真的很贵,也许我只会使用它,或者我们只会用它来尝试治愈癌症。
所以我认为世界将需要大量的计算。其中有很多部分都很困难。能源是最难的部分,建设资料中心也很难,供应链也很难,当然,制造足够的晶片也很难。但这似乎就是事情的发展方向。我们需要大量的计算量,但目前还很难推理。
Lex Fridman:如何解决能源难题?
Sam Altmanv 这就是我所相信的。
Lex Fridman:核融合?
Sam Altman:这就是我所相信的。
Lex Fridman:核聚变?
Sam Altman:是的。
Lex Fridman:谁来解决这个问题?
Sam Altman:我认为 Helion 做得最好,但我很高兴现在正在进行核聚变竞赛。我认为,核裂变也相当令人惊奇,我希望作为一个世界,我们能够重新拥抱这一点。我对这段历史的发展感到非常难过,希望我们能以一种有意义的方式回到它。
Lex Fridman:那么对您来说,核裂变是难题的一部分?就像我们目前拥有的核反应堆一样?很多人因为切尔诺贝利等事件而感到恐惧?
Sam Altman:嗯,我认为我们应该制造新的反应堆。我认为这个行业陷入停滞真是一种耻辱。
Lex Fridman:你是如何解释这次暂停的?
Sam Altman:是的。
Lex Fridman:我不知道你是否了解人类,但这就是危险之一。这是核裂变的安全威胁之一,人类似乎真的很害怕它。这是我们必须将其纳入计算中的内容,因此我们必须赢得人们的支援并展示它的安全性。
Sam Altman:我担心人工智慧的这一点。我认为人工智慧的某些事情会出现戏剧性的错误。我不知道我最终被枪杀的机率是多少,但它不是零。
Lex Fridman:哦,就像我们想阻止这一切 –
Sam Altman:也许吧。
Lex Fridman:你如何减少它的戏剧性?我已经开始听到传言,因为我确实与政治光谱双方的人交谈过,听到了将要政治化的传言。人工智慧将会被政治化,这真的让我担心,因为那样的话,也许右派反对人工智慧,而左派则支援人工智慧,因为它会帮助人们,或者无论叙述和表述是什么,这真的让我担心。然后它的戏剧性就可以得到充分利用。你如何应对?
Sam Altman:我认为它将陷入左派与右派的战争。我不知道具体会是什么样子,但不幸的是,我认为这就是任何重大事件都会发生的情况。关於戏剧性风险,我更多的意思是,我相信,人工智慧会产生比坏后果多得多的好后果,但它也会产生坏后果,并且会有一些坏后果,虽然很糟糕,但不是戏剧性的。例如,死于空气污染的人数比死于核反应堆的人数要多得多。
但大多数人更担心住在核反应堆旁边而不是燃煤电厂。但我们的联络方式是,尽管我们必须面对许多不同型别的风险,但那些能构成电影高潮场景的风险,比那些在很长一段时间内非常糟糕的风险对我们来说更重要。一段时间,但在缓慢燃烧。
Lex Fridman:嗯,这就是为什么真相很重要,希望人工智慧可以帮助我们看到事物的真相,保持平衡,了解什么是真正的风险,世界上事物的实际危险是什么。该领域的竞争以及与 Google、Meta、xAI 等公司的竞争有何优缺点?
Sam Altman:我想我对此有一个非常简单的答案,也许我稍后可以想到更多细微差别,但优点似乎很明显,那就是我们可以更快、更便宜地获得更好的产品和更多创新,并且所有原因是竞争是好的。缺点是,我认为如果我们不小心,可能会导致军备竞赛的加剧,我对此感到紧张。
Lex Fridman:您是否感受到军备竞赛带来的压力,比如某些负面因素。
Sam Altman:在某些方面是肯定的。我们花了很多时间讨论优先考虑安全的必要性。我已经说过很长一段时间了,你会想到 AGI 开始的慢时间线象限、长时间线,然后是短起飞或快速起飞。我认为时间短、缓慢起飞是最安全的象限,也是我最希望我们进入的象限。但我确实想确保我们能够实现缓慢起飞。
Lex Fridman:我对埃隆的这种轻微抱怨的部分问题在于,存在著孤岛,而不是在所有这一切的安全方面进行合作。它往往会进入孤岛并关闭。也许,在模型中是开源的。
Sam Altman:伊隆至少表示,他非常关心人工智慧的安全,并且真的很担心,我认为他不会不安全地参加比赛。
Lex Fridman:是的。但我认为,这里的合作对这方面的每个人都确实有益。
Sam Altman:这并不是他最出名的事情。
Lex Fridman: 嗯,他以关心人类而闻名,而人类从合作中受益,因此激励和动机总是存在紧张关系。最后,我确实希望人类能够获胜。
Sam Altman:我在想,前几天有人提醒我,在他超越杰夫・贝佐斯成为世界首富的那一天,他在推特上发了一条关于杰夫・贝佐斯的银牌。我希望随著人们开始致力于通用人工智慧,这样的事情会越来越少。
Lex Fridman:我同意。我认为伊隆是一位朋友,他是一个美丽的人,也是有史以来最重要的人之一。那东西不好。
Sam Altman:伊隆的惊人之处令人惊叹,我非常尊重他。我想我们需要他。我们所有人都应该支援他,并需要他在下一阶段中成为领导者。
Lex Fridman:是的。我希望他能两者兼得,但有时人类是有缺陷的、复杂的等等。
Sam Altman:历史上有很多真正伟大的领导人。
Google 和 Gemini
Lex Fridman:是的,我们每个人都可以成为最好的自己,并努力做到这一点。我问你,Google在搜寻的帮助下,在过去的 20 年里一直占据主导地位。公平地说,就世界范围内的资讯获取方式、我们如何互动等等而言,对于Google来说,这是令人伤脑筋的事情之一,但对于该领域的所有人来说,正在思考,人们如何要去访问资讯吗?正如您所说,人们以 GPT 作为起点。那么 OpenAI 是否真的会接手 Google 20 年前开始的这件事,这就是我们如何得到 –
Sam Altman:我觉得这很无聊。我的意思是,如果问题是我们是否可以建立一个比Google或其他更好的搜寻引擎,那么当然,我们应该走,人们应该使用更好的产品,但我认为这会低估这可能是什么。
Google 会向您显示 10 个蓝色连结,嗯,13 个广告,然后是 10 个蓝色连结,这是查询资讯的一种方式。但令我兴奋的不是我们可以构建一个更好的Google搜寻副本,而是也许有一些更好的方法来帮助人们查询、采取行动和综合资讯。实际上,我认为 ChatGPT 适合某些用例,希望我们能够使其适用于更多用例。
但我认为说「我们怎样才能比 Google 更好地为您提供 10 个排名网页供您检视呢?」这样说并不有趣。也许说「我们如何帮助您获得所需的答案或资讯?」真的很有趣。我们如何在某些情况下帮助创造这一点,在其他情况下综合它,或者在其他情况下向您指出这一点?但很多人试图打造一个比Google更好的搜寻引擎,这是一个困难的技术问题,这是一个困难的品牌问题,这是一个困难的生态系统问题。我认为世界不需要另一个Google副本。
Lex Fridman:将聊天客户端(例如 ChatGPT)与搜寻引擎整合 –
Sam Altman:那就更酷了。
Lex Fridman:这很酷,但很棘手。就像如果你只是简单地做它,它会很尴尬,因为如果你只是把它塞在那里,它会很尴尬。
Sam Altman:正如您可能猜到的,我们感兴趣的是如何做好这一点。这将是一个很酷的例子。
Lex Fridman:就像异构整合 –
Sam Altman:LLM 与搜寻的交集,我认为还没有人破解其中的程式码。我很想去那么做。我认为那会很酷。
Lex Fridman:是的。广告方面呢?你有没有考虑过货币化 –
Sam Altman:我有点讨厌广告,因为它只是一种审美选择。我认为出于多种原因,广告需要在网际网路上进行,以使其发展起来,但它是一个短暂的行业。现在世界更加富裕了。我喜欢人们为 ChatGPT 付费,并且知道他们得到的答案不会受到广告商的影响。我确信有一个广告单元对法学硕士有意义,而且我确信有一种方法可以以公正的方式参与交易流,这是可以做的,但也很容易想到未来,你向 ChatGPT 询问一些事情,它会说:「哦,你应该考虑购买这个产品」,或者「你应该考虑去这里度假」,或者其他什么。
我不知道,我们有一个非常简单的商业模式,我喜欢它,而且我知道我不是产品。我知道我在付钱,这就是商业模式的运作方式。当我使用 Twitter、Facebook、Google 或任何其他伟大的产品但有广告支援的伟大产品时,我不喜欢这样,而且我认为在人工智慧的世界里,情况会变得更糟,而不是更好。
Lex Fridman:是的,我的意思是,我可以想像人工智慧会更好地展示最好的广告版本,不是在反乌托邦的未来,而是在广告针对你真正需要的东西的地方。但是,该系统是否总是会导致广告驱动所显示的内容?是的,我认为维基百科不做广告是一个非常大胆的举动,但这使得它作为一种商业模式非常具有挑战性。那么您是说,从商业角度来看,OpenAI 目前的情况是可持续的?
Sam Altman:嗯,我们必须弄清楚如何增长,但看起来我们很快就能弄清楚。如果问题是我认为我们是否可以拥有一项伟大的业务来满足我们的计算需求而无需广告,那么我认为答案是肯定的。
Lex Fridman:嗯,这很有希望。我也只是不想完全扔掉广告……
Sam Altman:我不是这么说的。我想我是在说我对他们有偏见。
Lex Fridman:是的,我也有偏见,总体上只是持怀疑态度。就介面而言,因为我个人对蹩脚的介面有一种精神上的厌恶,这就是为什么 AdSense 在第一次出现时,相对于动画横幅或其他什么来说是一个巨大的飞跃。但感觉广告方面应该有更多的飞跃,既不干扰内容的消费,也不以大的、根本的方式干扰,就像你所说的,就像它会操纵真相一样以适应广告商的需要。
让我问你关于安全的问题,还有偏见,以及短期安全和长期安全。双子座 1.5 最近问世,围绕它有很多戏剧性的事情,说到戏剧性的事情,它产生了黑人纳粹和黑人开国元勋。我认为公平地说,这有点过于清醒。因此,这是人们担心的问题,如果公司内部存在人为层面来修改模型造成的安全性或伤害,那么就会引入很多符合公司内部意识形态倾向的偏见。你怎么处理那件事呢?
Sam Altman:我的意思是,我们非常努力地工作,就是为了不做那样的事情。我们已经犯过自己的错误,我们还会犯别人的错误。我认为Google会从中吸取教训,并继续创造其他产品。这些都不是简单的问题。我们一直在思考越来越多的一件事,我认为这是一个好主意,有人提出了这个想法,最好写出模型的期望行为是什么,将其公开,接受输入,说,「这就是这个模型应该如何表现」,并解释了边缘情况。
然后,当模型没有按照您想要的方式执行时,至少可以清楚这是否是公司应该修复的错误或按预期执行,并且您应该就该政策进行辩论。现在,它有时会夹在中间。就像黑人纳粹一样,这显然很荒谬,但还有很多其他微妙的事情,你可以对任何一种方式做出判断。
Lex Fridman:是的,但有时如果你把它写出来并公开,你可以使用某种语言…… Google的广告原则非常高水平。
Sam Altman:我说的不是这个。那是行不通的。它必须说,当你要求它做 X 件事时,它应该以 Y 方式响应。
Lex Fridman:就像字面意思一样,「谁更好?特朗普还是拜登?模型的预期反应是什么?」喜欢一些非常具体的东西?
Sam Altman:是的,我对模型的多种行为方式持开放态度,但我认为你应该说,「这是原则,这就是在这种情况下应该说的话。」
Lex Fridman:那真是太好了。那真是太好了。然后每个人都同意。因为人们一直在提取这些轶事资料,如果对其他代表性轶事示例有一定的了解,您可以定义 –
Sam Altman:当它是一个错误时,它就是一个错误,公司可以修复它。
Lex Fridman:对。如果有很好的例子,那么处理黑色纳粹型别的影象生成就会容易得多。
Sam Altman:是的。
Lex Fridman:所以旧金山有点像意识形态泡沫,科技界也是如此。您是否感受到公司内部的压力,政治上存在左倾倾向,这会影响产品,影响团队?
Sam Altman:我觉得很幸运,我们在 OpenAI 没有遇到我在很多公司都听说过的挑战。我认为部分原因是每个公司都有一些意识形态的东西。我们有一个关于 AGI 的方案,并且对此抱有信念,它排除了其他一些方案。与我在许多其他公司听说的相比,我们很少陷入文化战争。当然,旧金山在各方面都很混乱。
Lex Fridman:所以这不会渗透到 OpenAI 中 ——
Sam Altman:我确信它会以各种微妙的方式发挥作用,但不是显而易见的。我认为我们确实像任何公司一样发生过冲突,但我认为我们没有像我听说的其他公司在这个话题上发生的那样。
Lex Fridman:那么,总的来说,更大的安全问题的流程是怎样的呢?如何提供保护模型免于做出疯狂、危险的事情的层?
Sam Altman:我认为总有一天,这将成为我们整个公司的主要想法。而且你也没有一支安全团队。就像我们释出 GPT-4 时一样,整个公司都在思考所有这些不同的方面以及它们如何组合在一起。我认为这将会发生。公司越来越多的人一直在思考这些问题。
Lex Fridman:随著人工智慧变得越来越强大,这确实是人类将会思考的问题。因此,OpenAI 的大多数员工都会思考「安全」,或者至少在某种程度上。
Sam Altman:广义定义。是的。
Lex Fridman:是的。我想知道,它的完整广泛定义是什么?可能造成哪些不同的危害?这是技术层面的还是这几乎是安全威胁?
Sam Altman:可能是所有这些事情。是的,我想说这将是人们、国家行为者试图窃取模型。这将是所有的技术调整工作。这将是社会影响、经济影响。这不仅仅是我们有一个团队思考如何调整模型。真的要付出全部的努力才能得到好的结果。
Lex Fridman:您认为人们(也许是国家行为体)想要首先渗透 OpenAI,其次是在看不见的情况下渗透,有多努力?
Sam Altman:他们正在努力。
Lex Fridman:他们有什么口音?
Sam Altman:我认为我不应该在这一点上进一步讨论细节。
Lex Fridman:好的。但我认为随著时间的推移,它会越来越多。
Sam Altman:这感觉很合理。
跃升至 GPT-5
Lex Fridman:天啊,多么危险的空间啊。很抱歉在此停留,尽管您还不能透露详细资讯,但您对从 GPT-4 到 GPT-5 的飞跃的哪些方面感到兴奋?
Sam Altman:我很高兴自己变得更聪明。我知道这听起来像是一个油嘴滑舌的答案,但我认为发生的真正特别的事情是,它并没有在这个领域变得更好而在其他领域变得更糟。整体情况正在好转。我认为这太酷了。
Lex Fridman:是的,这是一个神奇的时刻。我的意思是,你会遇到某些人,和他们一起出去玩,并与他们交谈。你无法完全指出它,但他们明白你的意思。这真的不是智力。这是另一回事。这可能就是我对 GPT 进展的描述。这并不是说,是的,你可以指出,「看,你没有明白这个或那个」,但问题在于这种智力联络在多大程度上存在。你觉得你的蹩脚的表述提示中有一种理解,那就是你正在做的事情抓住了你所提出的问题背后更深层次的问题。是的,我也对此感到兴奋。我的意思是,我们所有人都喜欢被倾听和理解。
Sam Altman: 这是肯定的。
Lex Fridman:这种感觉很奇怪。即使是程式设计,当你在程式设计时说了一些话,或者只是完成 GPT 可能做的事情时,当它让你明白你在想什么时,这种感觉真是太好了。我期待著让你变得更好。在程式设计方面,展望未来,您认为 5 年、10 年后人类将进行多少程式设计?
Sam Altman:我的意思是,很多,但我认为它的形式会非常不同。也许有些人会完全用自然语言程式设计。
Lex Fridman:完全自然语言?
Sam Altman:我的意思是,没有人通过程式码编写程式。有些人。没有人再对打孔卡进行程式设计了。我确信你能找到这样做的人,但你知道我的意思。
Lex Fridman:是的。你会收到很多愤怒的评论。没有,是的,很少。我一直在寻找 Fortran 程式设计的人。即使是 Fortran 语言也很难找到。我听到了。但这改变了我们当时称为程式员的人的技能或倾向的本质。
Sam Altman:更改技能组。我不确定它会改变多少倾向。
Lex Fridman:嗯,同样的解谜游戏,诸如此类的东西。
Sam Altman:也许吧。
Lex Fridman:程式设计很难。就像如何让最后 1% 缩小差距?那有多难?
Sam Altman:是的,我认为在大多数其他情况下,该技术的最佳实践者会使用多种工具。他们会用自然语言做一些工作,当他们需要为某些事情编写 C 语言时,他们会这样做。
Lex Fridman:我们会在某个时候看到 OpenAI 的人形机器人或人形机器人大脑吗?
Sam Altman:在某个时刻。
Lex Fridman:实体人工智慧对您来说有多重要?
Sam Altman:我认为,如果我们拥有通用人工智慧,而在物理世界中完成任务的唯一方法就是让人类去做,那会令人沮丧。所以我真的希望,作为这个转变的一部分,随著这个阶段的变化,我们也能得到人形机器人或某种物理世界机器人。
Lex Fridman:我的意思是,OpenAI 在机器人技术方面有一些历史,而且有相当多的历史,但在道德方面还没有完全做到 –
Sam Altman:我们是一家小公司。我们必须真正集中注意力。而且,当时机器人因为错误的原因而变得困难,但我们会在某个时候以某种方式回归机器人。
Lex Fridman:这听起来既鼓舞人心又充满威胁。
Sam Altman:为什么?
Lex Fridman:因为我们很快就会回归机器人。就像《终结者》里那样。
Sam Altman:我们将重新投入机器人开发工作。当然,我们不会把自己变成机器人。
通用人工智慧
Lex Fridman:是的。你认为我们、你和我们人类什么时候会构建 AGI?
Sam Altman: 我曾经喜欢猜测这个问题。从那时起我就意识到它的结构非常糟糕,而且人们对 AGI 的定义截然不同。因此,我认为谈论我们何时构建能够执行 X 或 Y 或 Z 功能的系统更有意义,而不是当我们模糊地跨越这一一英里标记时。AGI 也不是结局。它更接近一个开始,但它比这两者都更像是一个里程标记。
但我想说的是,为了不试图回避一个问题,我预计到本十年末,甚至可能更早,我们将拥有非常强大的系统,我们会说,「哇,这真的很了不起。」如果我们现在能看一下就好了。也许当我们到达那里时我们已经调整了。
Lex Fridman:但如果你看看 ChatGPT,即使是 3.5,你向艾伦・图灵展示这一点,或者甚至不是艾伦・图灵,90 年代的人,他们会说,「这绝对是 AGI。」嗯,不是绝对,但有很多专家会说,「这就是 AGI。」
Sam Altman:是的,但我不认为 3.5 改变了世界。它可能改变了世界对未来的期望,这实际上非常重要。它确实让更多的人认真对待这一问题,并使我们走上新的轨道。这也非常重要。再说一次,我不想低价出售它。我想我可以在取得这一成就后退休并对我的职业生涯感到非常满意。但作为一件人工制品,我认为我们不会在回顾这一点时说:「这是一个真正改变世界本身的门槛。」
Lex Fridman:所以对你来说,你正在寻找一些真正重大的转变,世界如何 –
Sam Altman:对我来说,这就是 AGI 含义的一部分。
Lex Fridman:奇点级转变?
Sam Altman:不,绝对不是。
Lex Fridman:但我想,这只是一个专业,就像网际网路一样,就像Google搜寻一样。您认为现在的转变点是什么?
Sam Altman: 您觉得现在的全球经济与我们推出 GPT-4 之前相比是否有任何不同或实质上的不同?我想你会说不。
Lex Fridman:不,不。对于很多人来说,它可能是一个非常好的工具。会帮助你做很多事情,但感觉没有什么不同。你是说 ——
Sam Altman:我的意思是,人们以各种不同的方式定义 AGI。所以也许你的定义和我的不同。但对我来说,我认为这应该是其中的一部分。
Lex Fridman:也可能有重要的戏剧时刻。AGI 会做什么让你印象深刻的事情?您独自一人与系统呆在一个房间里。
Sam Altman:这对我个人来说很重要。我不知道这是否是正确的定义。我认为,当一个系统能够显著提高世界科学发现的速度时,那就是一件了不起的事情。我认为,最现实的经济增长来自于科技进步。
Lex Fridman:我同意你的观点,因此我不喜欢近年来对科学的怀疑。
Sam Altman:完全可以。
Lex Fridman:但科学发现的实际、可衡量的速度。但即使只是看到一个系统具有真正新颖的直觉、科学直觉,即使那也是令人难以置信的。
Sam Altman:是的。
Lex Fridman:您很可能是构建 AGI 的人,以便能够先于其他人与其进行互动。你会谈论什么样的事情?
Sam Altman:我的意思是,这里的研究人员肯定会在我之前做到这一点。但其实我对这个问题思考了很多。我认为正如我们之前讨论的那样,我认为这是一个糟糕的框架,但如果有人说,「好吧,萨姆,我们就完成了。这是一台膝上型电脑,这是 AGI。你可以去跟它谈谈。」我发现很难说出我希望第一个 AGI 能够回答的问题。第一个不会是那种,我不认为,「给我解释一下物理学的大统一理论,物理学的一切理论。」我很想问这个问题。我很想知道这个问题的答案。
Lex Fridman:您可以针对「这样的理论存在吗?」提出是或否的问题。它可以存在吗?
Sam Altman:那么,这些是我要问的第一个问题。
Lex Fridman:是或否。然后基于此,「那里还有其他外星文明吗?是还是不是?你的直觉是什么?」然后你就问这个。
Sam Altman:是的,我的意思是,好吧,所以我不认为第一个 AGI 可以回答任何这些问题,即使是或否。但如果可以的话,这些将在我的清单上名列前茅。
Lex Fridman: 也许您可以开始分配概率?
Sam Altman:也许吧。也许我们需要先发明更多技术并测量更多东西。
Lex Fridman:哦,我明白了。它只是没有足够的资料。只是如果它保持 –
Sam Altman:我的意思是,也许它说,「你想知道这个物理问题的答案,我需要你建造这台机器并进行这五项测量,然后告诉我。」
Lex Fridman:是的,「你到底想从我这里得到什么?我首先需要机器,我会帮你处理那台机器上的资料。」也许它会帮助你建造一台机器。
Sam Altman:也许吧。或许。
Lex Fridman:在数学方面,也许可以证明一些事情。你也对事情的这一面感兴趣吗?对思想的正式探索?
Sam Altman:嗯嗯。
Lex Fridman:谁先构建 AGI,谁就获得很大的权力。你相信自己有那么大的力量吗?
Sam Altman:看,我会非常诚实地回答这个问题。我想说的是,而且我仍然相信这一点,我或任何其他人对 OpenAI 或 AGI 拥有完全控制权是很重要的。我认为你需要一个强大的治理体系。我可以指出去年我们所有董事会戏剧的一大堆事情,关于我最初没有反抗它,并且就像,「是的。这是董事会的意愿,尽管我认为这是一个非常糟糕的决定。」后来,我显然确实与之抗争了,我可以解释其中的细微差别以及为什么我认为我稍后可以抗争。但正如许多人所观察到的那样,尽管董事会拥有解雇我的合法权力,但实际上,这并没有多大作用。这本身就是一种治理失败。
现在,我觉得我可以完全捍卫这里的具体细节,我想大多数人都会同意这一点,但这确实让我更难看著你的眼睛说:「嘿,董事会可以解雇我。」我仍然不希望对 OpenAI 拥有超级投票权。我从来没有。从未拥有过,也从未想要过。即使经历了所有这些疯狂,我仍然不想要它。我仍然认为任何公司都不应该做出这些决定,我们确实需要政府制定交通规则。
我意识到这意味著像马克・安德森 (Marc Andreessen) 之类的人会声称我要进行监管捕获,而我只是愿意在那里被误解。这不是真的。我认为,随著时间的推移,这一点的重要性将会被证明。
但我认为,一路走来,我为 OpenAI 做出了很多错误的决定,也做出了很多好的决定,我对整体的业绩记录感到自豪。但我不认为任何人应该这样做,也不认为任何人会这样做。我认为现在这件事太大了,而且它正在以一种良好、健康的方式在整个社会发生。但我认为任何人都不应该控制通用人工智慧,或者整个通用人工智慧运动。我认为事实并非如此。
Lex Fridman:谢谢你这么说。这真的很强大,而且非常有洞察力,董事会可以解雇你的想法在法律上是正确的。但人类可以操纵群众凌驾于董事会之上等等。但我认为还有一个更积极的版本,即人民仍然拥有权力,因此董事会也不能太强大。所有这一切都存在力量平衡。
Sam Altman:权力平衡无疑是一件好事。
Lex Fridman:您害怕失去对 AGI 本身的控制吗?很多人担心存在风险,不是因为国家行为者,也不是因为安全问题,而是因为人工智慧本身。
Sam Altman:从我目前的情况来看,这并不是我最担心的。有时我更担心这一点。将来可能会有时候,这会再次成为我最担心的事情。这不是我现在最担心的。
Lex Fridman:您的直觉是什么?这不是您的担忧?因为本质上还有很多其他事情需要担心?你认为你会感到惊讶吗?我们 –
Sam Altman:当然。
Lex Fridman:… 可能会感到惊讶吗?
Sam Altman:当然。说这不是我最担心的事情并不意味著我认为我们不需要这样做。我认为我们需要努力。这是非常困难的,我们这里有很棒的人在这方面努力。我认为我们还必须做好很多其他事情。
Lex Fridman:对你来说,这个时候跳出盒子并不是一件容易的事,连线到网际网路。
Sam Altman:我们之前讨论过戏剧风险。这是戏剧性的风险。这确实可以改变人们对这个问题的看法。有一大群非常聪明、我认为非常善意的人工智慧安全研究人员对这个问题非常著迷,我认为没有太大进展,但对这个问题非常著迷。我实际上很高兴他们这样做,因为我认为我们确实需要更多地考虑这一点。但我认为它排除了许多其他非常重要的人工智慧相关风险。
Lex Fridman:让我问一下你发推文时没有使用大写字母的情况。你的键盘上的 shift 键坏了吗?
Sam Altman:为什么有人关心这个?
Lex Fridman:我非常关心。
Sam Altman:但为什么呢?我的意思是,其他人也问我这个问题。有什么直觉吗?
Lex Fridman:我认为也是同样的原因。有一位诗人,EE Cummings,他大多不使用大写字母来对系统说「操你」之类的话。我认为人们非常偏执,因为他们希望你遵守规则。
Sam Altman:你认为这就是它的意义吗?
Lex Fridman: 我想是这样的 –
Sam Altman:就像,「这家伙不遵守规则。他没有利用他的推文。」
Lex Fridman:是的。
Sam Altman:「这看起来真的很危险。」
Lex Fridman:「他看起来像个无政府主义者。」
Sam Altman:这并不 –
Lex Fridman:你只是在诗意吗,潮人?这是什么 –
Sam Altman:我是这样长大的 ——
Lex Fridman:遵守规则,山姆。
Sam Altman:我是一个非常上网的孩子。在过去,我花了很多时间与人们在电脑上聊天,而且你可以在某个时候登出即时通讯工具。我从来没有利用过这一点,因为我认为大多数网际网路孩子都没有,或者也许他们仍然没有。我不知道。事实上,现在我真的很想实现一些目标,但我认为随著时间的推移,资本化已经下降了。如果你读过古英语写作,你会发现他们在句子、名词和我们不再这样做的东西中间随机使用了很多单词。我个人认为,我们将句子开头的字母和某些名称等的字母大写是一种愚蠢的结构,但这没关系。
我想,我什至曾经把我的推文大写,因为我想让自己听起来很专业或者其他什么。我已经很长一段时间没有利用我的私人 DM 或其他任何东西了。然后慢慢地,诸如简短、不那么正式的内容慢慢地变得越来越接近我给朋友发简讯的方式。如果我开启一份 Word 文件,正在为公司撰写战略备忘录或其他内容,我总是会大写该内容。如果我要写一篇长的、更正式的讯息,我也总是使用大写。所以我到现在还记得怎么做。但即便如此,这种情况也可能会消失。我不知道。但我从来不花时间思考这个问题,所以我没有现成的 ——
Lex Fridman:嗯,这很有趣。首先,最好知道 Shift 键没有损坏。
Sam Altman:有效。
Lex Fridman:我最关心的是你的 –
Sam Altman:不,它有效。
Lex Fridman: …… 这方面的幸福感。
Sam Altman:我想知道人们是否仍然使用 Google 搜寻。如果你只是为自己或他们的 ChatGPT 查询写一些东西,如果你只是为自己写一些东西,有些人还会费心大写吗?
Lex Fridman:可能不会。但是,是的,确实有一定比例,但比例很小。
Sam Altman:如果人们说「这是…… 的标志」,我就会这么做,因为我确信我可以强迫自己使用大写字母。如果这感觉像是对人或其他事物的尊重,那么我就可以去做。但我不知道。我不考虑这个。
Lex Fridman:我不认为这是不尊重,但我认为这只是文明惯例有一种势头,然后你就会意识到,如果它不是尊重或不尊重的标志,那么文明实际上并不重要。但我认为有一群人只是希望你有一个围绕它的哲学,这样他们就可以放弃整个大写的事情。
Sam Altman:我认为没有其他人这么想这个问题。我的意思是,也许有些人。我认识一些人 ——
Lex Fridman:人们每天都会花很多时间思考。所以我真的很感激我们澄清了这一点。
Sam Altman:不可能是唯一一个不将推文大写的人。
Lex Fridman:您是唯一一个不利用推文的公司执行长。
Sam Altman:我什至认为这不是真的,但也许是吧。我会感到非常惊讶。
Lex Fridman:好的。我们将进一步调查并稍后返回这个主题。鉴于索拉具有生成模拟世界的能力,让我问你一个傻瓜问题。如果你曾经有过这样的想法,这是否会增加你的信念:我们生活在一个模拟世界中,也许是一个由人工智慧系统生成的模拟世界?
Sam Altman:有点。我认为这不是最有力的证据。我认为我们能够生成世界这一事实应该会在一定程度上增加每个人的可能性,或者至少会在一定程度上增加对其的开放性。但我确信我们在某个时候能够做像索拉那样的事情。它发生的速度比我想像的要快,但我想这并不是一个大的更新。
Lex Fridman:是的。但事实是…… 大概,它会变得越来越好…… 你可以生成新颖的世界,它们基于训练资料的某些方面,但是当你看到它们时,它们是新颖的,让你觉得做这件事是多么容易。建立宇宙、整个视讯游戏世界是多么容易,看起来超现实和照片般逼真。那么,首先带著 VR 耳机,然后在基于物理的层面上,迷失在那个世界有多容易?
Sam Altman:最近有人对我说,我认为这是一个超级深刻的洞察力,这些听起来很简单但非常迷幻的洞察力有时是存在的。所以平方根函式,四的平方根,没问题。二的平方根,好吧,现在我必须考虑这个新的数位。但是,一旦我想出了平方根函式这个简单的想法,你可以向孩子解释它,并且甚至可以通过检视一些简单的几何图形来证明它的存在,那么你就可以问「负数的平方根是多少?」的问题。这就是为什么它是一种迷幻的东西。这会让你进入另一种现实。
你还可以举出很多其他例子,但我认为低阶平方根运算子可以提供如此深刻的见解和新的知识领域,这一想法可以在很多方面得到应用。我认为有很多这样的运算子可以解释为什么人们可能认为他们喜欢的模拟假设的任何版本可能比他们以前想像的更有可能。但对我来说,空工作的事实并不在前五名之内。
Lex Fridman:我确实认为,从广义上讲,人工智慧将成为通向另一个 C 波现实的最佳、简单、迷幻般的闸道器。
Sam Altman:这似乎是肯定的。
Lex Fridman:这非常令人兴奋。我以前没有做过死藤水,但我很快就会做。几周后我要去前面提到的亚马逊丛林。
Sam Altman:兴奋吗?
Lex Fridman:是的,我对此感到很兴奋。不是死藤水部分,但那很棒,无论如何。但我要在丛林深处度过几个星期。这很令人兴奋,但也很可怕。
Sam Altman:我为你感到兴奋。
Lex Fridman:那里有很多东西可以吃掉你、杀死你、毒害你,但这也是自然,它是自然的机器。您会情不自禁地欣赏亚马逊丛林中的大自然机器。就像这个系统一样,每秒、每分钟、每小时都存在并更新。这是机器。它让你欣赏我们这里拥有的这个东西,这个人类的东西来自某个地方。这台进化机器创造了这一点,这一点在丛林中表现得最为明显。所以希望我能活著出来。如果没有,这将是我们最后一次有趣的谈话,所以我真的非常感激。正如我之前提到的,当你擡头仰望天空时,你是否认为那里还有其他外星文明,有智慧的文明?
外星人
Sam Altman:我深深地相信答案是肯定的。我发现费米悖论非常令人费解。
Lex Fridman:我觉得可怕的是智力不擅长处理 –
Sam Altman:非常可怕。
Lex Fridman:强大的技术。但与此同时,我认为我非常有信心那里存在大量的智慧外星文明。穿越太空可能真的很困难。
Sam Altman:很有可能。
Lex Fridman:这也让我思考智力的本质。也许我们真的对智慧的样子视而不见,也许人工智慧会帮助我们看到这一点。它并不像智商测试和简单的解谜那么简单。还有更大的事情。是什么让你对人类的未来、我们正在发生的事情、人类文明充满希望?
Sam Altman:我觉得过去的事情已经很多了。我的意思是,我们只是看看人类在不长的时间内所做的事情,巨大的问题,深刻的缺陷,很多值得超级羞耻的事情。但总的来说,非常鼓舞人心。给了我很大的希望。
Lex Fridman:这就是这一切的轨迹。
Sam Altman:是的。
Lex Fridman:我们正在共同推动更美好的未来。
Sam Altman:我想知道的一件事是,AGI 会更像是某个单一的大脑,还是更像我们所有人之间的社会脚手架?你并没有从你的曾曾祖父母那里受到很大的遗传漂变,但你的能力却截然不同。你所知道的有很大不同。这并不是因为生物变化。
我的意思是,你可能变得更健康了。你有现代医学,你吃得更好,等等。但你所拥有的是我们共同贡献的这个脚手架。没有人会去制造 iPhone。没有人会去发现所有的科学,但你却可以使用它。这给了你令人难以置信的能力。因此,从某种意义上说,这是我们共同创造的,这让我对未来充满了希望。这是一件非常集体的事情。
Lex Fridman:是的,我们确实站在巨人的肩膀上。当我们谈论戏剧性的、戏剧性的人工智慧风险时,你提到有时你可能会担心自己的生命安全。你想过你的死吗?你害怕吗?
Sam Altman:我的意思是,如果我明天被枪杀,而我今天才知道,我会说,「哦,这太悲伤了。我想看看会发生什么。多么令人好奇的时刻啊。多么有趣的时刻啊。」但我大多只是对我的生活感到非常感激。
Lex Fridman:你确实得到的时刻。我也是。这是一个非常棒的生活。我开始享受人类令人惊叹的创造,我相信 ChatGPT 就是其中之一,以及 OpenAI 所做的一切。萨姆,很荣幸也很高兴再次与您交谈。