我认为这种世界观并不总是正确的,当它不正确的时候,对很多人来说都是非常糟糕的。
Baloney:哈佛大学心理学家 David McClelland 认为,所有领导者都受到三种基本需求之一的驱使:对归属感的需求,对成就的需求和对权力的需求。如果让你对这三种需求进行排序,你会如何排序?
Altman:我认为在我的职业生涯中,这三种需求都曾占据主导地位。在现阶段,我想要做一些有用和有趣的事情。我认为我经历过金钱、权力和地位的阶段,但现在我更想做一些有意义的事情。
Baloney:你对即将推出的 ChatGPT-5 最期待的是什么?
Altman:我还不知道。我认为 ChatGPT-5 最重要的一点就是它会更聪明。这听起来可能有点敷衍,但我认为这是人类历史上最了不起的事实之一,我们可以做一些事情,并且可以很有把握地说,ChatGPT-5 会比 ChatGPT-4 聪明得多,ChatGPT-6 会比 ChatGPT-5 聪明得多。我们还没有到达这条曲线的顶端,而且我们知道该怎么做。这不是说它只会在某一个方面变得更好,而是说它会在 general sense 上变得更聪明。我认为这个说法的重要性仍然被低估了。
(Baloney 将提问机会留给了现场的观众)
学生 1:随着你们越来越接近 AGI,你们计划如何负责任地部署它,以防止扼杀人类的创新,并继续鼓励创新?
Altman:我一点也不担心扼杀人类的创新。我坚信,有了更好的工具,人们只会给我们带来惊喜。我认为所有的历史都表明,如果你给人们更多的 leverage(杠杆),他们就会做更多 amazing 的事情。
学生 2:你提到对大型计算机和更快的计算机的需求越来越大。然而,世界上很多地方没有基础设施来建设这些数据中心或大型计算机。你如何看待这种情况对全球创新的影响?
Altman:无论计算机在哪里建造,我认为全球公平地使用计算机进行训练和推理都非常重要。我们正在考虑如何让训练计算资源更容易为全世界的人们所用。我认为我们将会进入一个这样的世界,在那里我们认为获得一定数量的计算资源是一项人权。
学生 3:你如何看待人工智能在未来太空探索或殖民中的作用?
Altman:太空对生物来说并不友好,所以如果我们可以派机器人去,那就容易多了。
学生 4:你如何判断一个想法是否足够非共识,值得去追求?
Altman:首先,你真正想要的是做正确的事情。如果你是 contrarian (逆向思维)的,但却是错误的,那仍然是错的。所以,不要过于兴奋于 contrarian。最重要的事情是做正确的事情。大众通常是正确的,但最有价值的时候,是你既 contrarian 又正确的时候。这并不总是以非黑即白的方式发生。每个人都可能同意人工智能是创业的好方向,但如果房间里只有一个人 figuring out 了正确的创业方向,并成功地将其执行,那么其他人都会认为这不是你能做的最好的事情。所以,当 conventional wisdom(传统观点) 是正确的时候,跟随它也没关系,然后找到你拥有独特见解的领域。
学生 5:你对未来几十年能源需求的变化有什么预测?我们如何才能实现可再生能源每千瓦时一美分的未来?
Altman:能源需求肯定会上升。我希望它能大幅上升。我认为,如果我们对自己有足够高的标准,它就会上升。我认为最终核聚变会主导地球上的电力生产。我认为它应该是最便宜、最丰富、最可靠、最密集的能源。我可能是错的,也可能是太阳能加储能。最有可能的是,它们各占 80% 和 21%,在某些情况下,其中一种会比另一种更好。但这两种似乎都是实现全球范围内每千瓦时一美分能源的赌注。
学生 6:你从过去一年的经历中学到了什么?是什么让你决定回到 OpenAI 的?
Altman:我学到的最好的一课是,我们有一个 incredible 的团队,他们完全可以在没有我的情况下运营公司,并且已经这样做了几天。我还学到,我们的团队非常有 resilience(韧性)。我们知道,在通往 AGI 的道路上,我们还会遇到更多疯狂的事情。我原本以为团队会在很大的压力下表现良好,但你永远无法真正知道,除非你进行实验。我们进行了实验,我发现团队非常有 resilience,并且已经准备好运营公司了。至于我为什么回来,当我第二天早上接到董事会的电话,问我是否考虑回来时,我当时很生气,说:“不”。但后来我仔细想了想,意识到我有多么热爱 OpenAI,我有多么热爱这里的人、文化、使命,我想要和大家一起完成这一切。
学生 7:你如何看待 AGI 将改变地缘政治和世界力量平衡?
Altman:我认为 AGI 可能会比任何其他技术都更大地改变地缘政治和世界力量平衡。我经常思考这个问题,但我很难说它会产生什么影响,或者更准确地说,我很难说它不会产生什么影响。我们之前谈到,它不会对日常生活产生太大影响,但对世界力量平衡的影响,我感觉它会产生很大影响,但我没有一个深入的答案来解释它会如何影响。
学生 8:在部署 general intelligence 和负责任的 AI 方面,你认为 AI 系统能够识别自身的不确定性并将其传达给外界有多重要?
Altman:我总是担心过分拟人化 AI,因为我认为这会导致很多奇怪的 oversight(疏忽),但如果我们问 AI 能在多大程度上识别自身缺陷,我认为这是非常重要的。目前,AI 能够识别推理错误并进行某种程度的 introspection(反省),这在我看来是非常重要的研究方向。
学生 9:OpenAI 的文化和凝聚力是什么原因?
Altman:我认为是共同的使命。我认为人们彼此喜欢,我们感觉自己像是在战壕里一起做一件非常困难的事情。但我认为真正的原因是对使命的深刻认同感和忠诚度。当你能够创造出这种文化时,我认为这是创业成功的最强动力。
(由于时间限制,Baloney 宣布最后一个问题)
学生 10:创造出比任何人类都更聪明的东西的可能性让我感到害怕。
Altman:当然会害怕。我认为如果我不害怕,那才奇怪,那是一个不好的迹象。人类随着时间的推移变得越来越聪明,能力也越来越强。你的能力比你的曾祖父母强得多。在这段时间里,几乎没有生物学上的漂变。当然,你可能吃得更好一点,得到了更好的医疗保健,也可能吃得更差,我不知道。但这不是你能力更强的主要原因。你能力更强,是因为社会的基础设施比任何人类都更聪明、更有能力。通过这些基础设施,你、社会和你之前的人变得更聪明、更有能力。互联网、iPhone,以及触手可及的大量知识。你可以做一些你的前辈们认为绝对不可思议的事情。从某种意义上说,社会比你现在聪明得多。社会是一个 AGI。而这种发生的方式并不是任何个人的大脑,而是我们所有人之间的空间,我们建立并贡献的 scaffolding(支架),一步一步,一块砖一块砖地累积起来。然后我们利用它到达更高的境界,为我们之后的人服务。比我们聪明的东西将会为同样的 scaffolding 做出贡献。你的孩子将拥有你没有的工具。scaffolding 将被构建到更高的境界。这总是有点可怕,但我认为好处远远大于坏处。人们会做更多更好的事情,解决更多的问题。未来的人们将能够使用这些新工具以及这些新工具贡献的新 scaffolding。如果你想象一个 AGI 做出大量科学发现的世界,那么这些科学进步会发生什么?它们会被添加到 scaffolding 中。然后你的孩子可以用它做新的事情,或者你可以在十年后用它做新的事情。但我认为,人们的感觉不会是出现了一个比我们聪明得多的实体,因为从某种意义上说,我们比我们的曾曾曾祖父母聪明得多,或者至少能力强得多。但任何个人都可以做得更多。