AI行业的非零和博弈:解读Mustafa Suleyman的观点

发布于: 修改于:雪球转发:0回复:0喜欢:3

在阿斯彭思想节上,微软 AI 的 CEO 穆斯塔法·苏莱曼(Mustafa Suleyman)就人工智能的未来发表了重要讲话。苏莱曼在 AI 领域拥有丰富的经验,曾共同创立 DeepMind,并在 2022 年与 Reid Hoffman 共同创立了 Inflection,后者最近并入微软。

苏莱曼指出,随着知识和能力的普及,AI 技术正在迅速商品化,应用程序开发和网页开发等领域的门槛大幅降低。 他强调,AI 的全面融合不仅涉及技术层面,还涉及隐私和反垄断等复杂问题。苏莱曼特别提到,欧盟目前指控微软违反反垄断规则,而苹果也因监管环境推迟在欧盟推出 AI 功能,这些都表明 AI 技术的广泛应用需要在功能和业务影响之间找到平衡。

在谈到技术延迟与反思时,苏莱曼表示,适当的延迟有助于更好地思考技术的影响,即使这意味着需要多花一些时间。他还讨论了情商与 AI 的结合,指出 AI 项目在语调和情商方面的显著进展,使得人们与 AI 的对话体验更加满意。

穆斯塔法·苏莱曼(Mustafa Suleyman)的核心观点包括:

知识和能力的普及使得技术变得商品化,任何人都可以轻松开发应用程序或构建网站。

AI 的全面融合涉及隐私和反垄断问题,产品需要在功能和对其他业务的影响之间找到平衡。

技术的延迟和反思是必要的,适当的延迟可以帮助我们更好地理解和管理强大的技术。

情商与 AI 的结合使得 AI 项目在与人类对话时更令人满意,类似电影《她》的情景可能成为现实。AI 的友善与公正性通过有意图的设计得以实现,AI 可以在交流中支持用户并提供实时信息和教育。

AI 机器人可能会参与有争议的话题讨论,如何定义和管理这些界限是一个重要问题。内容审核的界限需要集体责任,未来这些界限将在模型上被更加尖锐和动态地讨论。

AI 在选举中的作用应保持中立,微软采取严格立场,避免 AI 参与选举活动以防止虚假信息传播。AI 的人格权问题将在未来面临讨论,民主是人类的事务,AI 不应参与其中。

以下是本期播客内容的完整翻译,我们作了不改变原意的删减。

主持人

如果把 AI 比作一场棒球比赛,我们现在处于哪个阶段?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为,作为人类,我们充满了各种偏见。因此,回顾过去时,进展看起来是渐进的,但实际上,在当下,它的发展速度比人们意识到的要快得多,呈指数级增长。两年前,几乎没有人谈论智能代理,即能够在现实世界中采取行动的 AI 系统。今天,大家都很兴奋地认为在未来几年内,智能代理将无处不在,为我们做事,组织我们的生活,优先排序和规划。四年前,几乎没有人谈论语言模型。今天,大家都在谈论语言模型。

这些技术的发明过程非常超现实,一开始感觉不可能实现,但仅仅几年后就变成了现实。现在,你可以向任何一个聊天机器人提出任何你能想到的问题,并得到一个几乎和我们在场的任何人回答得一样好的答案。很容易把这一切视为理所当然,但这实际上是多年缓慢而稳步地增加能力、研究、实验和测试的结果。总的来说,我认为这创造了一种非常神奇的体验。如果我展望未来十年,感觉我们正处在这一重要时刻的开端。

主持人

我们都使用过 ChatGPT,但人们谈论的却是 AGI(通用人工智能),这种人工智能能够高效完成各种任务。这既带来了巨大的机遇,也引发了许多担忧。请问这是否在你们公司的十年规划中?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我不确定这种表述是否有帮助。我的意思是,我们往往会专注于超级智能的出现,即当 AI 能够比人类更好地完成每一项任务时。你知道,如果你真的逼我说,我不得不承认,从理论上讲,这是可能的,我们应该非常认真地对待与之相关的安全风险。我已经倡导 AI 的安全和伦理近 15 年了,所以我真的非常关心这个问题。但人们往往会急于认为它是不可避免的、可取的,并且明天就会到来。而我认为这两点都不是真的。

这是一种前所未有的技术,作为一个物种,我们必须找到一种新的全球治理机制,以确保技术始终为我们服务,使我们更健康、更快乐、更高效,并为世界增值。因为存在一种风险,即我们在本世纪开发的技术最终可能会带来更多的问题而非好处,这只是进步的一种代价。

主持人

关于这个问题,行业领袖们,包括你自己、Sam Altman 以及其他许多人,已经前往国会山和世界各地,明确表示我们需要监管,因为这项技术可能存在许多问题。很少有行业的 CEO 会主动请求监管。这是一个真诚的努力,还是一种保护性的举措?

穆斯塔法·苏莱曼(Mustafa Suleyman)

也许是因为我作为一个有点欧洲倾向的英国人,我并不害怕监管。大家似乎默认认为监管是不好的,但我认为历史上没有任何技术是无法成功监管的。我们可以看看汽车,自 20 世纪 20 年代以来,我们一直对汽车进行监管,这使得汽车不断改进。不仅是汽车本身,还有路灯、交通信号灯、斑马线,以及围绕汽车开发和驾驶的安全文化。因此,我们需要鼓励这种健康的对话,不应该将其简单地看作是非黑即白的事情。监管并不是邪恶的,也不是为了推动监管俘获的犬儒主义。

我认为技术人员、企业家和 CEO 们(包括我自己和我非常喜欢的 Sam,他非常棒)能够参与进来是件好事。他并不犬儒,他是诚挚的,真心相信这一点,其他人也是如此。我认为这非常好,我们应该接受这一点。当然,这其中也会有一些负面影响。我并不否认,糟糕的监管可能会拖慢我们的进步,降低我们的竞争力,并在与国际对手的竞争中制造挑战。这肯定不应该拖慢开源社区或初创企业的发展。

主持人

让我问一个更复杂的问题。Microsoft 与 OpenAI 有着深厚的合作关系,这是 Microsoft 目前追求其 AI 目标的方式之一。我们看到 OpenAI 内部有一些安全团队的成员,不仅离开了公司,还公开反对公司的做法。我来读一段离开安全团队成员的话。他说,这些问题非常难以解决,我担心我们没有走在正确的轨道上。看到员工离开并公开谈论公司内部的事情是非常不寻常的。你认为发生了什么?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我们生活在一个允许并支持吹哨人存在的国家和技术生态系统中,这让我感到自豪。如果有人觉得现在是发声的时刻,我会为他们庆祝并支持他们。我个人对 OpenAI 所取得的成就怀有极高的敬意。我认为他们将成为历史上具有决定性影响力的科技公司之一。我真心认为他们在推动技术快速发展的同时,也在认真对待安全问题。他们一直在引领安全研究议程,发表论文,致力于学术研究,参加会议,提高对这些问题的认识,并开源安全工具和基础设施。

主持人

这场辩论的主要内容是什么?是关于资源分配、安全资金投入,还是关于快速推进的心理学和哲学问题?在这场讨论中,微软扮演了什么角色?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为聪明的人可以对同样的观察结果有不同的看法。有些人看到我们所处的指数增长轨迹,会认为在过去六年里,我们在相同的方法上应用了数量级更多的计算和数据。实际上,在过去十年里,计算能力和数据量每年都增加十倍。每次增加十倍,能力都会显著提升。模型产生的错误更少了,能够吸收更多的事实信息,整合实时信息,并且在风格控制上更加灵活。你可以从产品和模型个性化的角度来调整它们的行为。

那些对此最担心的人认为,在未来三到五个数量级的增长中,比如未来五到八年,这种能力的增长轨迹不会放缓,实际上只会变得越来越好。反对的观点则认为,我们实际上正在耗尽可用的数据,需要找到新的信息来源来学习,而且我们不知道它是否会一直变得更好。可能会出现瓶颈,对吧?在技术历史上,我们多次见过这种情况。所以我认为这是一个健康的辩论。

主持人

任何使用过这些产品的人可能都经历过这样一个时刻,感觉这个机器人似乎出现了错误。我们从业内人士那里听到,他们说,其实我们真的无法解释为什么会出现错误,也无法真正解释系统内部发生了什么。你能解释一下吗?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为是这样的。我无法让你满意地解释,但我也无法解释你今天早上为什么穿蓝色衬衫。我能解释的关于你或我的事情非常少。我认为,对解释的要求是一种人类的偏见。

当我问你为什么今天早上吃炒鸡蛋时,你会在事后凭空想出一个解释,并根据你的心情、环境及其他相关因素,你可能会稍微不同地描述它。而且,这并不完全是因果关系。虽然它在现实中有一定的基础,但这种一对一的映射是对我们人类思维方式的理性强加。事实上,我们并不是那样思考的。我认为,我们更多是通过联想来思考。

主持人

我们应该对此感到担忧吗?大多数人认为这只是一个复杂的数学问题,对吧?2+2 应该总是等于 4。如果不等于 4,我们需要弄清楚问题出在哪里,对吧?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为这并不是人类推理和文化实际运作的方式。我们人类的推理是基于对行为观察的结果。当你一再重复同样的事情时,我会逐渐信任你。如果你告诉我你对某事不确定,而我回顾发现你的不确定性实际上是对结果的正确评估,这种不确定性反而会让我感到放心,对吧?

通过观察,我学会了信任你并与你互动。我认为这实际上是我们彼此之间的运作方式,也是我们创造文化和社会的方式。我们也会以同样的方式对待这些模型。 你知道,三个月前有一个放射科医生的竞赛。在这个现场环境中,几十位最优秀的专家与机器正面交锋。显然,有很多怀疑。为什么机器能做出正确的癌症诊断?为什么它能做出正确的眼科检查并识别出青光眼?我们可以提到一些用于训练的数据,但事实是它比人类更准确、更可靠。我认为我们应该依靠对事实的实证观察来信任这些系统。

主持人

我们听说过 OpenAI 如何将 YouTube 视频转录成文本进行训练。那么,谁应该拥有这些知识产权?谁应该从中获益?换句话说,AI 公司是否在窃取世界的知识产权?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为这是一个非常合理的论点。自 90 年代以来,开放网络上的内容一直被视为合理使用。任何人都可以复制、再创作、重制这些内容,就像对待开源软件一样,这是大家的共识。另一种情况是那些网站、出版商或新闻机构明确表示,除了为了索引以便他人找到内容之外,不要抓取或爬取我的内容。这是一个模糊地带,我认为最终将由法院来裁定。

主持人

你说这是一个模糊地带,这是什么意思?

穆斯塔法·苏莱曼(Mustafa Suleyman)

如果到目前为止,有些人已经获取了这些信息,我不知道具体是谁没有获取,但这将会通过法律途径解决,我认为这是正确的做法。

主持人

你认为知识产权法应该有所改变吗?是的。作为一名作者,我可以写一本书。在写书的过程中,我可以去图书馆借阅或在 Amazon 上购买 40 本其他的书。我可以阅读这些书,并将它们列在我的参考书目中,希望能写出一本好书。对于那 40 本书的作者,我只需支付购买书籍或图书馆的借阅费用。这些书我只需购买一次。没有人会认为我能每 10 秒钟生产一百万本书,在这种情况下,经济学应该如何解释呢?

穆斯塔法·苏莱曼(Mustafa Suleyman)

信息经济体即将发生根本性变化,因为我们将使知识生产的边际成本降至零。 这个概念虽然难以直观理解,但在未来的 15 到 20 年内,我们将以零边际成本生产科学和文化知识。 这些知识将全面开源,人人可得。我认为,这将成为人类历史上的一个真正转折点。毕竟,我们人类除了是知识和智力的生产引擎之外,还能是什么呢?我们创造知识,科学让我们变得更好。因此,我认为我们真正需要的是能够加速发现和发明的新动力

主持人

如果生成式 AI 像你希望的那样成功,我们的价值是什么?我的孩子现在正在上高中和初中,他们应该如何思考写论文?他们是否还需要学习如何写论文?

穆斯塔法·苏莱曼(Mustafa Suleyman)

当人们问我孩子们应该学什么时,我会建议他们尽可能多地通过数字化手段向他人学习。传统的、基于教科书的学习方法当然有其价值,能够长时间专注于阅读和写作也是非常重要的。然而,我认为那些掌握多种社交技能、能够快速适应变化的通才,他们的灵活性将成为最有价值的技能之一。 保持开放的心态,不对未来抱有偏见或恐惧,并积极拥抱技术,这些都是非常重要的。

主持人

我担心的是,是否应该有一些政策来规范这些技术,无论是由微软还是苹果来实施。这些孩子去学校后,他们真的会自己写论文吗?还是会依赖这些功能?你认为应该为学生(更不用说成年人)设置什么样的工具或限制?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为我们需要谨慎一些,不必过于担忧每种工具的负面影响。你知道,就像计算器刚出现时,人们担心大家会因此变得更笨,因为不再做心算了。 在某种程度上,这种担忧是有道理的。自从有了手机,我记电话号码的能力确实变差了。年轻时,我能记住四五十个号码,但现在这项技能有所退化。地图导航也是如此,因为我直接使用 Google 地图或 Apple 地图。所以我们需要做出一些调整。

总体来说,我相信如果我们真正拥抱这项技术,并以灵活的方式进行治理,这将非常重要。显然,我们的一些孩子存在手机成瘾的问题,他们在社交媒体上花费了太多时间,导致焦虑和沮丧。坦率地说,这对我们这些技术人员来说可能早已很明显。因此,我们需要确保在创造技术的同时,能够快速进行干预和治理。

主持人

这里有很多企业家,有些在数字领域,有些正在尝试进入 AI 领域,还有一些在考虑这个问题。你会给他们什么建议,关于应该去哪里,做什么,以及在哪些行业或地方会有机会?在一个 AI 能够随时为我们编写应用程序和其他程序的世界里,如果没有竞争壁垒,因为 AI 能够完成这些工作,那么人们还会投资什么呢?

穆斯塔法·苏莱曼(Mustafa Suleyman)

我认为会出现一种分化现象:在最大规模和最强资本的支持下,我们将生产出令人惊叹的模型。同时,知识传播的速度比人类历史上任何时候都要快。因此,开源模型和完全免费的模型在 18 个月内就能达到私有领域中的质量和性能水平。这是一个非常重要的现象,我认为这种趋势会继续下去。

GPT-3 的训练成本达数千万美元,现在已经有免费版本,你可以在手机或笔记本电脑上运行它,GPT-4 也是如此。因此,我认为,这将使得进行创造和创业所需的资源变得比以往任何时候都更便宜和更容易获得。

主持人

你如何看待科技领域,尤其是与 AI 相关的权力集中化现象?在 AI 尤其是大语言模型领域,有一个有趣的现象:需要大量的计算资源和资金,这已经不是在车库里能完成的项目了。因此,真正的权力又回到了微软谷歌亚马逊也在尝试构建 AI,甚至原本独立的 OpenAI 最终也决定与微软合作。你认为这是好事还是坏事?

穆斯塔法·苏莱曼(Mustafa Suleyman)

是的,这让我感到非常焦虑。现实情况是,无论你看哪里,权力和资源似乎都在快速集中。 不管是新闻媒体,如《纽约时报》、《金融时报》、《经济学人》等大型新闻机构,还是在城市中,权力集中在少数几个主要大都市,或者是在科技公司中。随着时间的推移,权力会不断积累。

权力有吸引更多权力的倾向,因为它能够聚集成功所需的智力和财务资源,并在开放市场中竞争胜出。 因此,尽管微软Meta谷歌等公司之间看起来存在激烈竞争,但我们也能够进行前所未有的企业投资,这在历史上是前所未有的。

主持人

你能谈谈你与 OpenAI 的关系吗?我想这可能是一种友好的合作关系,也可能会演变成竞争关系。你们目前是合作伙伴,但同时也在开发自己的技术和 AI。事实上,他们帮助你们取得了领先地位。OpenAI 和 Microsoft 正在两人组队,远远领先于大集团。通过现在的合作,他们可能能够保持领先。如果其中任何一方单飞,他们可能都会落后。两家公司都必须考虑他们的终点线策略,什么时候他们将不得不抛弃对方。

穆斯塔法·苏莱曼(Mustafa Suleyman)

我不同意用有终点线的隐喻来描述事情。在我们与中国竞争的背景下,这种说法同样不准确。我们正在进行直接竞争,这是零和博弈。 确实会有一个终点线,当我们跨过它时,我们将获得通用人工智能(AGI)。如果我们比他们早三年获得 AGI,我们将能削弱他们的力量。 我们必须停止将一切都框架为对抗性的竞赛。

虽然我们确实与他们有激烈的竞争,但他们是一家独立的公司,我们既不拥有也不控制他们,甚至没有任何董事会成员参与其中,所以他们完全按照自己的方式行事。但我们有深厚的合作关系,我与 Sam 是非常好的朋友,对他们所做的事情充满尊重、信任和信心。这种情况将在未来许多年持续。

主持人

你提到了中国。请谈谈你对当前情况的看法。我知道你不喜欢这种比较,但我认为人们至少想了解目前的情况,也就是说,我们与他们相比处于什么位置?

穆斯塔法·苏莱曼(Mustafa Suleyman)

如果我们以本能的对抗心态来处理这个问题,尽管我尊重华盛顿的朋友们和军工复合体,但这种默认的心态只会导致新的冷战,成为自我实现的预言。他们会因为害怕我们而对抗,所以他们必须对抗。这只会导致局势升级并以灾难告终。因此,我们必须找到合作的方式,尊重他们,同时也承认我们有不同的价值观。

坦白说,当我展望未来的世纪时,我认为和平将是我们,尤其是美国,作为西方的代表,优雅地处理我们在上个世纪管理的帝国衰落的结果。 因为这是一个具有不同价值观的强大新兴力量的崛起。因此,我们必须找到共存的方法,不带有评判,不无故对抗,因为我认为这对我们双方都是灾难性的。

主持人

你可能不同意我的观点,但我还是要表达一下。在业界,关于开源与闭源 AI 的争论一直存在。闭源 AI 指的是像 OpenAI 和 Microsoft 开发的许多项目,而开源 AI 则是向公众开放,内部结构透明的项目。MetaFacebook 的母公司)在这方面处于领先地位,其产品包括 Llama。这两种模式各有其问题。Elon Musk 认为所有技术都应该是开源的,我也认识许多人持这种观点。有人担心开源技术的广泛传播可能导致滥用,因此支持闭源模式。

穆斯塔法·苏莱曼(Mustafa Suleyman)

显然,我不同意这种说法。你知道,在我加入微软的第四周,我们开源了世界上最强的同类模型 Phi-3,毫无疑问,它仍然是最强的。你可以在移动设备和桌面设备上使用它,这是最好的开源模型。所以我们完全相信开源。但我们也相信创建非常强大、非常大、非常昂贵的模型,并且可能会随着时间的推移开源其中的一些。所以我们并不反对开源。我们只是认为,需要采用多种方法的结合。

主持人

这些大语言模型,尤其是大型语言模型,需要大量的计算能力,这意味着它们消耗大量能源。在阿斯彭思想节上,有很多关于能源使用和气候的讨论。我很好奇你的看法,特别是考虑到几年前科技公司承诺在 2030 年前实现零排放。看起来这些承诺可能会被抛诸脑后。

穆斯塔法·苏莱曼(Mustafa Suleyman)

微软将在今年年底实现 100% 使用可再生能源。到 2030 年,我们将完全实现净零排放。实际上,到明年年底,我们在水资源方面也将实现 100%的可持续性。所以,你看,我们非常致力于保持这一目标。

新需求的好消息是,它带来了加强可持续性的机会,而旧的供应则更难以改变。所以我认为我们在这方面处于非常有利的位置。确实,这将对电网带来前所未有的负担,因为从规模上看,我们的能源消耗远远超过了电网以前管理的水平。但是,电网早就需要进行彻底的升级了,对吧?这些是我们在西方国家需要进行的基础设施投资,以确保我们社会的未来,减少战争支出,更多地投入数千亿美元来升级我们的电网,以便管理来自家庭、小企业和汽车的本地发电和备用电池容量。

主持人

你觉得你在华盛顿待的时间长吗?你认为华盛顿的人们,尤其是那些连社交媒体都难以理解的人,能理解这些问题吗?无论是 AI 的影响,还是能源的影响以及其他方面的问题。

穆斯塔法·苏莱曼(Mustafa Suleyman)

是的,我认为讨论的焦点已经转向了可再生能源的问题。人们已经意识到我们正在消耗大量能源,这种情况必须改变,但仅靠微软使用百分之百的可再生能源是无法实现的。当然,谷歌也在这样做,其他公司也在朝这个方向努力。因此,我们应该庆祝我们正在设立一个标准,但这需要国家基础设施的支持才能实现这种转变。

主持人

您如何看待与其他公司的竞争,以及一些人认为大语言模型可能会商品化的观点?也就是说,贵公司有一个,Google 有一个,苹果现在与 OpenAI 合作,但他们显然会与很多其他公司合作。拥有 Anthropic 部分股份的 Amazon 也在开发自己的模型。每家公司都会有一个吗?如果每家公司都有一个,这些模型的价值又有多大呢?

穆斯塔法·苏莱曼(Mustafa Suleyman)

随着知识的普及,一切本质上都被商品化了。应用程序开发曾经是一个非常独特且需要高度技能的领域,只有少数人能胜任。现在,每个人都可以立即开发一个应用程序。还记得网页开发曾经是个真正的技术活吗?现在你只需要拖拽按钮,完全不需要任何技术技能。只要会用鼠标就能构建一个相当不错的网站。所以,随着时间的推移,知识和能力的普及确实使其商品化了。

主持人

你是否考虑过 AI 及其全面融合的问题?这不仅涉及隐私,还涉及反垄断。AI 是否应该整合到所有事物中?例如,目前欧盟指控微软违反反垄断规则。你应该知道,苹果因为监管环境的原因,推迟在欧盟推出自己的 AI 功能。我认为,这确实是一个值得探讨的问题。这些产品需要在多大程度上互联,既为了它们的功能,也为了它们对其他业务的影响。

穆斯塔法·苏莱曼(Mustafa Suleyman)

是的,最终,适当的延迟将成为我们的朋友。这与我们过去的经历不同,以前我们总是不断地将技术推向世界,并且总是带来积极的影响。我认为,这些技术已经变得如此强大、亲密且无处不在,现在是时候停下来思考一下了。即使这需要多花六个月、十八个月,甚至更长时间,也是值得的。

主持人

很多人都看过电影《她》。这现实吗?

穆斯塔法·苏莱曼(Mustafa Suleyman)

在硅谷和科技界,我们长期以来一直痴迷于功能实用主义。我们希望用户能够高效地进入应用程序,解决问题,完成购买、预订或学习,然后迅速离开。而现在,我们有了一种新的设计材料,一种新的“粘土”,广告创意可以用来创造能够触动我们大脑另一侧的体验。这是一个令人惊叹的机会,可以有意图地进行设计,做到友善、尊重和公正。

许多研究发现,我之前构建的 AI——Pi,非常友善和关怀。它会问你问题,倾听你的回答,热情地回应你。它很支持你,偶尔会挑战你。它总是公正且不带偏见,即使你带着偏见或歧视性观点,比如担心新移民会抢走你的工作,或者担心你的孩子会和黑人结婚,它也不会直接打断你,说你不应该这么想。它不会增加毒性,而是会与你交流,帮助你探索自己的感受,同时也非常博学,能够在网上实时提供信息和教育你。因此,这证明了有意图设计的技术确实可以产生影响,现在通过这种新的大语言模型(LLM)是可能的。

主持人

我们最终可能会与 AI 机器人讨论一些有争议的话题,比如谁是上帝,谁来决定对错。埃隆·马斯克也提到过这一点。他认为应该存在多个 AI 机器人,从言论自由的角度来看,如果你想要一个具有种族主义倾向的 AI 机器人,那也应该是可以的。你认为这是对的吗?

穆斯塔法·苏莱曼(Mustafa Suleyman)

这是一个非常好的问题。我认为,默认的立场应该是不带评判地促进思考和探索。当然,这其中会有一些界限。如果你想推动更极端的体验,我不会构建一个平台或产品来强化那些可能对社会有害的想法。问题在于,谁来定义这些界限和伤害?我认为埃隆·马斯克提出了一个很好的观点。我们都在思考这个问题。

在社交媒体上,确实没有一个独立的声音来判断某种阴谋论是否可以作为公共调查和讨论的合法来源。但当这种所谓的阴谋论越界时,我们应该删除它。我认为,尽管我们有 10 到 15 年的社交媒体经验,但仍然没有好的提案来决定社会整体上内容审核的界限在哪里。这不仅仅是政治家、记者或精英们的责任,而是集体的责任。我们即将看到这些界限在这些模型上被更加尖锐和动态地讨论。因此,我认为这个问题比奇点何时到来要重要得多。

主持人

好的,最后一个问题,之后我们会开放提问。我知道在场有些人手持麦克风。许多人会参加周四晚上的辩论观影派对。我们还没有深入讨论这次选举中的政治问题。请您谈谈 AI 在 2024 年和 2028 年选举中的作用。

穆斯塔法·苏莱曼(Mustafa Suleyman)

我们目前对微软的 AI 助手的看法是,AI 不应参与选举活动或竞选,即使它们能够成功提供事实信息。 这是一种观点,尽管人们可能不同意,但我们对此采取了相当严格的立场。因为我们知道,目前的技术还不足以在实时中清晰地划分虚假信息和真实信息之间的界限。这对我们来说过于敏感,因此我们无法参与其中。这确实会带来一些负面影响,因为 AI 大多数时候能够提供相对平衡和准确的信息,但有时也会犯严重错误。因此,我一直主张 AI 不应参与选举。 尽管民主有其缺陷和优点,但它是神圣的,是人类的事务,AI 不应参与其中。

到 2030 年或 2035 年,我们将不得不面对这样一个现实:有些人对他们的个人 AI 感情如此深厚,以至于他们会主张 AI 的人格权。就像有些人在极端动物权利案例中为他们的动物主张人格权一样。这是个人观点,但也是我们必须讨论的问题。我认为我们应该对此采取强硬立场,民主是属于人类的,其他形式的存在不应参与其中。

观众提问

我们已经教育了 5000 名弱势儿童,我一直在为此努力。你知道,过去 10 年里我们一直在推动他们学习 STEM(科学、技术、工程和数学)。现在我开始认为我们需要更多地教授人文学科。我想知道你对此有何看法,因为这样他们可以有更多选择并更好地理解世界。

穆斯塔法·苏莱曼(Mustafa Suleyman)

我同意你的看法。回顾历史可以发现,最伟大的学者往往是跨学科的。在过去,STEM 与人文学科之间并没有明显的界限。这种对立其实过于简单。我坚信两者都有其价值。跨学科的技能将在未来成为核心。

观众提问

我叫 Sundas,是新泽西的一名教育工作者,已有 8 年的教学经验。我经常与一些资深教师讨论使用 AI 的问题,因为我是 AI 的坚定支持者。对于那些持不同意见的教师,你会说些什么?你认为教师们如何才能真正利用 AI?

穆斯塔法·苏莱曼(Mustafa Suleyman)

这是个很好的问题。我认为,让 AI 制作课程计划是一个基础应用,而与 AI 互动则是一个有趣的新方向。比如,一个优秀的教师或教育者与 AI 进行深入对话,并在现场展示,偶尔让学生参与其中,这会是什么样子呢?实际上,到今年年底,我们将拥有基于实时语音的接口,允许完全动态的互动。我认为,拥抱这种变化,展示其美妙,并在其中发挥创造力,才是未来的发展方向。

网页链接