原文来源:GenAI新世界

OpenAI CEO 阿尔特曼最新访谈:越多人参与AI,才能更好的控制AI
  第1张

图片来源:由无界AI生成

据外媒消息,在人工智能飞速发展的世界里,关于未来的讨论往往集中在所谓的 "人工通用智能 "(artificial general intelligence)上。在这个阶段,人工智能将有能力完成人类能够完成的任何工作,而且只会做得更好。

近期与 OpenAI 的首席执行官山姆·阿尔特曼(Sam Altman)和首席技术官米拉·穆拉蒂(Mira Murati)的对话谈论了关于“AGI 的潜在收益和风险”的话题。

以下是他们谈话的节选:

AGI 将是人类迄今为止创造出的最好工具

问:为什么AGI是目标?

山姆·阿尔特曼:在未来十年或几十年里,对改善人类生存条件最重要的两样东西,一是丰富和廉价的智能:越强大、越通用、越智能越好。我认为这就是 AG。然后二是丰富而廉价的能源。如果我们能在世界上完成这两件事,那么几乎很难想象我们还能做多少其他事情。我们坚信,只要给人们提供更好的工具,他们就会做出让你惊讶的事情。我认为,AGI 将是人类迄今为止创造出的最好工具。

有了它,我们就能解决各种问题。我们将能以新的、创造性的方式表达自己。我们将为彼此、为自己、为世界、为这个正在展开的人类故事创造出不可思议的东西。这是新的,任何新事物都伴随着变化,而变化并不总是一帆风顺的。

问:它什么时候会出现,我们怎么知道它出现了?

米拉·穆拉蒂:可能在未来十年,但这有点棘手。我们经常谈论智能,谈论它有多智能,谈论它是否有意识、有知觉等等,但这些说法并不完全正确。因为它们定义了我们自己的智能,而我们正在构建的东西略有不同。

OpenAI CEO 阿尔特曼最新访谈:越多人参与AI,才能更好的控制AI
  第2张

OpenAI首席技术官米拉·穆拉蒂(Mira Murati)

问:有些人对你们用来训练某些模型的一些数据并不满意。比如:好莱坞,出版商。当您在做之后的模型时,您围绕数据做了哪些事情?

山姆·阿尔特曼:首先,我们显然只能使用其他人允许的数据。挑战之一是,不同类型的数据拥有截然不同的所有者。因此,我们正在尝试很多东西。我们正在建立多样的合作关系,我们认为,就像任何一个新领域一样,我们会找到一些东西,成为新的标准。

此外,随着这些模型越来越智能,能力越来越强,我们需要的训练数据也会越来越少。我认为,由于我们正在取得的技术进步,有关数据的对话以及所有这一切的形态都将发生转变。

问:出版商们都想花钱买数据。这场竞赛的未来是谁能为最好的数据支付最多的钱吗?

山姆·阿尔特曼:不,这正是我想说的。人们真正喜欢 GPT 模型的地方,从根本上说,并不在于它知道特定的知识。有更好的方法可以找到这些知识。而是它有这种幼年推理能力,而且会越来越好。这才是它的真正意义所在。


阿尔特曼:我不希望AI跟人类保持亲密关系


问:未来我们是否会与这类机器人建立深厚的关系?

米拉·穆拉蒂:这将是一种重要的关系。因为我们正在构建的系统将无处不在:在你的家中、在你的教育环境中、在你的工作环境中,甚至在你娱乐的时候。

这就是为什么把它做好实际上非常重要。我们必须小心谨慎地设计这种互动,使其最终能够提升体验、带来乐趣、提高工作效率并增强创造力。

我们还希望确保,在产品方面,我们对这些系统有一种掌控感,即我们可以引导它们做我们希望它们做的事情,而且输出是可靠的。随着它掌握更多关于你的喜好、你喜欢的东西、你做的事情的信息,以及模型能力的提高,它将变得更加个性化。

而且不只是一个系统。您可以拥有许多针对特定领域和任务的个性化系统。

问:责任重大。你将控制人们的朋友,也许还会成为人们的恋人。你如何看待这种控制?

山姆·阿尔特曼:我们不会是这里唯一的参与者。会有很多人参与进来。因此,我们可以在技术发展的轨迹上 "推波助澜"。但是:

a)我们真的认为,决定权属于人类,属于整个社会;

b) 我们将是在这里构建复杂系统的众多参与者之一。会有提供不同服务的竞争产品,会有不同类型的社会拥护者和反对者,还会有监管方面的问题。

我个人对未来的这一愿景深表忧虑,因为在未来,每个人都会与人工智能朋友走得很近,甚至比人类朋友走得更近。我个人并不希望如此。我认为其他人会想要那样,有些人会建造那样的东西。如果那是世界想要的,而且我们认为有意义,我们就会去做。


在实验室中不会诞生安全的AI


问:我们现在已经有了简单的聊天机器人。我们消除现在到处弥漫的对人工智能的恐惧?

山姆·阿尔特曼:不需要太多的想象力,就能想到值得高度警惕的情况。再说一遍,我们之所以这样做,是因为我们对巨大的发展前景和令人难以置信的积极影响感到非常兴奋。如果不为人类追求这些,那将是道德上的失败。但我们必须正视--这也发生在许多其他技术上--随之而来的弊端。

这意味着你要考虑风险。你会努力衡量自己的能力,并尝试以一种能够降低风险的方式来构建自己的技术。然后,当你说 "嘿,这是一种新的安全技术 "时,你就会把它提供给其他人。

问:其中有哪些?

米拉·穆拉蒂:这不是一个单一的解决方案。从数据到模型,再到产品中的工具,当然还有政策。然后再考虑整个监管和社会基础设施,以跟上我们正在构建的这些技术。

因此,当你考虑一路上有哪些具体的安全措施时,首先就是先推出技术,慢慢地与现实接触;了解它如何影响某些实际的用例和行业,并实际处理其中的影响。不管是监管还是版权,不管是什么影响,实际上都要吸收这些影响,处理好这些影响,然后继续发展越来越多的能力。我不认为在实验室、在真空中构建技术-——不与现实世界接触、不与现实中的摩擦接触——是真正安全部署技术的好方法。

山姆·阿尔特曼:米拉提出的观点非常重要。要在实验室里让一项技术变得 "安全 "是非常困难的。社会使用事物的方式不同,适应的方式也不同。我认为,我们部署的人工智能越多,世界上使用的人工智能越多,人工智能就越安全,我们就越能共同决定:"嘿,这里有一件事是不可接受的风险容忍度,而人们担心的另一件事,则完全没问题。"

为AI内容添加“水印”不是非黑即白的事情

问:现在,至少从 OpenAI 来说,还没有一种工具可以让我输入一张图片或一些文字,然后问 "这是人工智能生成的吗?",对吗?

米拉·穆拉蒂:就图像而言,我们的技术几乎 99% 可靠。但我们仍在测试,还为时尚早。

问:这是你计划发布的内容吗?

米拉·穆拉蒂:是的。

问:图片和文字都可以吗?

米拉·穆拉蒂:对于文字,我们要弄清楚什么是有意义的。对于图片来说,这个问题更直接一些。我们经常会做实验,推出一些东西,然后得到反馈。有时我们会把它收回来,做得更好,然后再次推出。

山姆·阿尔特曼:对于内容 "水印 "这个概念,并不是每个人都有相同的看法。有很多人真的不希望自己生成的内容带有水印。另外,它也不是对所有内容都有超强的适应性。比如,也许你可以为图片加上水印,也许可以为较长的文字加上水印,也许不能为较短的文字加上水印。

这就是我们希望参与对话的原因。在这一点上,我们愿意遵循社会的集体意愿。我认为这不是一个非黑即白的问题。


AI可能会加剧不平等


问:我们即将改变工作的性质。社会上有很大一部分人甚至没有参与这场讨论。我们怎样才能制定出这样一些框架,并自愿地去做一些事情,从而真正实现一个更美好的世界,而不会把其他人抛在后面?

米拉·穆拉蒂:我完全同意你的观点,这是一项终极技术,它可能真的会加剧不平等,让我们人类和文明的情况变得更糟。也有可能是惊人的,它可以带来很多创造力和生产力,提高我们的生活水平。也许很多人不想每周工作 8 小时或 100 小时。也许他们想每天工作四小时,然后做很多其他事情。

这肯定会对劳动力造成很大的干扰。

山姆·阿尔特曼:这是一个超级重要的问题。每一次技术革命都会影响就业市场。我一点也不怕。事实上,我认为这是好事,我认为这是进步的方式。我们会找到新的、更好的工作。

我认为,作为一个社会,我们确实需要面对的是这种情况发生的速度。我们必须为这一转变做些什么。仅仅给人们全民基本收入是不够的。人们需要有自主权,有能力影响这一切,我们需要共同成为未来的设计师。

正如你所说,并不是每个人都会参与这些讨论,但每年都会有更多人参与。把这个工具交到人们手中,让数十亿人使用 ChatGPT,不仅让人们有机会思考即将发生的事情并参与对话,还让人们利用这个工具推动未来的发展。这对我们来说非常重要。