智东西(公众号:zhidxcom)
编译 |  陈骏达
编辑 |  Panken

智东西6月25日消息,近日,OpenAI首席技术官米拉·穆拉提(Mira Murati)在达特茅斯塞耶工程学院毕业季的活动上,与前亚马逊高管、现达特茅斯学院受托人的杰弗里·布莱克本(Jeffery Blackburn)开展了一场50分钟的深度访谈。

OpenAI CTO深度访谈:剧透GPT-5发布时间

▲穆拉提在达特茅斯学院(图源:达特茅斯学院)

在这场访谈中,穆拉提分享了自己从航天行业、汽车行业、VR/AR再到加入OpenAI的丰富职业生涯,并根据自己在行业最前沿的所见所闻,分析了AI治理、AI对教育的影响、AI对工作的影响等问题。

她在访谈中透露,明年或后年就会出现博士水平的智能系统,这或许指的就是GPT-5。她更是抛出一个极具争议性的观点,有些创意工作本不该存在而AI很快便会取代这些职位。这一观点在网上引发轩然大波,认为OpenAI吃了饭就砸锅,并不理解创造力意味着什么。

穆拉提认为OpenAI的成就离不开深度神经网络、大量数据和大量算力这3个因素的叠加,虽然他们还在研究背后的原理,但实践证明深度学习真的行得通。

她称AI安全和AI能力是一体两面的,聪明的模型才能理解我们给它设定的护栏。从工程的角度上来看,AI能力的提升并不会降低模型的安全性。OpenAI对模型的安全性负有很大责任,但要实现风险的有效管控,社会和政府的参与也是必不可少的。OpenAI正积极与政府和监管机构合作,共同解决AI安全问题。

在场的观众也向穆拉提抛出了尖锐的问题。穆拉提在回应观众对于模型价值观的问题时提到,OpenAI目前已经通过人类反馈强化学习将人类价值观融入AI系统,但未来的重点会是在基础价值体系上,给客户提供高度定制化的模型价值体系。

观众还就OpenAI最近的侵权疑云和内容创作者的许可和补偿问题询问穆拉提的看法。穆拉提再次强调OpenAI并未刻意模仿斯嘉丽的声音,她挑选声音的决策过程是完全独立的。

至于版权内容,OpenAI目前在尝试以聚合数据池的形式,让创作者提供版权内容到数据池中,整体评估创意内容对模型表现的贡献,并给予相应的报酬。但这一技术颇具难度,实际落地还需要一段时间。

与OpenAI CEO萨姆·阿尔特曼(Sam Altman)不同,穆拉提之前的公众认知度较低。她在1998年出生于阿尔巴尼亚,之后到加拿大和美国求学。

她2018年便加入OpenAI,是OpenAI的早期成员之一。作为OpenAI的CTO,她领导了OpenAI在ChatGPT、DALL·E、Codex和Sora方面的工作,同时还监管公司的研究、产品和安全团队。

微软首席执行官萨蒂亚·纳德拉(Satya Nadella)评价穆拉提时说到,她既具备技术专长,也颇有商业头脑,并对OpenAI的使命有深刻认识。

以下是对穆拉提在达特茅斯学院深度访谈的完整编译(为提高可读性,智东西调整了部分问答的顺序,并在不违背原意的前提下进行了一定的增删修改):

一、干过航天、汽车、VR/AR等行业,发现自己对AI最感兴趣

杰弗里·布莱克本:大家都想听听你的近况和你正在构建的东西,这真是太吸引人了。不过也许我们应该从你的故事开始。你毕业后去了特斯拉一段时间,然后是OpenAI。你能简短地和我们描述一下那个时期吗,还有你加入早期的OpenAI的故事。

米拉·穆拉提:我大学毕业之后其实在航空领域短暂工作过,但之后我意识到航空领域的发展相当缓慢。我对特斯拉的使命非常感兴趣,也对构建可持续交通的未来需要面临的创新挑战感兴趣,因此我决定加入特斯拉。

在参与Model S和Model X的工作后,我意识到自己也不想在汽车行业工作。我想要做一些能真正推动社会发展的事情,同时解决一些非常困难的工程挑战。

我在特斯拉的时候对自动驾驶汽车、计算机视觉、AI这些技术和它们在自动驾驶汽车上的应用很感兴趣。我那时候想更深入地了解AI的其它领域。于是我加入了一家初创公司,在那里领导工程和产品团队,将AI和计算机视觉应用于空间计算领域,研究计算的下一个界面。

当时我认为计算的交互界面会是VR和AR,但现在我的想法不一样了。那时候我认为,如果我们可以用手与非常复杂的信息交互,无论是公式、分子还是拓扑概念,我们便可以更直观地了解这些东西,扩展自己的学识。然而事实证明,当时谈VR还为时过早。

但这给了我许多机会,能了解不同领域的AI技术。我想我的职业生涯一直都处于技术和应用的交叉点。这给了我一个不同的视角,能大致了解AI的发展程度以及它可以应用到什么领域。

杰弗里·布莱克本:所以在特斯拉的自动驾驶研究中,你看到了机器学习、深度学习的可能性,看到了它的发展方向。

米拉·穆拉提:是的。但我并没有看得很清楚。

杰弗里·布莱克本:你给马斯克工作过吗?

米拉·穆拉提:是的,特别是在最后一年。但那时我们还不太明确AI的发展方向。当时,我们仍然只是将AI应用于特定的应用场景里,而非通用的场景。VR和AR也是如此。而我不想只是将这些技术应用于具体问题。我想做更多的研究,了解背后的原理,然后开始将这些技术应用到其他事物上。

我就在这个阶段加入了OpenAI,OpenAI的使命对我非常有吸引力。当时它是一个非营利组织。现在使命没有变,但结构变了。当我6年前加入时,它是一个致力于构建安全AGI(通用人工智能)的非营利组织。当时OpenAI是DeepMind之外唯一一个做相关研究的公司。这就是我在OpenAI旅程的开始。

二、3大技术进步让ChatGPT成为可能,实践证明模型能深入理解数据

杰弗里·布莱克本:明白了,所以你从那时起你就一直在构建很多东西。也许你可以为在场的观众提供一些AI的基础知识。从机器学习、深度学习到现在的AI,这些概念都是相互关联的,但也各有不同。这些转变是如何发生的呢,又是如何让ChatGPT、DALL·E或者Sora这样的产品成为可能的呢?

米拉·穆拉提:其实我们的产品并不是全新的,在某种意义上我们的产品是建立在过去几十年人类共同的努力的基础上的。其实AI就开始于达特茅斯学院。

在过去几十年中,神经网络、大量数据和大量算力的结合带来了真正具有变革性的AI系统或模型,它们能够执行一般性任务。尽管我们不清楚其为何成功,但是深度学习真的行得通。我们也试图通过研究和工具来理解这些系统的实际运作方式。不过根据我们过去几年研究AI技术时的经验,我们知道这条路行得通。我们也见证了它们逐渐进步的轨迹。

以GPT-3为例,这是一个大约三年半前部署的大型语言模型。其目标是预测下一个token,基本上是下一个单词的预测。我们发现,如果我们给这个模型预测下一个token的任务,并用大量数据训练这个模型,给它大量计算资源时,我们还能获得一个真正理解语言的模型,而且其理解水平与人类相似。

它通过阅读大量书籍和互联网的信息,形成了自己对这些数据的模式的理解,而不仅仅是简单地记忆。我们还发现,这种模型不仅可以处理语言,还可以处理不同类型的数据,如代码、图像、视频和声音。它并不在乎我们输入什么数据。

我们发现,数据、计算和深度学习的结合运作得非常好,通过增加数据类型和计算量,这些AI系统的性能会不断提高。这便是所谓的扩展法则(Scaling Laws)。它不是实际的法则,而是模型能力提高的统计学预测。这就是推动今天AI进步的动力。

杰弗里·布莱克本:你们为什么选择了聊天机器人作为第一款产品呢?

米拉·穆拉提:就产品而言,我们其实是从API开始的,而不是聊天机器人。因为我们不知道如何将GPT-3商业化。商业化AI技术实际上非常困难。我们最初专注于技术的开发和研究,我们认为只要构建了一个优秀的模型,商业伙伴就会自然地拿它去构建产品。但后来我们发现这实际上非常困难,这也是为什么我们开始自己开发产品。

于是我们开始自己构建一个聊天机器人,我们试图理解为什么一个成功的公司不能将这项技术转化为有用的产品。我们最终发现,这其实是一种非常奇怪的构建产品的方式——从技术出发,而不是从要解决的问题出发。

三、模型能力和安全性相辅相成,聪明的模型才能理解人类设定的护栏

杰弗里·布莱克本:随着算力、数据的增长,智能似乎在以线性的方式发展,只要增加这些元素,它就变得更聪明。ChatGPT在过去几年中的发展到底有多快呢?它又会在何时实现人类水平的智能呢?

米拉·穆拉提:其实这些系统已经在某些领域达到了与人类相似的水平,但在很多任务上确实也还存在差距。根据系统发展的轨迹,像GPT-3这样的系统可能具有幼儿级别的智能,而GPT-4则更像是聪明的高中生。在未来几年,我们将看到它们在特定任务上达到博士学位水平的智能。发展进步的速度还是很快的。

杰弗里·布莱克本:你是说一年内会有这样的系统吗?

米拉·穆拉提:一年半吧。或许那时候就会有能在很多领域超越人类表现的AI系统了。

杰弗里·布莱克本:这种快速的智能发展引发了关于安全性的讨论。我知道你一直非常关注这一话题,我也乐见你在研究这些问题。不过大家真的很想听听你的观点。

假设3年后,当AI系统变得极为聪明,能够通过任何地方的每一个律师考试和我们设计的每一个测试时,它有没有可能自己决定接入互联网,并开始自主行事呢?这会成为现实吗,作为OpenAI的CTO和引领产品方向的人,你会思考这些问题吗?

米拉·穆拉提:我们一直在考虑这个问题。我们势必会拥有具有行为能力的AI系统,它们能够连接到互联网、相互交谈、共同完成任务,或者与人类一起工作,实现与人类的无缝协作。

至于这些技术的安全问题和社会影响,我认为不能在问题出现之后才想着解决,而是需要在技术发展的同时,将问题的解决方案嵌入到技术中,才能确保正确处理这些风险。

模型能力和安全性是相辅相成的,它们携手并进。告诉一个聪明的模型不要做某事,要比让一个不聪明的模型理解这一概念要容易得多。这就好像训练一只聪明的狗和不聪明的狗的区别。智能和安全是密不可分的。更聪明的系统能更好地理解我们设定的护栏。

目前大家在争论是应该进行更多安全研究,还是AI能力的研究。我认为这种观点是具有误导性的。

因为在开发产品时,当然要考虑安全性和护栏,但在研发方面,它们实际上是相辅相成的。我们认为应该非常科学地来看待这个问题,尝试在模型完成训练前预测出它们将具备哪些能力,然后在此过程中准备相应的护栏。

但到目前为止,这在行业中并非常态。我们训练这些模型,然后出现了所谓的涌现能力。这些能力是突然涌现的,我们不知道它们是否会出现。我们虽然可以看到数据上的性能提升,但我们不知道这种数据的提升能是否意味着模型在翻译、生物化学、编程或其他方面做得更好。

做好预测模型能力的科学研究,有助于我们为即将到来的事情做好准备。所有安全方面的研究工作与技术的发展方向是一致的,必须一同实现。

四、深度伪造风险不可避免,多方合作才能解决问题

杰弗里·布莱克本:米拉,现在网上也出现了AI伪造的乌克兰总统泽连斯基说“我们投降”的视频,或者汤姆·汉克斯视频的牙医广告,你如何看待这类的事情呢?这是不是你们公司应该管控的问题,或者是否需要有相关法规来规范,你是如何看待这个问题的呢?

米拉·穆拉提:我的看法是,这是我们的技术,所以我们对用户如何使用它负有责任。但这也是与民众、社会、政府、内容制作者、媒体等共同的责任,我们需要一起弄清楚如何使用这些技术。但为了使其成为共同的责任,我们需要带领人们,给他们提供访问权限,给他们提供工具来理解这些技术,并给予适当的护栏。

我认为不可能完全没有风险,但问题是要如何最小化风险,并为人们提供这样做的工具。以政府为例,非常重要的是与他们一同研究,并让他们提前接触到事物,让政府以及监管机构了解企业里发生了什么。

也许ChatGPT所做的最重要的事情就是让公众意识到AI的存在,让人们真正直观地感受到这项技术的能力以及它的风险。当人们亲自尝试AI技术并将其应用于自己的业务时,就能清楚的意识到它不能做某些事情,但可以做很多其它的事情,明白这一技术对自己或者整个劳动力市场意味着什么。这让人们可以做好准备。

五、前沿模型需要更多监管,做好模型能力预测是关键

杰弗里·布莱克本:这是一个很好的观点,你们创建的这些互动界面,比如ChatGPT、DALL·E让人们知道了未来会出现什么。关于政府我还想谈最后一点。你希望现在就有一些规定被制定出来,而不是等到一年或两年后当系统变得非常智能,甚至是有点可怕的时候。那我们现在究竟应该做什么呢?

米拉·穆拉提:我们一直在主张对前沿系统进行更多的监管,这些模型的能力出色,但正因如此可能由于滥用而造成的负面影响也更大。我们一直对政策制定者持有非常开放的态度,并与监管机构合作。对于更小的模型,我认为允许生态系统中有很多的广度和丰富性是好的,不要让人们因为拥有的计算或数据资源较少而无法参与这一领域的创新。

我们一直在主张对前沿系统进行更多的监管,那里的风险要高得多。而且,你可以提前预见即将到来的事情,而不是试图跟上已经迅速发生的变化。

杰弗里·布莱克本:你们可能不希望美国政府对GPT-5的发布进行监管吧?让他们对你们指手画脚。

米拉·穆拉提:这也看情况吧,我们在做的许多安全工作已经被政府编纂到AI监管的准则里了。我们已经完成了不少AI安全的工作,甚至为美国政府乃至联合国提供了AI部署的相关原则。

我认为要做好AI安全,需要真真正正地参与AI研究,理解这些技术在实践过程中意味着什么,然后根据这些理解创建相关的规定。这也是目前正在发生的事情。

要让监管领先于这些前沿系统,我们需要在模型能力预测领域进行进一步的科研,以便提出正确的监管。

杰弗里·布莱克本:我希望政府有能够理解你们在做什么的人。

米拉·穆拉提:似乎越来越多的人加入政府,这些人对AI有更好的理解,但还不够。

六、所有知识型工作都会受AI影响,AI让一切事情的“初稿”都变得更简单

杰弗里·布莱克本:你们应该是AI行业,乃至整个世界中,最能看清这项技术将如何影响不同行业的公司。它已经在金融、内容、媒体和医疗等领域有所应用。展望未来,你认为那些行业会因为AI和你们在OpenAI的工作,而产生巨大的变革呢?

米拉·穆拉提:这很像是我们刚刚开始构建基于GPT-3的产品时,企业家问我们的问题。人们会问我,我能用它做什么?它有什么用?我会说,任何事情,你尝试一下就知道了。我认为它将影响一切行业,没有领域不会受到影响,至少在知识型工作和知识劳动方面不会。也许进入物理世界需要一点时间,但我认为一切都将受到影响。

现在我们看到,AI在高风险领域如医疗保健或法律领域的应用有所滞后。这也是很合理的。首先,你要在低风险、中等风险的用例中理解并使用它,确保这些用例得到安全的处理,然后才能将其应用到高风险的事情上。最初应该有更多人类的监督,然后逐渐切换到更高的人机协作程度。

杰弗里·布莱克本:有哪些用例是正在出现、即将出现或者你个人比较喜欢的?

米拉·穆拉提:到目前为止,我最喜欢的用例就是,AI让我们做的所有事情的第一步都变得更加容易了,无论是创建一个新的设计、代码、文章、电子邮件,都变得更加容易了。

一切事物的“初稿”都变得更加容易,它降低了做某件事的障碍,让人们可以专注于更有创意、更困难的部分。特别是在代码方面,你可以把很多繁琐的工作外包给AI,比如文档方面的。在行业方面,我们已经看到了很多应用。客服绝对是AI聊天机器人的重要应用领域。

分析类的工作也是,因为现在我们已经将很多工具连接到核心模型上,这使得模型更加易用和高效。我们现在有代码分析工具,可以分析大量的数据,可以将各种数据倾倒入其中,它可以帮助你分析和筛选数据。你可以使用图像生成工具,你可以使用浏览工具。如果你是在准备论文,AI能让你的研究工作可以更快、更严谨地完成。

我认为这是模型生产力进步的下一层次——即给核心模型加上工具,并让它们深度融合。模型会决定何时使用分析工具、搜索或代码工具。

七、有些创意工作本不该存在,模型将成为极佳的创意工具

杰弗里·布莱克本:随着模型逐渐观看了世界上所有的电视节目和电影,它是否会开始编写剧本和制作电影?

米拉·穆拉提:这些模型是一种工具,作为工具它当然可以完成这些任务。我期望我们能与这些模型合作,扩展我们创造力的边界。

而人类是如何看待创造力的呢?我们认为它是一种非常特殊的东西,只有少数有才华的人才能接触到。而这些工具实际上降低了创造力的门槛,提升了人们的创造力。所以从这个意义上说,我认为模型会成为很好的创意工具。

但我认为它真的将成为一个协作性工具,特别是在创意领域。更多的人将变得更加有创造力。一些创意工作可能会消失,但如果它生产的内容质量不高,也许它们从一开始就不应该存在。我真的相信AI可以成为教育和创造力的工具,它将提升我们的智力、创造力和想象力。

杰弗里·布莱克本:人们曾经认为CGI等东西会毁掉电影行业,他们当时非常害怕。AI的影响力肯定要大于CGI,但我希望你对AI的看法是对的。

八、AI对工作的影响尚未可知,但经济转型势不可挡

杰弗里·布莱克本:人们担心许多工作可能面临被AI取代的风险。AI对人们的工作究竟有什么影响,你能从整体上谈谈这个问题吗?人们应该真的为此担忧吗?哪些类型的工作更危险,你是如何看待这一切的发展的?

米拉·穆拉提:事实上,我们并不真正了解AI将对就业产生什么影响。第一步是帮助人们理解这些系统能做什么,将它们集成到他们的工作流程中,然后开始预测和预测影响。并且我认为,人们并没有意识到这些工具已经被大量的使用了,这方面的研究还不够。

因此,我们应该研究当前工作的本质、教育的本质发生了什么变化,这将帮助我们预测如何为这些AI能力的提升做好准备。具体而言,我不是经济学家,但我确实预计会有很多工作发生变化,一些工作将消失,一些工作机会将出现,我们不知道具体会是什么样子,但可以想象许多严格意义上来说的重复性的工作将会消失。人们在做这些工作的时候并没有任何成长。

杰弗里·布莱克本:你认为会有足够多的其他工作被创造出来吗,能不能补偿这些消失的工作?

米拉·穆拉提:我认为会有很多工作被创造出来,但是创造多少工作,改变多少工作,失去多少工作,我不知道。我也不认为现在有人真正知道,因为这一问题还没有被仔细研究,但真的需要引起重视了。

但是我认为经济将会转型,这些工具将会创造很多价值,所以问题是如何利用这个价值。如果工作的性质真的改变了,那么我们如何将经济价值分配到社会中。是通过公共福利吗?是通过全民基本收入(UBI)吗?是通过一些其他新系统吗?有很多问题需要探索和解决。

九、AI能实现高等教育普惠化,提供定制化学习服务

杰弗里·布莱克本:也许高等教育在你描述的工作中扮演了一个重要角色。你认为高等教育在AI的未来和演变中扮演什么角色?

米拉·穆拉提:我认为弄清楚如何使用AI工具促进教育事业是很重要的。因为我认为AI最强大的应用之一将是在教育中,提升我们的创造力和知识。我们有机会利用AI建立超高质量的教育,非常容易获得,理想情况下对世界上任何人都是免费的,能以任何语言的形式呈现,反应文化间的细微差别。

有了AI,我们可以为世界上的任何人提供定制的教育。当然,在像达特茅斯这样的机构中,教室更小,学生可以获得很多关注。不过即使在这里,也很难有一对一的辅导,更不用说在世界其他地方了。

其实我们没有花足够的时间学习如何学习,这通常发生在很晚的时候,比如在大学。但学习的技能是一件非常基本的事情,不掌握这项技能就会浪费很多时间。有了AI,课程、课程设置、问题集,一切都可以根据学生自己的学习方式进行定制。

杰弗里·布莱克本:所以你认为即便是在像达特茅斯这样的地方,AI也能对教育有所补充?

米拉·穆拉提:绝对可以,是的。

十、用户反馈形成了系统的基本价值体系,正在研发价值观高度定制化的系统

杰弗里·布莱克本:要不我们开始观众提问环节吧?

米拉·穆拉提:好的,没问题。

观众1:作为达特茅斯的第一批计算机科学家之一,John Kemeny曾经做过一次讲座,讲述人类构建的每个计算机程序都嵌入了人类价值观,无论是有意还是无意。

你认为GPT产品中嵌入了哪些人类价值观?或者换句话说,我们应该如何将尊重、公平、公正、诚实、正直等价值观嵌入到这些工具中?

米拉·穆拉提:这是一个很好的问题,也是一个很困难的问题。这些问题我们已经思考了很久了。目前系统中的很多价值观基本上是通过数据嵌入的,也就是互联网上的数据,许可数据,还有人类标注员的标注数据。每个都有特定的价值观,所以这是一个价值观的集合,这很重要。一旦我们将这一产品投放到世界中,我们就有机会从更多人手中,获得更广泛的价值观集合。

现在我们在ChatGPT上向人们免费提供最强大的系统,全世界有超过1亿人使用过。这些人都可以向ChatGPT提供反馈。如果他们允许我们使用数据,我们将使用它来创建这个聚合的价值观,使系统更好,更符合人们的期望。

但这是默认的底层系统。我们真正想要的是在底层系统上还有一个自定义层,让每个群体都可以有他们自己的价值观。比如说一个学校、一个教堂、一个国家,甚至一个州,他们在这个有基本人类价值观的默认系统之上,提供自己更具体、更精确的价值观,建立属于他们自己的系统。

我们也在研究如何做到这一点。但这真的是一个很困难的问题。因为既有人类自己的问题,因为我们并不能所有事情上都达成一致。然后还要解决技术问题。在技术问题上,我认为我们已经取得了很多进展。我们使用像人类反馈强化学习这样的方法,让人们将自己的价值观输入系统中。我们刚刚发布了模型规范指南Spec,它提供了更高的透明度,让人们了解系统中的价值观。我们也正在建立一种反馈机制,我们收集输入和数据,评估Spec的推进情况,你可以将其视为AI系统的宪法。

但这一“宪法”是不断变化的,因为我们的价值观也随着时间的推移而发展。它会变得更加精确。这是我们正在重点研究的问题。现在我们正在考虑基本价值观,但随着系统变得越来越复杂,我们将不得不考虑更细致的价值观。

杰弗里·布莱克本:你能防止它变得愤怒吗?

米拉·穆拉提:不,那实际上应该由你决定。作为用户,如果你想要一个愤怒的聊天机器人,你就可以拥有一个这样的聊天机器人。

十一、红队演练中并未发现Sky声音的问题,正研究如何向创作者提供报酬

观众2:我真的很好奇,你是如何考虑版权问题和生物特征权利(比如声纹、指纹等)的。你之前提到一些创意工作可能不再存在,许多从事创意行业的人正在思考数据使用的许可和补偿问题。因为无论是专有模型还是开源模型,数据都是从互联网上获取的。我真的很想知道你对许可和补偿的看法,因为这涉及到版权问题。

还有一件事是生物特征权利,比如声音、肖像等方面的权利。OpenAI最近出现了关于Sky声音的争议,今年的选举年也受到深度伪造信息的威胁,你是如何看待这些问题的呢?

米拉·穆拉提:好的,我会从最后一部分开始讲起。我们对语音技术做了很多研究,直到最近才发布,因为它们带来了很多风险和问题。

但同样重要的是,要让社会接受,在给人们使用权限的同时设置好防护措施并控制风险,同时也版主其他人研究并取得进展。

例如,我们正在与机构合作,帮助我们思考AI与人类的互动。现在模型有了声音和视频,这些都是非常能引起情感共鸣的模态。我们需要理解这些事情会怎么发展,为这些情况做好准备。

在这一情况下,Sky的声音并不是斯嘉丽·约翰逊的声音,也无意成为她的声音。我负责选择声音,我们的首席执行官正在与斯嘉丽·约翰逊进行对话。这两个过程是完全平行,互不干涉的。

但出于对她的尊重,我们将其撤下。有些人听到了一些相似之处,但这些事情是很主观的。

我认为处理这类问题可以采取红队演练的方式(一般指网络实战攻防演习),如果声音被认为与一个著名的公众声音非常相似,那么我们就不选择这个声音。

不过在我们的红队演练中,这个问题并没有出现。这就是为什么进行更广泛的红队演练以提前捕捉这些问题是很重要的。

但我们关于生物特征问题的整体策略是,最初只向少数人提供访问权限,比如专家或红队成员,让他们帮助我们很好地理解风险和能力,我们据此建立解决措施。

随着我们对这些措施更有把握后,我们再向更多的人提供访问权限。我们不允许人们使用这项技术制作自己的声音,因为我们仍在研究这一问题的风险,我们还没有信心能够处理好那个领域的滥用问题。

但我们对于ChatGPT里目前的几个声音的安全措施还是比较满意的,它能较好的防止滥用问题。我们从一个小规模测试开始,本质上是扩展的红队演练。然后当我们将规模扩展到1000个用户时,我们的alpha版本将与这些用户紧密合作,收集反馈并了解极端情况,以便我们在扩展到10万人规模时为这些情况做好准备。然后是100万人,然后是1亿人,以此类推。但这都是在严格的控制下进行的,这就是我们所说的迭代部署。

如果我们不觉得这些用例足够安全,那么我们就不会将它们发布给用户。或者我们会针对这些特定用例,以某种方式对产品进行功能限制,因为能力和风险是共存的。

但我们也在进行很多研究,帮助我们处理内容出处和内容真实性的问题,让人们有工具来理解某些东西是否是深度伪造的,或者是虚假信息等等。

自从OpenAI成立之初,我们就一直在研究虚假信息问题。我们构建了很多工具,比如水印、内容政策等,允许我们管理虚假信息。特别是今年,鉴于这是一个全球性的选举年,我们更加加强了这项工作。

然而这是一个极其具有挑战性的领域,我们作为技术和产品制造商需要做很多工作,但也需要与民众、社会、媒体和内容制作者合作,共同研究如何解决这些问题。

在开发语音和Sora等技术时,我们首先与红队成员展开合作,一同研究风险。之后就是和内容创作者研究这一问题,了解这项技术将如何帮助他们,如何构建一个既安全、有用,并且能真正推动社会进步的产品。我们在DALL·E和Sora上都做了类似的研究。

补偿和许可的问题是很重要的,同时也很有挑战。我们与媒体公司进行了很多合作,还给了人们很多控制权,让他们可以自己决定数据在产品中的使用方式。如果他们不希望他们的数据被用来改进模型,或让我们进行任何研究或训练,那完全可以。我们就不使用这些数据。

然后对于一般的创作者社区,我们很早就让他们使用这些工具,这样我们可以首先听到他们的意见,了解他们希望如何使用它,根据这些信息构建最有用的产品。

此外,这些都是研究预览版,所以我们不需要花大价钱构建产品。我们只有在确定这项技术能带来很大用处时才会大量投入资金进行开发。

我们也在尝试创建一些工具,允许人们按照他们的数据贡献获得补偿。这从技术角度来说非常棘手,也很难构建这样的产品,因为你必须弄清楚特定数量的数据在经过训练后的模型中创造了多少价值。

我们很难估计出个别数据实际上创造了多少价值。但如果我们能够创建聚合数据池,让人们往里面提供数据,这样的衡量或许会更容易。

所以在过去两年里,我们一直在尝试这些方法,但还没有实际部署任何东西。我们在技术方面进行了实验,并获取了一些进步,但这是一个非常困难的问题。

十二、若重回学生时代要给自己减压,扩展知识面很重要

观众3:我的问题是相当简单的。如果你现在又重回大学,回到达特茅斯,你想做点什么,你不会再做什么?你会主修什么,或者你会更多地参与什么事情吗?

米拉·穆拉提:我认为我会学习相同的东西,但可能压力会小一些。我想我仍然会学习数学,但也会学习更多的计算机科学课程。但我的压力会小一些,以更有好奇心、更快乐的方式来学习。这肯定更有成效。

我还是学生的时候,总是有点压力,担心接下来会发生什么。每个人都会告诉我,不要有压力,但不知何故我总是很有压力。当我和学长学姐交谈时,他们总是说要享受学习,全身心投入,少一些压力。

我认为在课程选择上,最好要多学一些科目,对一切都有一点了解。我发现这在上学时和毕业后都是很好的事情。即便我现在在一家研究机构工作,我也一直学习,从不止步。对一切都有了解是一件很好的事情。

杰弗里·布莱克本:非常感谢你,因为我知道你的生活压力很大。感谢你今天来到这里,也感谢你为社会所做的非常重要和有价值的工作。感谢在达特茅斯的所有人。给学生们的建议刚好给这场对话收了个尾,我想再次感谢在场各位的到来,享受你们剩下的毕业周末。谢谢你们。

来源:达特茅斯学院