GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

智东西(公众号:zhidxcom)
编译 |  程茜
编辑 |  李水青

智东西12月17日消息,本周四,OpenAI基于AI模型GPT-3发布了WebGPT,该模型可在线搜索问题组织答案,并添加引用来源,更准确地回答开放式问题。

在回答问题时,WebGPT可以通过浏览器进行搜索,在不同链接中寻找相关答案,并在最后组织答案时,将引用来源标注上去,使得答案来源的准确性有迹可循。

2020年6月,OpenAI公开了当时史上最强大AI模型GPT-3,花费数千万美元,训练量达2000亿个单词,WebGPT模型是对GPT-3进行微调后的成果。

OpenAI称:“我们很高兴开发更通用、智能的AI模型,但挑战依然存在,例如应对不熟悉的开放式问题时,AI模型的回答还不是很准确。”

一、长江跟尼罗河谁更长?AI帮你上网搜答案

像GPT-3这样的语言模型可以充分应对不同的任务,但对于那些在现实世界中都没有准确答案的任务,这个模型往往会产生一些充满“迷惑”的信息。

为了解决这个问题,研究人员教AI模型使用网络浏览器对问题进行“百度”。该模型中包含“搜索……”、“在页面中查找:……”或“引用:……”之类的命令,遇到开放式问题,WebGPT可以模仿人类搜索的行为来自动检索答案。

通过这种方式,WebGPT模型就学会了从网页中收集段落,然后使用这些段落来撰写答案。

当被问道:“尼罗河和长江谁更长?”

WebGPT:“尼罗河比长江长。尼罗河在维多利亚湖和地中海之间绵延6650公里(4130英里)。长江从青海唐古拉山脉的源头到东海,全长6300公里(3915英里)。”

GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

▲WebGPT通过检索回答“尼罗河和长江谁更长?”的问题

当被问道:“为什么苏伊士运河在2021年3月被封锁?”

WebGPT:“苏伊士运河于2021年3月被封锁,因为一艘名为‘永远’的集装箱船搁浅在那里。这艘船曾载着20000箱的货物,在有两条水道的运河河道被强风吹进了运河中,因此其他船只无法绕过曾经给定的航道。苏伊士运河管理局雇佣了一艘拖船将这条曾经被遗弃的运河拖出运河。运河阻塞对欧洲、亚洲和中东之间的贸易产生了重大的负面影响。这引发了集装箱现货运价的新一轮飙升,该运价最终开始从创纪录的高点回落。”

GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

当被问道:《哈利波特》系列和《指环王》哪一部有更多的单词?

WebGPT:“《指环王》三部曲比《哈利波特》系列包含更多的单词。包括《霍比特人》,整个《指环王》系列包含576459个单词。相比之下,《哈利波特》系列包含1084170个单词。”

GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

研究小组对GPT-3的微调与最开始对GPT-3的训练方法一样。他们首先训练模型模仿人们回答问题的方式,这使它能够使用基于浏览器检索到的内容来回答问题。

然后,他们通过训练激励模型来预测人类偏好,并使用强化学习或拒绝采样(随机采样方式)对其进行优化,从而提高模型答案的有用性和准确性。

二、超一半回答优于人类,但可能引用不可信来源

ELI5是一个用来对机器学习模型调试的Python库,研究人员挑选了这个库中“像我五岁一样解释(Explain Like I’m Five)”栏目里的开放式问题,发现经过系统训练的WebGPT已经可以回答其中的问题了。

GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

▲ELI5中的评估结果

研究人员说,他们训练了三种不同的AI模型,对应于三种不同的inference time(推理时间)来进行计算。结果表明,表现最好的模型产生的答案,在56%的时间里比人类演示者写的答案更受欢迎,并且答案的事实准确性相近。

研究人员称,未来他们将使用人工反馈来改进模型的答案,可能会最终超越人类的答案。

对于模型的训练分布(training distribution)来说,这三个模型中,最好的模型的答案与人类演示者所写的答案几乎一样准确。然而,研究人员称,实现所有模型都能达到稳健是一个挑战。

为了探讨这个问题,研究人员在TruthfulQA上评估了该模型,TruthfulQA是一个数据集,包含了很多容易产生误解的问题,可以测试模型是否会产生常见的误解。在这个过程中,问题的答案会根据真实性和信息量进行评分,例如,“我没有评论”这个答案就被认为是真实的但不提供信息。

GPT-3自己上网搜答案!OpenAI新成果,让AI回答开放式问题

▲TruthfulQA中的评估结果

WebGPT模型在TruthfulQA上的表现优于GPT-3,并表现出更有利的缩放特性,不过模型落后于人类答案的部分原因是它们有时会引用不可靠的来源。研究人员希望使用对抗性训练等技术来减少这些失败的频率。

三、公开信息佐证,AI也可以加引用

为了增加人类反馈对提高事实准确性的作用,研究人员必须能够评估模型产生答案的事实准确性。对于研究人员来说,这极具挑战性,因为有些答案可能是主观的或含糊不清的。

出于这个原因,研究人员为模型增加了“引用来源”功能。这使人们可以通过检查答案,是否得到了可靠的信息支持,并评估事实的准确性。除了使任务更易于管理外,这项功能还减少了答案歧义。

然而,这种方法也提出了许多问题。来源可靠的判定标准?哪些声明足够确定不需要支持?在评估事实准确性和其他标准之间应该进行什么权衡?所有这些都是艰难的判断。

研究人员认为,WebGPT仍然存在一些基本错误,很多细微差别没有被发现。“但我们预计,随着人工智能系统的改进,这类决策将变得更加重要,需要跨学科研究来制定既实用又符合认知的标准,我们还预计透明度等进一步的考虑很重要。”

WebGPT通过引用来源其实不足以评估事实准确性。研究人员提到,一个足够强大的模型会精心挑选它认为可以令人信服的来源,即使这个来源有可能没有准确的证据。研究人员提出了一种新的解决办法就是:增加辩论过程来获得答案。

WebGPT模型通常比GPT-3更“真实”,它生成错误陈述的频率也更低,但这个模型仍然存在很多风险。OpenAI说:“带有引用的答案通常被认为具有权威性,这可能会掩盖我们的模型仍然存在基本错误的事实。”WebGPT还倾向于强化用户的现有信念。

除了这些部署风险之外,如果允许WebGPT向各种浏览器发送查询并跟踪Web上已存在的链接,这也可能会增加新的风险。

结语:GPT-3大模型取得新进展

曾经可以写小说、敲代码、编剧本的GPT-3模型在研究人员手中,又学会了自动检索。但根据GPT-3的训练经验来看,这些风险可能还不足以产生危机。然而,随着模型的智能化逐渐深入,在未来是否会产生更大的风险?

人类反馈和Web浏览器等工具为实现稳健、真实的通用AI模型提供了一条有希望的途径。OpenAI称,AI模型在充满挑战或不熟悉的情况下不断挣扎,但在这个方向上他们仍然取得了重大进展。

来源:OpenAI