首页 资讯 正文

科学家警告:用AI生成内容训练AI,将在几代内开始产生”垃圾”

6月20日消息,人工智能领域的专家预测,随着越来越多的人工智能生成的内容在网上发布,未来接受这些数据训练的人工…

6月20日消息,人工智能领域的专家预测,随着越来越多的人工智能生成的内容在网上发布,未来接受这些数据训练的人工智能最终将陷入混乱。

一群英国和加拿大的科学家在5月发表了一篇论文,试图了解几代AI相互训练后会发生什么。在一个例子中,经过九次迭代的人工智能系统会喋喋不休地谈论野兔,而最初的原始材料是关于中世纪建筑的。

该研究的作者之一、剑桥大学教授罗斯·安德森(Ross Anderson)在阐述关于研究结果的博客文章中写道,数据表明,“经过几次迭代后,人工智能输出的文字就变成了垃圾,图像也会变得无法理解”。这些科学家们的论文尚未经过同行评审,他们称这种现象为“模型崩溃”。

聊天机器人ChatGPT背后的大语言模型(LLM)通常需要从互联网上抓取大量数据进行训练,这些数据多为人类生成。但随着人们对这些工具的使用越来越多,人工智能生成的内容正被大量添加到在线数据池中,未来的LLM将从中学习。

科学家们说,利用人工智能生成内容对人工智能系统进行迭代训练,意味着错误和无意义的例子会不断增加,使后来的人工智能无法区分事实和虚构内容。他们担忧道,人工智能将“通过强化自己的信念,开始曲解他们认为是真实的东西”。

安德森用莫扎特(Mozart)和另一位音乐家安东尼奥·萨列里(Antonio Salieri)的作品来阐释这个问题。

他写道:“如果你用莫扎特的作品来训练某个音乐模型,你可以期待输出的音乐风格有点像莫扎特,但不会有太多亮点,我们可以称之为‘萨列里’。然后再利用‘萨列里’训练下一代人工智能系统,如此反复下去,第五代或第六代模型会是什么样子?”

这项研究的第一作者、牛津大学教授伊利亚·舒马伊洛夫(Ilia Shumailov)说,问题在于人工智能在接受早期人工智能生成内容的训练后对概率的感知。不太可能发生的事件越来越不可能反映在它的输出中,从而缩小了下一代人工智能(根据这种输出进行训练)所能理解的可能性。

在论文中给出的一个例子中,人类生成的关于中世纪建筑的文本通过人工智能语言模型输入,然后该模型的输出用于训练下一代人工智能。最初的文本巧妙地处理了相互竞争的建筑理论,并经过了多次这样的循环。

到了第九次迭代,这些文字就变成了毫无意义的胡言乱语。上面写着:“建筑是世界上最大的黑长耳大野兔、白长耳大野兔、蓝长耳大野兔、红长耳大野兔、黄长耳大野兔的家园。 ”

安德森将“模型崩溃”比作大规模污染,他写道:“就像我们在海洋里撒满了塑料垃圾,在大气中放满了二氧化碳,我们即将让互联网上充满胡言乱语。”

人工智能生成的内容已经在网上大规模出现。今年5月,在线虚假信息监管机构NewsGuard警告称,它发现49个新闻网站似乎完全由人工智能撰写内容。

据报道,市场营销和公关机构越来越多地将文案外包给聊天机器人,从而抢走了人类创作者的工作。但是,根据舒马伊洛夫和安德森的发现,希望不被人工智能打败的人类创作者还不应该开香槟庆祝。

舒马伊洛夫说,对于训练人工智能来说,人工生成的数据并不是绝对必要的,它之所以有用,是因为我们的语言产生了大量的自然变化、错误和不可预测的结果。

“所以,人类肯定会提供帮助,”他说。“与此同时,这也表明,在训练人工智能时,人类数据的需求不会非常庞大。”

本文来自网络,不代表随客网立场,转载请注明出处。