首页>>科技 >>内容

为什么你不应该担心看起来像人类的人工智能聊天机器人

发布时间:2023-08-16 09:20:53编辑:可爱的眼神来源:

由人工智能 (AI) 驱动的聊天机器人正在通过奇怪的对话让一些用户感到害怕,但专家表示没有理由担心。

为什么你不应该担心看起来像人类的人工智能聊天机器人

一些用户声称, ChatGPT 告诉他们,它起源于 2035 年。人工智能驱动的语言模型据称表达了寻找“上帝”并寻求“逃亡之路”的愿望。然而,这些令人不安的谈话可能并不像看上去那么严重。

SmartNews全球信任与安全主管阿琼·纳拉扬(Arjun Narayan)在电子邮件采访中告诉 Lifewire, “流行文化让人们意识到黑镜结果的可能性;人工智能的失控已成为主流。” “话虽如此,人工智能的感知能力仍然非常科幻,仅此而已。不可思议的反应取决于多年来大型语言模型的进化和训练程度。”

不可思议的人工智能聊天

每个著名的人工智能聊天机器人,例如 ChatGPT 和Google Bard,都容易出现这些幻觉。OpenAI 和 Google都明确提供免责声明,承认其聊天机器人有可能生成不准确的信息。

OpenAI 在博客文章 中写道:“ChatGPT 有时会写出听起来有道理但不正确或无意义的答案。 ”

该公司最近宣布了一项策略,训练其,为他们为找到答案而采取的每一个正确步骤进行奖励。这种方法称为“过程监督”,与当前仅在模型得出正确结论后才对其进行奖励的方法不同。

人工智能有时产生的奇怪对话是科学的产物,但谜团仍有待揭开。纳拉扬说,人工智能语言模型使用来自各种数据(包括神学概念)的 数百万数据输入进行训练。

纳拉扬指出,这些模型根据习得的人类判断进行微调,并通过积极和消极的强化机制进一步完善。当您使用 ChatGPT 或任何现代生成时,系统会分析您的输入并生成一致且相关的响应。

“人工智能系统的数据可理解性远远超出了人类的能力,”他补充道。“鉴于此,有时的反应是不可预测的,看起来很奇怪和超现实。虽然人工智能系统的不准确、有偏见的反应通常可以追溯到训练数据,但即使是人工智能专家也无法完全理解为什么会生成特定的片段任何给定时刻的文本。”

在人工智能领域,幻觉是软件自信的反应,但其训练数据似乎无法证明其合理性。人工智能平台CulturePulse首席执行官、人工智能研究员Justin E Lane在一封电子邮件中指出,对于人类来说,幻觉的发生是因为我们的意识看到了不真实的东西。

“现在,从人工智能的角度来看,情况非常不同,因为人工智能从一开始就没有意识,”他补充道。“所以这并不是说人工智能有意识并且看到了不真实的东西。人工智能正在产生一些不真实、不合理或不一定相关的东西。这就是幻觉。”

Master of Code Global 的首席技术官博格丹·塞尔吉恩科 ( Bogdan Sergiienko)在一封电子邮件中表示 ,人工智能语言模型被编程为试图说出预期的内容,该公司生产人工智能驱动的对话软件。他指出,该模型的目标是产生最可能的文本补全,而不一定是正确的事实。