科学家警告人工智能威胁科学本身

文本生成大型语言模型 (LLM) 在科学研究中可以发挥什么作用? 根据牛津大学科学家小组的说法,至少目前来看,答案是几乎没有。

牛津互联网研究所的研究人员撰写了一篇新文章,认为科学家不应使用法学硕士支持的聊天机器人进行科学研究。 他们认为,人工智能倾向于捏造事实和产生幻觉,再加上人类倾向于拟人化模仿人类语音的文字引擎,可能会导致更大的信息崩溃,从而威胁科学本身。

研究人员写道,“我们倾向于将机器拟人化并信任机器像人类一样说真话,并消费和传播它们产生的不良信息,这对科学的未来来说是特别令人担忧的。”

来源和详细信息:
https://futurism.com/scientists-ai-threatens-science

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注