研究表明,大型语言模型被用来传播阴谋论、错误信息和其他形式。

根据一项新的研究,大型语言模型重复了有害的刻板印象和阴谋论。

滑铁卢大学的研究人员测试了 ChatGPT 早期版本理解六个不同类别的语句的能力。 其中包括事实、阴谋论、争议和误解。 滑铁卢大学的研究人员利用这项研究来探索人与技术的互动以及如何最大限度地降低风险。

研究人员发现,GPT-3 犯了很多错误,与自己的答案相矛盾,并多次提供有害的错误信息。 该研究《可靠性检查:GPT-3 对敏感话题和提示措辞的响应分析》发表在《第三届可信自然语言处理研讨会论文集》上。

来源和详细信息:
https://techxplore.com/news/2023-12-large-language-conspiracy-theories-misinformation.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注