Dictionary.com 的 2023 年度词汇“Hallucinate”是人工智能健康问题

当你产生幻觉时,不好的事情就会发生。 如果你是人类,你可以做一些事情,比如把内衣放进烤箱。 如果您碰巧是聊天机器人或某种其他类型的人工智能 (AI) 工具,您可能会吐出虚假和误导性信息,根据信息的不同,这些信息可能会影响很多很多人,对您不利。 -健康和福祉类型的方式。 随着人工智能的不断发展,后一种形式的幻觉在 2023 年将变得更加普遍。 Dictionary.com 的 2023 年年度词汇是“幻觉”,这个术语有特定的人工智能定义。

Dictionary.com 指出,从 2022 年到 2023 年,“幻觉”的搜索量增加了 46%。 “聊天机器人”、“GPT”、“生成式 AI”和 LLM 等人工智能相关术语的搜索量增加了 62%。

幻觉(h uhloos uhneyt)-动词-(人工智能)呈现虚假信息,就好像它是真实的一样。 产生幻觉的聊天机器人通常会产生不仅不准确而且完全捏造的结果。

这是一个与人工智能无关的新亮点:人工智能和人类一样有能力说谎。 当然,并非所有人工智能。 人工智能工具通常被编程为充当小蛇油推销员或政治动物,提供虚假信息并使其看起来都是事实。 人工智能能够以比人类更快的速度产生错误信息和虚假信息。 上个月发表在《JAMA Intern Medicine》上的一项研究表明,OpenAI 的 GPT Playground 能够在 65 分钟内生成 102 篇博客文章,“包含超过 17,000 个与电子烟和疫苗相关的虚假信息单词”。 只需65分钟。 观看《60 分钟》然后去洗手间所需的时间大约相同,而不必在厕所上发短信。 该研究还展示了“额外的人工智能工具”如何在不到两分钟的时间内为节目创建 20 个逼真的图像。

来源和详细信息:
https://www.forbes.com/sites/brucelee/2023/12/15/dictionarycom-2023-word-of-the-year-hallucinate-is-an-ai-health-issue/?ss=ai&sh=696b34d16ff8

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注