为什么大型科技公司在人工智能助手上进行冒险赌注

考虑到技术的局限性,这是一场冒险的赌博。 科技公司尚未解决人工智能语言模型持续存在的问题。 例如,他们倾向于“产生幻觉”或编造词语。 但是,最让我担心的是这些模型是一场隐私和安全灾难。 科技公司正在将存在严重缺陷的技术交给数百万人,允许人工智能模型访问他们的电子邮件、日历和私人消息等敏感信息。 它们使我们容易遭受大规模黑客攻击、诈骗和网络钓鱼。

我在之前的文章中介绍了人工智能语言模型的安全问题。 人工智能助手更容易受到称为间接提示注入的攻击,因为他们可以访问用户信息并可以同时浏览互联网。 这种攻击实施起来极其简单,而且还没有找到解决办法。

正如我在四月份解释的那样,间接提示注入是指第三方“通过添加旨在改变人工智能行为的隐藏文本来改变网站。”攻击者可以通过社交媒体或电子邮件将用户引导到带有秘密提示的网站 。 然后,攻击者可以操纵人工智能系统来尝试从受害者那里提取信用卡数据。

来源和详细信息:
https://www.technologyreview.com/2023/10/03/1080659/why-big-techs-bet-on-ai-assistants-is-so-risky/

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注