新报告确定了操纵人工智能系统行为的网络攻击类型
对手可以故意迷惑甚至“毒害”人工智能 (AI) 系统,使其发生故障,而且其开发人员无法采用万无一失的防御措施。 美国国家标准与技术研究所 (NIST) 的计算机科学家及其合作者在一份新出版物中发现了人工智能和机器学习 (ML) 的这些漏洞和其他漏洞。
他们的工作题为“对抗性机器学习:攻击和缓解的分类和术语”,是 NIST 支持可信人工智能开发的更广泛努力的一部分,它可以帮助将 NIST 的人工智能风险管理框架付诸实践。 该出版物是政府、学术界和工业界之间的合作成果,旨在帮助人工智能开发人员和用户了解他们可能预期的攻击类型以及缓解这些攻击的方法,并认识到没有灵丹妙药。
该出版物的作者之一、NIST 计算机科学家 Apostol Vassilev 表示:“我们正在概述考虑所有类型人工智能系统的攻击技术和方法。” “我们还描述了文献中报告的当前缓解策略,但这些可用的防御措施目前缺乏充分缓解风险的有力保证。我们鼓励社区提出更好的防御措施。”
来源和详细信息:
https://techxplore.com/news/2024-01-cyberattacks-behavior-ai.html