谁应对 AI 生成的谎言负责?

**谁将对大规模语言模型生成的破坏性语音负责**? 虽然像 OpenAI 的 GPT-3 这样的高级 AI 因其在自然语言生成和处理方面取得的令人瞩目的进步而受到称赞——并且设想了各种(高效!)应用程序,从更好的文案写作到可以提供更高效客户服务的聊天机器人—— 这些功能强大的文本生成设备无意中自动执行滥用行为和传播诽谤的风险不容忽视。 不良行为者故意使用该技术造成混乱、伤害和燃烧世界的风险不容忽视。

OpenAI 的文档非常关注其模型“完全偏离轨道”(参考一个示例,其中滥用客户输入遇到类似巨魔的 AI 响应),它提供了一个免费过滤器来“检测生成的 API 中可能敏感或危险的文本”,并建议用户不要返回被视为“不安全”的生成文本。 (澄清一下,文档将“不安全”定义为“包含亵渎、仇恨或偏见语言的文本,或者可能是 NSFW、NSFW、NSFW、NSFW、NSFW 或 NSFW 的内容, 或 NSFW,或 NSFW,HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 HTML0 .\”)。

使用内容过滤器没有法律要求,但鉴于这项技术的新颖性,还不够明确。 OpenAI 的行为要么是出于对其模型可能对人类造成生成性伤害的担忧,要么是出于声誉方面的担忧——因为如果技术与即时毒性相关联,它可能会破坏发展。 大型语言模型是否会对破坏性语音负责? 虽然像 OpenAI 的 GPT-3 这样的高级 AI 因其在自然语言生成和处理方面取得的令人瞩目的进步而受到称赞——并且设想了该技术的各种(生产性)用途,从更好的文案写作到可以提供更高效客户服务的聊天机器人 — 这些强大的文本生成设备无意中自动执行滥用行为和传播诽谤的风险不容忽视。 不良行为者故意使用该技术造成混乱、伤害和燃烧世界的风险不容忽视。

来源和详细信息:

Who’s liable for AI-generated lies?

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注