探索对话式 AI 中的意识感知:检验 LaMDA 的复杂性

对话式人工智能:我,聊天机器人,意识的感知

LaMDA 如何给出人类可能认为是内省或有意识思考的反应? 具有讽刺意味的是,这是由于 LaMDA 接受训练的训练数据以及可能的人类问题和机器响应之间的关联。 概率是关键。 这些概率是如何变化的,以至于智能人类审讯者对设备的功能感到困惑?

正是出于这个原因,我们需要提高“可解释性”。 人工神经网络是许多有用的人工智能系统的基础。 他们能够执行远远超出人类能力的计算。 在许多情况下,神经网络包含学习功能以使网络适应其设计的原始应用程序之外的任务。 神经网络输出的原因通常不清楚甚至无法辨别。 这导致了对依赖于其内在逻辑的机器的批评。 此外,训练数据的大小和范围可能会给复杂的人工智能系统带来偏差。 与真实世界的数据相比,这会导致意外、不正确或混淆的输出。 “黑匣子”是当用户或 AI 开发人员无法理解 AI 系统为何如此运作时出现的问题。

Tay 的种族主义似乎与 LaMDA 对意识的看法没有什么不同。 如果对人工智能系统及其训练方式没有透彻的了解,即使是专家用户也可能不确定机器响应背后的原因。 我们将被我们的机器误导,就像图灵欺骗游戏中的盲人审讯者一样,除非我们将对 AI 行为的需求嵌入到我们明天将依赖的系统的设计、测试和部署中。

来源和详细信息:
https://venturebeat.com/2022/06/16/i-chatbot-the-perception-of-consciousness-in-conversational-ai/