可解释的 AI (XAI),带有类图
本文介绍了一种新的可视化工具来解释分类算法的结果,使用 R 或 Python 中的示例。
分类算法的目标是确定观察集合属于哪一组。 机器学习从业者通常会构建多个模型,然后选择能够最大化测试集准确度指标的最终分类器。 从业者和利益相关者可能想要的不仅仅是来自分类模型的预测。 一些从业者和利益相关者可能想知道为什么分类模型会做出某些决定,尤其是当它用于高风险的应用程序时。 考虑一种医疗情况,其中分类器将患者识别为患病的高风险人群。 如果医学专家能够了解哪些因素促成了预测,这些信息将帮助他们确定适当的治疗方法。
透明模型是那些显示决策如何制定的模型。 复杂模型则相反。 他们往往被对手称为“黑匣子”,因为他们不解释自己是如何做出决定的。 选择透明模型而不是黑盒并不总能解决可解释性问题。 当一系列观察与其标签之间的关系过于复杂时,可以牺牲透明度来提高准确性。
Explainable AI 是一组旨在帮助人类更好地理解机器学习模型的方法。 可解释性是负责任的人工智能开发和使用的重要组成部分。
来源和详细信息:
https://towardsdatascience.com/explainable-ai-xai-with-class-maps-d0e137a91d2c