数据隐私担忧的核心在于开发人工智能模型 全球人工智能监管 所使用的算法。消费者希望了解人工智能模型决策过程背后的逻辑,但算法往往无法提供这种洞察力。这种可解释性的缺乏导致消费者对人工智能程序不信任。
如今,只有大约四分之一(28%)的公民愿意信任人工智能系统。这种不信任导致欧盟和美国呼吁加强人工智能监管。随着监管机构开始制定立法,要求模型满足某些可解释性阈值,包括解释和解释人工智能结果的能力,这些呼吁似乎正在产生影响。
考虑到一些公司在可解释性方面遇到的非常公开的问题(例如:苹果和亚马逊),监管可能并不是一件坏事。让我们看看为什么:
人工智能可解释性的作用
人工智能并非万无一失的技术。模型和人类一样容易出 目标电话号码或电话营销数据 错和产生偏差。这些问题被放大的程度取决于可解释性。考虑一下基于医疗设备数据的有偏差算法可能对医疗相关决策产生的影响。出于这些原因,可解释性对于人工智能模型至关重要,尤其是那些直接影响后续决策的模型。
简而言之,可解释性是试图在人工智能中注入信任。它为理解模型的输入和输出提供了基础。在无监督机器学习中,对用于训练模型和算法的输入机器的了解很少。在循环中添加人类进行训练和验证可以深入了解输入,但它可能会有偏见并且难以扩展。
什么是人工智能可解释性?
当人类能够理解人工智能结果时,可解释人工智能 (XAI) 模型便会出现。这与机器对机器学习中的黑盒模型形成鲜明对比,在黑盒模型中,人们无法洞悉机器学习的内容以及这些信息如何影响结果。
如何衡量人工智能的可解释性?衡量人工智能的可 全球人工智能监管下可解释人工智能的必要性 解释性需要人类主题专家了解机器如何得出结果。还需要重新演绎和追溯结果并检查合理性的能力,以及进行人工智能影响评估的需要。
AI 可解释性和可解释性有何不同?可解释性与机器学习模型将因果关系对齐的准确程度有关。可解释性与知识或对输入参数的已知信息有关,因此可以证明或解释模型性能。
人工智能可解释性:它解决的问题
提高人工智能可解释性的核心优势是实现值得信赖的人工智能的目标。这要求模型具有可解释性,以便人们能够理解和证明人工智能程序的行为和决策。它揭示了预测背后的原因,因此信 台湾数据库 息更加可信。您可以知道模型正在学习什么以及为什么要学习它。您可以看到模型的表现如何,从而提高人工智能系统的透明度、可信度、公平性和责任感。
利益相关者更容易信任可解释的 AI 做出的预测并采取行动。以下是一些可解释的 AI 示例,以便更好地理解其价值:
- 医疗保健:可解释的人工智能可以帮助临床医生向患者解释他们的治疗建议,并深入了解影响决策的变量。
- 金融:可解释的人工智能可以解释贷款被批准或拒绝的原因,从而增加对这些结果的信任。
- 人力资源:可解释的人工智能可以告诉我们为什么候选人的简历被选中或未被选中进行进一步审核,从而有助于减轻偏见或不公平现象。
- 欺诈:可解释的人工智能可以告诉我们为什么交易被标记为可疑或可能存在欺诈,同时避免与偏见和歧视相关的道德风险。