随着要求加强人工智能监管的呼声越来越高,我们需 人工智能可解 要建立对人工智能模型的信任。这包括人工智能治理,以跟踪模型及其结果。欧盟委员会已经提议为其成员国建立首个人工智能法律框架,以应对人工智能的风险,并让欧洲在全球发挥领导作用。
当可解释的人工智能实现时,人们可以更加信任模 手机号码数据 型预测和结果。如果发现问题,您可以查看问题所在,并通过更改规则直接解决这些问题。符号人工智能带来的这种透明度有助于最大限度地减少模型偏差,因为规则可以得到监控和管理。
这与使用自主机器对机器学习的黑盒 ML 模型形成了鲜明对比。这些模型的可解释性本质上是困难且成本高昂的。这是因为机器学习使用大量训练数据和复杂模型,并且不清楚用于训练模型的规则。这需要大量工作才能了解模型在做什么。
利用可解释性降低人工智能风险
为了应对这一挑战,许多公司正在采用基于风险的方法来应对人工智能。这包括根据风险级别对人工智能系统进行分类,并根据影响程度制定指导方针和法规来降低风险。
欧盟提出了一项基于风险的提案,用于监管对欧洲公民 全球人工智能监管下可解释人工智能的必要性 的权利和自由构成高度或中等风险的人工智能系统(例如,中国的信用评分系统)。基于风险的人工智能方法的一部分涉及决定是否应使用人工智能做出特定决策,因为这些决策可能会对社会产生破坏性影响。
基于风险的人工智能系统的核心是影响评估,以确保将风险降至最低。欧盟基于风险的人工智能方法还包括对人工智能使用透明度的要求(如聊天机器人)。这些基于风险的人工智能规则的目标是:
- 培养对人工智能实施的信任;
- 使人工智能的使用与欧洲价值观保持一致;
- 协助开发安全的、以人为本的人工智能;
- 减轻与人工智能使用相关的社会和人类风险。
阻碍可解释人工智能广泛应用的因素是创建它 台湾数据库 们的难度。可解释人工智能模型的训练、调整和部署可能具有挑战性。使用主题专家或数据科学家来训练模型非常耗时,而且无法扩展。可解释人工智能的另一个挑战是机器学习模型无法跟踪数据片段在输入算法后如何相互关联。
要大规模使用人工智能,需要结合机器学习和人类监督,而这正是符号人工智能可以提供帮助的地方。它结合人类专业知识,提供最佳的自主学习,以扩展可解释的人工智能。
利用符号人工智能增进信任
随着针对 AI 的监管措施不断推进,企业必须采取措施,让更多人信任他们的 AI 计划。最可靠、最直接的方法是使用基于规则的方法(符号 AI)来开发模型。
符号 AI 中,概念之间的关系(逻辑)是在知识库中预先建立的,而不是由机器自动建立的。因此,任何不良或有偏差的结果都可以追溯到根本原因并快速修复 — 无需花费成本、费用和时间重新训练整个模型。
基于规则的方法使您能够开发完全可解释的模型。完全可解释性对于做出关键任务决策(例如医疗保健或财务相关行动)的模型至关重要。如果出现问题,任何不充分的解释都可能使公司面临严重的法律和/或财务后果的风险。
虽然完全可解释性是理想状态,但对于每个 AI 模型和用例来说,这并非必要且可行。在许多情况下,使模型的某些方面可解释就足够了。这仍然可以通过符号 AI 实现,但作为混合 AI 方法的一部分。