更传统的算法训 例如线性回归和决策树)往往不那么复杂,因此更容易解释。更容易将输出追溯到训练过程的特定部分,因为该过程比深度学习简单得多。
但由于这些模型过于简单,准确性也并非总是如此。因此,如果有 印度尼西亚数据 人质疑某个可解释模型的准确性,他们更有可能批评的是训练技术,而不是可解释人工智能的概念。
当团队构建额外的算法模型
旨在解释初始黑盒算法的工作原理时,就会出现另一个 最新群发短信 问题。在这种情况下,“可解释的人工智能”几乎没有价值。
这个过程给技术团队带来了额外的工作,他们必须在现有模型的基础上构建更多模型。更糟糕的是,可解释模型可能会复制黑箱模型中存在问题的结果。
正如杜克大学的辛西娅·鲁丁所写
使用此类技术的团队最好从一开始就设计可 什么是线索评分?它如何提高您的投资回报率? 解释的模型。鲁丁的研究推翻了可解释模型和准确模型相互排斥的理论。更糟糕的是,可解释模型可能会复制黑箱模型中存在问题的结果更传统的算法训。