(二)具体说明透明度承诺
正如透明度原则的基础是公正等诸多概念,提高决策系统透明度的方法也多种多样。因此,关于透明度的承诺也有很多形式,比如对算法决策系统可解读性的承诺,对算法决策可解释性的承诺,或者对此类决策可说明性的承诺。
可解读性
为保证算法决策的透明度,经常提到的方法之一是要求算法决策系统具备可解读性。例如,因为依赖基于大规模数据集的模型或多层模型,一些算法系统非常复杂,以至于数据和计算机科学家自己也无法以精确的方式确定如何将系统输入转化为输出。
可解释性
关于透明度的另一种承诺是要求算法决策系统具备可解释性。当一个决策系统可以向利益相关者提供决策、行为或结果合理化的解释时,我们认为该决策系统具备可解释性,但一个可解释系统并不一定产生该层面上可解释的输出。
合理模糊
为确保可解读性或可解释性而保持透明度的行为有时会牺牲系统的准确性,也就是说,有时需要在系统准确性和可解读性之间进行权衡,而且这种权衡并非在所有情况下都具备合理性,如在某些情况下,实现最大化的准确性可能比确保算法决策系统的可解读性或可解释性更为重要。
可审查性
关于透明度的最后一种承诺是可审查性。通过定期审查部分决策集或基于在决策中观察到的特定模式来确定核心价值是否实现,我们有可能对系统进行评估。
关键要点
不透明妨碍实现公正等各种价值观和核心伦理观念。为克服这些障碍制定透明度标准,需要认识到透明度在特定环境中能产生价值或重要影响。
五、结论
在人工智能和大数据使用方面,一般性的伦理承诺现在已经司空见惯。实现这些承诺的第一步是采用原则、价值声明、框架和准则,阐明负责任的开发和使用所包含的内容。不过,如果这些概念和原则将要产生实质性影响,即如果它们不再仅仅是理论和愿望,那么相关组织不应只对价值观和承诺泛泛而谈,而应明确说明规范概念如何体现基本价值观,何种原则能够体现这些概念,这些原则关于特定用例的具体承诺是什么,以及这些组织最终将如何具体评估承诺是否履行。我们经常听到一些组织声称自己支持公正和透明,但真正艰巨的任务是明确这些承诺对它们的意义,并且在实践中实现这些承诺。
译自: Getting from Commitment to Content in AI and Data Ethics: Justice and Explainability, August 2021 by the Atlantic Council