从以上分析可知,对人工智能系统进行解释是一件非常复杂的事情,而且中国现行立法还远未形成一个统一的规制路径。无论解释的出发点是权利,还是义务,抑或是责任,都尚未确立清晰明确的规则。面向未来,对人工智能的透明度和可解释性进行规制,需要法律、技术、市场、规范等多种力量共同发挥作用。
(一)立法宜遵循基于风险的分级分类分场景监管思路
常识告诉我们,技术应用不可能完美无缺、永不错误,那种认为技术应用应当符合绝对性要求的观点是偏颇的、误导性的。在这个意义上,新技术治理应当是风险导向的,不是为了彻底消除风险,而是对风险进行有效管理。因此,立法不宜采取过度严苛的监管要求,避免在透明度与可解释性方面对AI算法应用提出“一刀切”(One-Size-Fits-All)的要求,也不宜简单粗暴要求公开算法的源代码等技术细节;而是需要采取包容审慎的立场,建立分级分类分场景的监管方式,支持AI算法应用不断创新和发展,兼顾政府、科技企业以及社会公众的整体利益,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。
具体而言,在人工智能可解释性要求的实现方式上,首先,披露AI算法模型的源代码是无效的方式,不仅无助于对AI算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释或说明;再次,侧重应用过程中的披露义务,部署AI系统的主体对于任何披露与记录要求负有责任,需要披露AI系统实质性参与决策或与人类互动的事实,披露应当以清晰易懂、有意义的方式提供关于AI参与的关键任务的模式;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。
此外,法律对AI系统的可解释性要求应侧重满足终端用户的需求。到目前为止,AI系统的可解释性主要服务于AI开发人员和监管者的需求,例如帮助开发人员排查漏洞并改进AI系统,帮助监管者对AI应用进行监管。而非让终端用户可以理解AI系统。2020年的一项研究发现,企业部署可解释人工智能更多是为了支持工程开发等内部目的,而非增强用户或其他的外部利益相关者的透明度和信任。因此,为了促进用户对AI系统的理解,一种可行的思路是,借鉴食品营养成分表、产品说明书、药品或医疗器械的使用说明、风险告知等既有的信息披露机制,针对符合条件的AI系统建立“算法说明书”机制。欧盟的人工智能立法采取了类似的思路,欧盟人工智能法草案遵循分类监管的思路,针对高风险的AI系统提出了较高的透明度和信息提供要求,即开发者应确保高风险AI系统的运作足够透明,向用户提供使用说明(Instructions of Use)等信息,并披露系统开发者的基本信息、高风险系统的性能特征、监督措施以及维护措施等信息。
(二)探索建立合理适度的、适应不同行业与应用场景的人工智能可解释性标准
法律治理固然重要,但可解释人工智能的实现也离不开技术人员和技术社群的直接参与。到目前为止,XAI已经成为人工智能领域最重要的发展方向之一,但正如美国DARPA关于XAI的回顾报告所发现的那样,XAI的进展仍十分有限,面临着诸多难题和挑战。当前最重要的是建立人工智能可解释性的技术标准。在这方面,首先需要明确的一个关键问题是,人工智能的评价标准不应是“完美级”(Perfection),而应在与既有流程或人类决策对比的基础上,界定评价AI系统的最低可接受标准。所以即使AI系统需要解释,也必须考虑可解释的程度。因为要求AI系统满足可解释性的“黄金标准”(远远超过既有的非AI模式即人类决策所要求的),可能不当地阻碍AI技术的创新性使用。因此需要采取折中路径,考虑技术限制与不同可解释标准需要的利益权衡,以便平衡使用复杂AI系统带来的好处与不同的可解释性标准带来的实践限制。笔者认为,用户友好型的解释应当是准确的、清晰的、明确的、有效的,且考虑不同应用场景的需求,以提高对AI系统的整体理解:解释是否准确传递了支撑AI系统的推荐的关键信息(Key Information)?解释是否有助于对AI系统整体功能的理解?解释是否清晰(Clear)、明确(Specific)、相关(Relatable)、可执行(Actionable)?解释是否适当考虑了敏感性(Sensitivity)?例如用户的敏感信息。
具体可以从以下方面来推进AI可解释性标准:
第一,针对AI系统的每一个应用场景都提供可解释性标准的指南,是不现实的,但可以针对一些示范性的应用场景提供可解释标准的指南。这能够给行业和企业提供有益参考,来平衡不同AI模型的性能与不同标准的可解释性要求。
第二,对于政策相关方而言,发布AI可解释的最佳实践做法案例集,以及具有负面影响的负面做法,都是值得尝试的。包括用以提供解释的有效的用户界面,以及面向专家和审计人员的记录机制(例如详细的性能特征、潜在用途、系统局限性等)。
第三,可以创建一个说明不同级别的可解释性的图谱。这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。例如,如果某个失误的潜在不利影响是非常微小的,那么可解释性则不怎么重要。相反,如果某个失误是危及生命财产安全的,则可解释性变得至关重要。类似地,如果用户可以容易地摆脱算法自动化决策的约束,则对深入理解AI系统的需求就不那么旺盛。
(三)支持行业自律,发挥市场的力量来促进可解释性人工智能的发展
根据美国科技行业的经验,可解释人工智能的工作应主要由企业与行业主导而非由政府强制监管,采取自愿性机制而非强制性认证。因为市场力量会激励可解释性与可复制性,会驱动可解释人工智能的发展进步。
一方面,从市场竞争的角度看,为了获得竞争优势,企业会主动提高其AI系统、产品与服务的可解释程度,从而让更多人愿意采纳或使用其人工智能应用,进而维持自身的市场竞争力;
另一方面,从用户的角度看,用户会用脚投票,即如果用户不理解AI系统的运作,在使用AI系统、产品与服务时可能存在顾虑,这意味着可解释性不足、难以被用户理解的AI系统、产品与服务将无法获得用户的持久信任,因而用户对此类AI应用的需求也会降低。
就目前而言,主流科技公司纷纷重视AI的可解释性研究与应用,已在积极探索人工智能可解释性的实现方式。
例如,谷歌的模型卡片机制(Model Cards),旨在以通俗、简明、易懂的方式让人们看懂并理解算法的运作过程,对模型的输入、输出、模型架构、性能、局限性等进行描述。
IBM的AI事实清单机制(AI Fact Sheets),旨在提供与AI模型或服务的创建和部署有关的信息,包括目的、预期用途、训练数据、模型信息、输入和输出、性能指标、偏见、鲁棒性、领域转移、最佳条件、不良条件、解释、联系信息等。面向未来,应着重通过最佳实践做法、技术指南、自律公约等行业自律措施来支持可解释人工智能的发展。
(四)替代性机制和伦理规范作为对可解释性要求的有益补充
虽然可解释性是完善AI技术的最优解之一,但并非所有的AI系统及其决策都可以解释,或者都需要解释。当AI系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。
目前在技术上主张的是采取适当的替代性机制,如第三方反馈、申诉机制与人类审查介入、常规监测、审计(Auditing)等,这些替代性机制可以对AI算法的决策起到监督和保障作用。
例如,第三方标记反馈机制允许人们针对AI系统提供使用上的反馈,常见的标记反馈技术包括用户反馈渠道(“点击反馈”按钮)、漏洞奖励机制等。
用户申诉机制能够对AI系统及其开发者形成有效监督,也是实现AI可责性的重要保障。中国的《信息安全技术个人信息安全规范》《网络安全标准实践指南》等标准都对用户的投诉、质疑、反馈以及人工复核等机制作出了具体规定。
常规监测包括严格且持续的测试、对抗测试等,旨在发现系统中的问题并及时改进。
审计机制作为确保AI可责性的重要方式,是对AI算法应用情况的记录、回溯和追查,通过算法审计可以达到反向解释的作用,降低算法黑箱的不良影响。