首页 >  期刊文章 >  

人工智能时代算法审计的研究态势、运行机制和实践策略
2025-02-12   来源:刘国城 杨丽丽   

摘 要:近年来,人工智能算法在推动数字经济发展的同时引发了诸多社会问题。算法审计作为一种新型审计范式,对于规制算法风险、监管算法应用、促进算法治理起到了重要作用。目前我国算法审计规制体系缺乏科学标准的流程规范和具体可行的运行机制,我国亟须一套相对成熟的算法审计机制以对算法审计实践进行指导。文章首先分析了人工智能时代算法审计的研究态势;其次,基于算法主体、算法数据、算法程序、算法后果四个方面构建人工智能时代算法审计的运行框架;再次,从审计规范与制度、审计人才团队、算法审计原则等视角探索开展算法审计活动的实践策略。有关思路和结论旨在推动算法审计实践的有效开展,且为算法审计的理论研究提供参考和借鉴。
关键词: 人工智能;算法审计;算法治理;算法问责;算法审计伦理
中图分类号:TP18;F239.4     文献标识码:A     
文章编号:1005-3492(2024)12-0077-14



作为人工智能核心技术之一,算法凭借强大的计算能力以及自主学习与决策功能,被应用于行政、金融、医疗、交通等诸多领域。算法的广泛应用能够有效推动自动化决策进步,提高各类组织的工作效率。然而,算法在赋能社会发展的同时,也带来了许多潜在风险,如算法偏见、算法黑箱、算法共谋、算法歧视、算法操纵等,从而造成大数据“杀熟”、隐私泄露等一系列负面影响。近年来,有关算法治理的需求日益凸显,依据国家互联网信息办公室等九部委制定的《关于加强互联网信息服务算法综合治理的指导意见》(2021)来看,算法治理已成为我国促进数字经济健康发展的重要监管对象,优化算法治理结构,建立保障算法安全的长效机制,将成为健全算法安全治理机制的工作重点。

目前,在全球范围内的算法治理实践中,针对算法的治理多为公法规制、伦理约束和技术改进等方法,但算法的应用范围极为广泛,算法内部的技术结构复杂化且专业化,基于算法透明原则的治理途径无法高效开展。为应对各类算法问题,算法治理需要开拓全新的范式,融合多路径、多模块治理模式进行多元监管。算法审计是遵循伦理原则、技术正当性以及法律法规,对算法自身及相关行为活动、有关算法主体等开展合规性审查,评估算法影响并确定算法风险等级,以保障算法透明度和可解释性的一类特定审计活动。作为一种创新型审计模式,算法审计能够适应算法动态多变的特性,揭示算法应用中所隐藏的伦理问题,落实算法责任主体,缓解算法透明原则与知识产权保护之间的冲突,约束各类组织配合算法监管部门进行自我规制,推动法律、技术和伦理三元共治机制的有效落地,且为完善算法风险管控机制和责任追溯机制提供依据。因此,算法审计将会逐步成为算法治理实践中的一类新兴治理工具,发展算法审计是完善我国算法应用领域下多元监管协同治理机制的重要环节。



人工智能时代算法审计的研究态势

(一)算法风险与影响

随着算法应用的逐渐普及,算法技术的滥用时有发生,进而会导致算法偏见、算法黑箱、算法异化等算法风险。有关算法风险与影响的研究主要集中于:(1)算法偏见。算法偏见会导致算法运行系统产生偏见的结果输出,影响决策制定。从算法设计到运行的各个环节都可能存在算法偏见,Ayanna等经研究发现设计者的价值观、偏见和缺陷会反映在算法上,进而可能产生带有偏见的结论,固化社会偏见,并引起社会不公正现象。此外,王莹认为,在算法自身方面,算法可能因不匹配、设计运行、编码出错等原因做出错误决策。(2)算法黑箱。算法黑箱是由算法的内部处理过程不透明、不公开和算法技术的复杂性等原因导致的算法风险。算法中的“黑箱”会掩盖算法设计意图和最终目标,可能会导致欺诈风险、数字鸿沟等问题。张涛和马海群认为算法黑箱意味着不能观察和无法理解,会使算法的分析结果出现不确定性、不透明性和高风险性,从而隐藏某些潜在风险,引起重大安全隐患。(3)算法异化。算法异化会导致算法应用者被算法操控,使得原本为算法使用者创造的算法在应用过程中产生了与预期目标不相符的负面影响。于文轩和刘丽红认为算法权力异化会造成信息茧房、隐私泄露、数据鸿沟等后果,以致侵害公民隐私权、平等权甚至生存权等基本个人权利。

(二)算法责任与分配

算法作为一项能够映射人类价值观的技术,在具有工具性的同时具备社会价值维度。对算法进行治理涉及算法责任的认定与分配,且需要落实算法责任主体,合理分配算法责任。而算法责任主体并不单一,算法本身、算法系统、设计者、管理者和应用者等都与之相关。有关算法责任与分配的文献积累具体有:(1)算法责任的产生。肖红军认为算法作为“代理者”,算法责任的出现与算法权力的崛起相匹配,算法自身承载的社会主体的价值观和引发的社会影响是算法责任产生的根本原因。而袁文全则将算法责任作为人类主体社会责任的延展,提出算法系统、算法设计者、算法应用者等个人以及社会在内的责任闭环。基于责任伦理,张博认为算法责任是治理主体为应对算法技术滥用对社会稳定和个人安全造成的威胁所提出的概念,属于人工智能时代下数字技术治理的伦理范畴。(2)算法责任的分配。Martin认为算法责任主体涉及算法开发者、设计者、部署者和应用者。基于算法的工具性,高丽华和杨新雨认为算法在运行过程中带有平台所主导的意识形态和价值观,平台应承担算法管理阶段的主体责任。而在算法研发方面,李晓楠提出算法开发人员应在设计层面遵循相应的规范,加入保障措施以应对可能发生的异常情况,负责算法模型测试和代码检查并承担算法解释责任。

(三)算法治理与审计

人工智能时代,算法治理的涉及面较广,应从算法法律法规的宏观规范、算法伦理原则的体系构建、算法设计的技术完善等层面开展多元化协同治理。有关算法治理的文献主要集中于:(1)伦理治理。算法伦理原则是算法治理的先行条件和根本准则,设定合适准确的伦理准则是构建算法规则的核心。Jobin等从宏观视角提出有关算法伦理规制体系的四项准则,并从微观视角强调算法应用的责任义务和具体规范要求。李林建议从设计算法伦理标准的理论层面和优化算法伦理审查模式的制度层面完善算法的伦理审查进路。(2)制度规制。以伦理原则为基础,规范算法运行需要依托有关政策和法律的设立,以保障算法治理能自上而下展开。张凌寒探索算法权力的异化风险,且基于法律视角探索算法权力规制的基本思路和制度路径。宋华健认为算法治理的制度化构建应立足实践,实现由个案到法律普遍化的渐进式立法。(3)技术治理。作为必要的执行机制,运用技术手段进行算法治理是具体落实各项伦理准则和法律法规的重要途径。Timcke选择利用技术制约技术,可将算法监督和治理的规范要求以代码形式嵌入算法设计之中,进而对算法运行结果进行监测。李震国等  借助逆推算法,提出解构算法“黑箱”,以提高算法的透明度和可解释性,并探析算法监管技术的优化策略。Tsamados等通过定量分析技术评估算法的合规性,构架特征指标矩阵、计划实验法等有关算法风险治理的技术性方法。

为应对算法危机,保障算法的合法性和安全性,有关组织需要运用各类审查工具和管理手段对算法应用进行多维度治理,如法律、伦理、技术等治理维度。作为一种独立的监督、鉴证与评价模式,算法审计已经逐渐成为算法监管体系的重要构成之一。有关于算法审计的理论研究主要聚焦于:(1)算法审计原则。从技术正当性出发,刘东亮和常纯认为算法审计应遵循三类原则,其一是坚持持续、动态原则,其二是遵循分类、分级原则,其三是遵守严格保密原则。而为了从伦理层面更好地规范算法审计工作,张超提出公共利益原则、介入无害原则、最小必要原则和情境理解原则。为提升评估算法风险的能力和落实审计规制,赵世清建议我国算法审计制度应构建完善的同行审计评议原则体系并强化技术监管。(2)算法审计内容。贺勇和尹思将算法流程分为设计、运行和后果三个阶段,以其涉及的算法设计机理,运行管理和经济后果等相关事项作为审计内容。为有效审查算法应用的合规性,Robertson等将算法模型、算法相关数据及有关技术活动纳入至算法审计内容体系之中。(3)算法审计方法。在算法审计实践中,除风险导向审计、制度基础审计等基本审计方法之外,还有重要性评估、控制性测试、实质性测试、分析性复核等传统审计技术可供审计主体采纳。此外,针对算法自身的复杂特性,审计主体还应将代码审计、代理审计、抓取审计、载体审计、协作式审计、非入侵式审计等新兴算法审计技术引入到算法审计方法体系之中,旨在更为精准地对算法偏见、算法黑箱、算法异化等问题开展深层次审计取证。综上,算法审计可被定义为遵循伦理原则、技术正当性和法律法规,运用特定的方法对算法自身及相关行为活动和有关算法主体进行合规性审查,以保障算法透明度和可解释性的审计活动。

(四)文献述评

通过梳理发现,现有文献在探究算法风险、影响、责任、分配等基础之上,进一步为如何有效开展算法审计设计了相适应的原则体系,分析了算法审计所应涵盖的内容与对象,从宏观层面提出了算法审计的初步框架,且结合算法自身的特性,将更多的算法监管技术引入审计方法体系之中,并根据特定场景发掘算法审计的价值意蕴与实践进路。既有研究为算法审计工作的开展和算法审计制度的构建开拓了全新的思路,并且为进一步规范算法应用提供了更多可供参考的流程和指南,研究成果丰富和完善了现有审计理论体系。然而,现有研究尚存不足,如缺乏对于算法审计运行机制的更深层面的论证,缺少算法审计问责制度和流程方面的更为科学的设计,等等。未来,国内学者的努力方向有必要侧重于:(1)从尽可能多的学科视角研究算法技术、应用场景、审计监督三者之间的交融机制;(2)从尽可能多的体系要素视角建构有关算法审计运行的理论体系;(3)从尽可能多的算法治理需求入手探析各类取证技术在算法审计中的应用模式;(4[)]从尽可能多的被审计行业对象着手研究不同审计业务对象类型对算法审计实施的影响;(5)从尽可能多的内容视角分析算法审计取证的深层次运作机理。



人工智能时代算法审计的运行机制

算法设计者、算法开发者、算法使用者、算法管理者等算法主体影响着算法应用中的数据获取与计算以及程序编译与运行,进而进一步影响着算法运行的质量和效果。本部分将算法主体、算法数据、算法程序、算法后果作为审计对象,探索人工智能时代算法审计的运行机制体系,分析上述不同对象下的审计内容、审计方法以及所应实现的审计标准,研究相应的模式与路径,以从落实算法责任主体、提高算法数据质量、完善算法应用程序、增强算法运行效果等层面推进人工智能时代下算法审计机制的有效实施和运行。

(一)基于算法主体的审计

对于算法研发与运行过程中产生的各种风险,算法本身并不能直接承担责任,审计主体应将算法研发人员、算法使用人员、算法管理人员等算法主体作为审计客体,对他们开展伦理审计,评估算法系统的管理体系,合理分配算法主体的义务与责任,并对算法主体的履责情况进行监督核查、责任界定以及行为监管。

1.对算法研发者的审计

算法研发者是指设计算法运行规则的主体,是算法的实际设计人。算法研发除了受法律法规和技术标准约束外,还应遵守伦理道德的要求。算法研发者应审慎设计算法,以保障算法研发的合规性,且实现算法可信。对算法研发者的审计具体涵盖:(1)算法技术规范的检验。首先,算法研发者有可能在不具备资质的情况下误用开源代码或误推算法产品,这则会加剧算法应用风险。为此,审计主体应核对研发者是否具备相关资质,且应关注研发者在算法设计研发环节是否对研发技术开展全面评估,并对研发者在数据采集、数据应用、程序编写、算法模型构建、训练和测试等阶段的技术行为进行审计,审验研发技术的选择和应用是否符合技术标准。其次,算法系统可能存在的安全漏洞为黑客攻击提供了可能,为保障算法稳定安全地运行,研发者有责任在算法程序和运行系统中添加风险防御机制,及时采取应对措施并更新与维护算法系统,减少算法受到攻击时产生的危害与风险。对此,审计主体应评估研发者所依托的算法技术规范的安全性以及研发技术选择的谨慎性。(2)算法伦理原则的审查。算法伦理原则是指算法研发与应用领域的基本道德原则,其要求研发者有义务将伦理道德以代码形式嵌入算法程序设计之中。算法研发者在构建算法模型时应将公众利益和人类福祉放于首位,秉持以人为中心的道德底线,遵循技术向善原则,对开发算法的技术应用行为负责,主动承担算法研发的道德和伦理责任,确保算法设计理念和实际用途具有一致性。由此,审计主体应关注伦理原则在算法产品研发层面的具体体现,并以此对算法研发者是否按照伦理要求设计算法的法定义务进行审计,检测其在设计和开发算法系统时是否存在算法歧视、算法偏见等行为,评价和判断研发者的道德素养和职业伦理,多视角审查算法的合法性、可信性和安全性。

2.对算法使用者的审计

算法使用者是向载有算法系统的人工智能平台及其用户直接提供算法应用的主体,是算法的最终控制者。算法使用者与人工智能平台使用者不同,这里的算法使用者特指在人工智能平台中通过算法系统对算法任务和算法服务进行配置的人员,而人工智能平台使用者是指运用人工智能平台获取特定任务和服务的员工或客户。审计主体应对算法使用者的算法配置行为开展审查,防止使用者将算法作为牟取利益的工具,从而导致算法滥用风险。对算法使用者的审计具体涵盖:(1)任务配置审查。算法使用者的行为影响着人工智能平台使用者对人工智能平台的使用及服务的获取。如果算法使用者有意或无意地误解了算法程序的操作流程,则会错误地分配算法任务,进而将导致人工智能平台运行偏离使用的初衷。由此,审计主体应根据算法操作规程和算法管理规章查验使用者分配各项任务的合理性、合规性和透明性。且依据责任配置原则,算法使用者应对算法的配置错误与目标偏离负责,审计人员应追溯相关算法使用者的责任。(2)使用者素质查验。首先,审计主体应熟知算法使用者的技能水平和执业素养,审查针对算法使用者的管理制度是否完善,审验算法使用者的工作流程是否科学规范。其次,审计主体应了解有关组织对算法使用者开展的各类培训情况,检验算法使用者的道德义务、道德责任,评判算法使用者的道德意识,力求基于使用者素养层面研判算法任务配置中的人员操作风险。(3)可解释性审查。基于算法治理中的透明原则,算法使用者具有算法解释义务。为此,审计主体应要求算法使用者向人工智能平台使用者公开算法的应用意图、适用条件、算法结果用途和存在的缺陷。如果产生风险,算法使用者还应对存疑事项进行解释,并追溯风险的成因。此外,审计主体需要根据算法使用者提供的运算数据、基本逻辑、决策流程等信息,评估算法应用系统的可理解性、可预防性和可追溯性,审查潜在的权限黑箱、规则黑箱及配置黑箱,判断算法使用者是否履行算法的可解释性义务,是否为人工智能平台使用者提供理解算法系统运行的正当方式和程序。

3.对算法管理者的审计

算法管理者负责对算法的组织管理、安全管理和风险控制。对算法管理者进行审计的重点在于评估算法运行过程的内部控制和管理体系,审查算法系统应用和管理算法技术的合规性。对算法管理者的审计具体涵盖:(1)组织管理的查验。首先,审计主体应对算法的管理机制和运行记录等进行审查,获取相关组织管理的信息,评估有关算法的运行效率、管理质量和设施条件的可持续性、可协调性和可预防性等指标,排查算法组织流程中可能存在的管理缺陷。其次,审计人员应运用人工或自动测试工具对算法运营管理开展实质性测试,获取有关算法组织管理方面的证据,并以相关法律法规制定的评估指标体系等为依据对算法运营管理进行评价与判断。(2)内部监管的审查。算法管理者所履行的内部监管工作主要是判断算法系统的设计、部署和操作是否符合法律规范和技术标准,是否存在谋取不正当利益行为,算法结果是否偏离预期目标以及算法使用者的操作是否脱离算法管理者的管控等。审计主体应对被审计单位的算法管理水平开展审查和监督,以确定算法管理者是否严格地执行监管任务,并审查人工智能算法的操作和管理是否符合伦理道德的标准,是否存在算法滥用、算法霸权等问题。(3)安全维护的审查。算法管理者需要对代码运行、训练调试、系统操作、人工智能平台运行等留存的数据履行严格的保密义务,微小的管理漏洞都可能导致严重的信息泄露风险。因此,审计主体应对算法系统的安全管理情形开展审计,评价算法应用中算法系统的安全性和信息保护机制的可靠性,查看算法管理者是否制定了完善的安全管理制度体系,是否对算法运行开展全过程监测和预警,判断算法管理者是否履行了保护人工智能平台使用者信息安全的责任。

(二)基于算法数据的审计

算法将输入数据转化为输出结果,若训练数据和输入数据存在不具有代表性、体量较小或精细度不够等问题,则可能导致算法决策出现错误,使算法结论偏离预期设计。因此,审计主体应对算法数据及其处理活动开展审计,并基于算法的输出数据,间接评估算法系统中数据模型的科学性,审查算法数据自身及其处理过程和运算模型是否存在风险漏洞。

1.对数据质量的审计

数据质量影响着算法质量。通过海量优质数据开展反复训练并不断迭代是构建可靠、可控算法模型的必要条件。数据自身的质量缺陷和主观偏见会引发算法缺陷、算法失灵、算法歧视等危机,进而产生输出信息质量缺陷、算法需求匹配失效、决策不公平现象等问题。为此,算法数据作为算法程序运行的重要基础,应对其质量实施审计。对数据质量的审计具体涵盖:(1)数据规模的审查。构建高质量算法模型需要优质的数据样本,数据的缺失会导致数据不完整,造成数据集不能代表整体,从而产生选择性偏见,以致得出不利于部分利益相关者的结论。审计主体应审查数据规模是否完备,数据样本量是否充足,检测算法数据的缺失情况和多样化程度,且基于多样性、完整性等评估标准,对算法系统中可能存在的数据不完整、数据量匮乏、数据空白、选择性偏见等问题开展全方位审验。(2)数据准确性的查验。算法以数据为基础,数据准确性较小,会导致算法模型缺乏可靠性、可控性以及所输出的结果存在质量缺陷。为此,审计主体应检测算法数据的正确性与精确性,判断是否存在数据选择不当或数据滞后等问题,并对不同数据在算法决策中的权重进行审计,防止算法数据粒度过大或过小从而导致潜在的客观性偏见影响。此外,审计主体还应审验所采集的算法数据是否存在主观性偏见或歧视,评估数据的公平性和合理性,防止算法决策损害部分利益相关者的权益。(3)数据相关性的检测。审计主体需要将算法数据的相关性纳入至算法审计之中,通过检测算法数据的相关性,观测算法使用的训练数据集和输入的用户数据集是否与算法设计的初衷一致,判断算法数据是否受到干扰或污染。

2.对数据处理的审计

人工智能算法的运行需要大量优质数据,算法系统应保障数据采集、使用、存储等各环节均具备合法性和安全性。数据泄露、数据来源不合法、数据被操纵等问题会导致算法运行缺乏可靠性和安全性,进而产生算法操纵、算法垄断等风险。为规范数据管理活动,审计主体应对算法系统中的数据来源、数据运用、数据安全等方面开展合规性审查与控制。对数据处理的审计具体涵盖:(1)数据采集的审计。审计主体需要对数据采集进行合规性审验,追溯算法数据来源,检测被审计单位是否使用非法数据、未经同意或者许可的数据或利用不合规的技术手段获取的数据,以防止数据采集侵犯公共或个人权益。在审查数据来源的同时,数据采集者有义务对数据采集过程提供详细的说明,审计主体应对审计客体披露的数据采集记录详细查验,对商业秘密、知识产权和个人隐私所涉列的保密措施逐项审核,评估算法数据的合规性、透明性、正当性和可追溯性,对算法数据的获取渠道是否合法、安全开展监测。(2)数据运用的审计。如果算法数据操作不透明,则可能会产生算法黑箱与偏见等问题。假若审计客体所收集的数据本身不带有偏见,但数据也可能被使用者有意操纵甚至垄断,进而导致大数据杀熟、信息茧房等问题。对此,审计主体应要求审计客体披露与数据处理相关的重要流程,要求审计客体对数据用途和使用细节做出合理解释,以防止数据的不确定性或难以理解性导致算法不透明。此外,审计主体还需进一步审核算法数据投入使用的实际情况,针对数据使用的具体途径和流程细节进行合规审计,识别、发现并控制算法滥用、操纵、垄断等各类风险,审查数据使用是否带有歧视或偏见。

3.对数据模型的审计

审计主体在明晰算法系统中数据模型的相关信息和关键特征的基础上,向数据模型输入特定的数据集,通过检测输出结果进而评估算法系统中数据模型是否存在潜在风险或负面影响。对算法系统中数据模型开展审计所使用的算法数据来源于两个方面,其一是算法系统自身,其二是人工智能平台及用户。针对上述两类数据来源,审计主体对数据模型的审计具体涵盖:(1)依托算法系统自身的数据模型审计。算法系统寓于人工智能平台之中,审计主体需要采用爬取审计方法,收集与算法系统自身相关的各类数据,并反复更换算法系统中的输入数据,得到算法运行后的各种输出数据,分析和观察算法系统中推出的决策结果,反推至算法系统中数据模型的审计,且通过检测算法系统中数据来间接评估算法模型的可靠性、可行性、公平性等,审查算法系统中数据模型在处理算法数据时是否存在偏见、操纵等风险。(2)依托人工智能平台及用户的数据模型审计。审计主体通过招募人工智能平台中的真实用户或用计算机程序模拟虚拟用户,进而与算法系统进行交互并对算法系统中的数据模型进行测试。在交互与测试过程中,审计主体可采用非侵入式审计、代理审计、众包审计等方法,收集算法系统中数据模型的输出数据以及用户自愿贡献的账户数据,并对此进行审核,以此验证算法系统中数据模型从输入到输出的流程是否合规,分析和检验算法输出的结果,评估算法系统中数据模型的可靠性、稳定性和可控性。

(三)基于算法程序的审计

算法程序设计中的技术漏洞会导致算法程序运行实际偏离预期,致使算法程序存在设计欠缺或算法程序易于遭受外界攻击,进而引发算法的缺陷风险和失灵风险。由此,审计主体应熟悉算法程序设计中的技术逻辑,并对源代码、源数据、算法模型、算法意图、算法机理、算法技术标准以及算法伦理规范等事项开展全方位审计。

1.程序设计中的技术缺陷审计

算法程序主要包括算法结构和算法代码,二者的技术缺陷会导致算法出现程序错误和安全漏洞。对此,审计主体需要审查的技术缺陷主要涵盖算法结构缺陷和算法代码缺陷。从算法结构缺陷来看,算法设计者的认知局限可能会导致自身做出错误判断,所设计的算法结构存在逻辑缺陷,从而造成所构建的算法模型产生偏差。算法程序设计是得出算法决策结果的基础,带有缺陷和偏差的算法结构使得算法产品自身无法实现设计人员预期的效果,于是产生算法需求与匹配之间的矛盾,并以此形成算法偏差风险。从算法代码缺陷来看,算法程序是由编程代码组成,算法代码可能存在编程瑕疵或技术漏洞,这将导致不符合技术标准的代码设计出现,进而对算法模型的构建产生负面影响。而且,算法代码缺陷会导致算法易于受到外界的攻击和干扰,出现代码错误,从而导致算法程序失效、操作功能失灵等问题,以致算法程序在运行中脱离控制机制,影响算法功能的正常运行,并引发算法失灵风险。

针对算法程序设计中的技术缺陷,审计主体应从初始代码层入手,深层次审查算法代码设计是否符合技术标准,评估算法程序的复杂性、可操作性、可理解性和鲁棒性,并基于算法透明原则,要求审计客体公开源代码,以对算法结构和算法代码所存在的问题进行有效规制。对于算法程序设计中的技术缺陷审计,有两种审计方法可供选用:(1)代码审计。代码审计是一种源代码分析技术,其通过反编译技术解构算法程序,获取程序源码,对算法源代码进行审验,以发现程序错误和安全漏洞,并主动发现算法程序中可能存在的代码安全问题。(2)工具审计。与代码审计不同,工具审计是利用“静态代码分析”“动态代码分析”“交互式代码分析”“算法偏见探测”等现有的审计技术工具探测算法程序设计中的技术缺陷问题。审计主体需要将所采集到的源数据输入到特定审计工具之中,运用现有技术工具稽查算法设计中的程序结构和代码,评估算法程序设计中所涉列技术的安全性、可靠性和可控性。

2.程序设计中的技术伦理审计

在算法的研发过程中,审计客体为实现预期技术或经济目标,会将自身的主观价值偏好和利益倾向融入算法程序设计理念之中,且以数据和代码的形式嵌入到算法模型构建之中,以隐蔽的价值理念影响着算法决策结果。上述情形将会使得算法程序的设计存在伦理道德缺失,进而导致算法系统本应设定的程序规则受到干扰和破坏,以致引发算法霸权、算法共谋、算法权力异化等问题。

审计主体需要关注技术伦理在算法程序设计中的软约束作用,强化对算法程序设计中有关设计意图、技术机理、价值观念等方面的审计,及时发现算法程序设计理念中所隐含的伦理问题。有关程序设计中的伦理审计,可从两方面着手:(1)获取信息。审计主体所需获取的数据资料包括与算法系统相关的架构原理、技术嵌入、操控流程与运行记录等,以及与研发人员相关的问题修复记录、系统升级文档和故障解释信息等。上述信息的取得,审计人员可依托透明性原则,直接从审计客体处询问、查阅和调取,也可在算法备案信息中合法获取,还可结合访谈、问卷、观察、分析等审计方法进行有效补充。(2)分析取证。审计主体可借鉴逆向工程技术和反编译技术,解析所获取的与算法系统、研发人员相关的各类信息,通过静态分析和动态跟踪来确定算法程序设计者的思想倾向和价值理念,审查算法程序设计者是否将特定的价值偏好或利益倾向以代码的形式嵌入至算法程序之中,评估算法程序设计中的道德理念是否符合伦理规范,判断算法霸权、算法偏见、算法遮蔽、算法短视、算法剥削等伦理危机是否真实存在,算法程序设计是否具有合规性、公平性、公正性,是否践行技术向善的目标。

(四)基于算法后果的审计

审计主体需要界定算法风险等级和风险程度,针对审计客体的算法实施,开展基于事后的风险影响评估,评价审计客体在算法实施后可能带给各个利益相关者的负面影响,确定因算法结论而产生的各种可能后果,且对审计客体的算法风险事故责任追溯以及事后救济开展全方位审查,并借助风险影响评估、责任追溯审查以及事后救济审计的结论,促使审计客体进一步强化对算法制度与机制的完善。

1.风险影响评估

算法引发的各类风险会造成利益相关者之间的冲突,损害人工智能平台用户的权益。由此,在推出算法结论后,审计主体应及时关注算法效果,如经济后果和社会效益等,通过对算法进行基于事后的风险影响评估进而有效预测与识别潜在的算法风险。审计主体实施风险影响评估的具体步骤有:(1)构建评估指标体系。算法风险影响评估是基于评估指标体系对算法风险因素、安全问题、潜在后果等方面进行系统性评价的一种评估程序。审计主体应结合特定领域下算法应用的具体场景,以安全性、公平性、稳健性、可控性、可预防性等指标为参考,以算法可能产生的负面影响、算法风险的影响程度、算法影响的持续时间、受影响对象的损失情况等为内容,构建科学的算法风险影响评估指标体系。(2)风险影响评估的流程运行。审计主体首先需要对评估指标体系进行赋值,数值可以是人工智能平台用户亲自参与方式所获取的用户受算法影响的反馈数据,还可以是审计主体集合相关领域专家针对被审计算法风险影响的赋分数据;其次,审计主体可借助专家意见、德尔菲等定性评价方法或层次分析、熵权、模糊综合评价等定量评价方法,开展有关算法风险影响的计算与估计;再次,结合计算结果及风险等级界定,预测被审计算法存在侵犯利益相关者权益的可能性,评估算法风险所带来的影响及后果,并对算法的安全性、公平性、稳健性以及算法管理体系和风险应对机制发表审计意见。

2.责任追溯审查

对于算法应用引发的损害,算法本身并不承担责任。作为算法拥有者的审计客体,需要对由算法风险导致的责任问题进行责任分配和责任追溯。此外,审计主体应对审计客体确定的算法损害责任分配和追溯机制进行审查,判断各责任主体所分配的责任是否科学公正,评估算法责任分配的合理性、公平性和可追溯性。审计主体实施责任追溯审查主要聚焦于:(1)算法责任分配的审查。审计客体是算法系统的所有者,作为算法安全的责任主体,审计客体本应建立健全算法全流程监管制度及算法问责机制,明确算法责任主体、决策行为、损害后果、责任分担以及它们之间的衔接关系,从而确定和分配算法责任,将算法造成的后果与具体责任主体明确对应。为此,审计主体应基于透明性及可问责性原则,审查审计客体所制定的有关算法问责方面的机制与规范,并评估各类算法主体所承担算法责任的透明度、可控制性、可约束性和可问责性。(2)算法责任追溯的审查。为确保算法生命周期各阶段的责任可追溯,审计主体应结合前述的算法责任分配审查的结论,明晰算法风险事故的成因及责任认定,审查审计客体所构建的算法责任追溯制度的合理性、可行性和可控性,评价算法责任追溯制度是否与算法问责原则相匹配,判断责任追溯机制能否对算法研发者、使用者和管理者起到威慑作用,能否促使审计客体在算法研发、运营等阶段遵循相关法律法规和伦理道德规范,能否基于责任追溯视角提高算法决策的公平性。

3.事后救济审查

算法滥用和误用等行为会导致信息茧房、大数据杀熟、数据鸿沟等问题,进而将会严重损害利益相关者的合法权益。若发生算法风险并对相关利益方造成损害,则受到算法侵害的个人或组织有权利行使追偿权,算法责任主体且应对此进行补救和赔偿。审计主体实施事后救济审查主要聚焦于:(1)事后救济义务的审查。算法责任主体有义务进行事后救济,对偏离价值正轨的算法行为进行规制和修正,向受到算法侵害的个人或组织提供合理有效的救济途径,允许受害者行使所拥有的追偿权。建立事后救济机制能够强化算法的可解释性和安全性,增强算法设计和运行的科学性和合理性。审计主体应将对审计客体事后救济义务的审查纳入算法审计范围,将对算法后果的事后救济措施纳入保障算法安全、规制算法风险的审计活动中,查验审计客体是否对各类算法主体的救济义务进行明确划定,合理评判相关责任主体对算法侵害的事后救济义务,并在算法归责原则的基础上对审计客体施加更为有效的约束。(2)事后救济实施的审查。审计主体应结合各类算法主体提供的算法安全运行流程、算法安全保障措施、算法规制和修正程序、人工智能平台用户维权等信息,对算法主体进行事后救济的情形、方式、程度以及有关事后救济的制度与规定开展合规性审查,评判与算法主体相关的各项事后救济措施的可接受性、可行性和道德性,查验算法主体是否对所造成的损害承担相应的赔偿责任,是否积极履行事后救济义务。



人工智能时代算法审计的实践策略

(一)完善算法审计规范与制度

截至目前,我国未曾出台有关算法审计方面的规范与制度,仅是颁布了有关算法治理方面的一系列文件,如《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》《信息安全技术 个人信息安全规范》等。规范是指明文规定或约定俗成的标准,制度是指共同遵守的办事规程或行动准则。完善算法审计规范与制度,能够明确审计主体的工作方向、方法和重点,约束审计主体的行为,且使得审计主体在算法审计实践中有据可依,有章可循。

1.健全算法影响评估制度

算法影响评估涵盖评估指标、评估流程和评估内容等要素,是覆盖算法从研发设计到投入运行的全流程评估。目前,已有许多国家在探索算法影响评估制度的构建,且算法影响评估制度已经成为各国立法者竞相关注的焦点,如美国在2018年颁布《算法问责法》,提出基于自动化决策系统的影响评估制度;加拿大在2019年颁布《自动化决策指令》,探索如何创建算法影响评估指标体系;欧盟在2020年推出《人工智能白皮书》,提出算法影响评估标准。开展算法影响评估是审计主体预测与识别算法风险的有效手段之一,其是基于合法性、可解释性、安全性、可控性等指标对可能产生的各类算法影响所做出的系统性评价。我国政府有必要将算法影响评估制度纳入至算法审计制度体系构建之中,且应以算法架构复杂性、部署目的、任务类型、影响主体、影响范围、影响程度、所涉数据和个人信息的敏感程度为基础,基于审计视角构架完备的并能够感知各类风险的算法影响评估制度体系。完善的算法影响评估制度能够为审计主体进行算法风险评价与分析提供依据,有助于审计主体更加高效地把握算法系统的风险程度,揭露算法应用背后所隐藏的安全漏洞,有利于从审计视角强化算法开发及应用的透明度和可解释性。

2.构建分类分级审计制度

有关算法的输入数据、计算模型、运行环境、使用场景、主体价值观等因素具有多样性,它们都会对算法系统的透明度、准确性、可解释性、正当性、安全性等方面产生不同的作用和影响,进而导致算法风险呈现出隐蔽性、差异性、相对性等特征。为此,审计主体需要针对算法研发和应用问题,构建分类分级审计制度,这将有助于提高算法审计的准确性。构建分类分级审计制度需要考虑两个方面:(1)分类审计制度。对于应用于不同领域的不同算法,审计的内容和侧重点有所不同。审计主体需要借助分类审计模式,通晓不同类型算法的本质特征、功能实现与风险表现,且结合特定类型算法的优势、劣势和适用情形,选择与特定类型相契合的审计方法和审计程序。(2)分级审计制度。审计主体需要引入分级审计模式,首先界定特定类型下算法风险的程度和等级,其次,判定特定类型算法在研发阶段和运行阶段所产生风险的程度,再次,根据上述风险程度确定特定类型算法的风险等级,并依托所确定的风险等级选择与之相匹配的审计策略。审计主体开展算法分类分级审计的前提是自身必须事先根据不同类型算法的特征、不同风险程度所对应的风险等级,制定不同算法类型及不同风险等级下的具体审计方案。对于高风险、影响范围广的算法,应采取更加审慎的审计策略,且存在着进一步追加审计程序的可能。而对于低风险、影响范围较小的算法,则可以提出相对简要的审计建议及完善措施。

3.建立算法审计问责制度

审计问责是审计主体对违反法规、制度、标准、规范而造成不良影响或风险损失的事项进行问责,调查、核实并追究直接责任人的直接责任及领导者、监督者的间接责任。审计主体有必要遵循实事求是、权责对应、惩教结合、宽严相济等原则,构建完备的算法审计问责制度,对违反算法相关法规与规范、违反算法设计和运行流程、未履行或未正确履行职责等情形的责任单位或人员,开展直接问责、责成问责或提请问责,以提升算法应用的合法性、安全性和可问责性。直接问责是指直接对算法责任部门或算法责任人进行问责,责成问责是指指定专人或专门机构进行问责,提请问责是指向上级提议并请求批准进而对算法责任部门或算法责任人进行问责。构建科学的审计问责机制需要将秩序、安全、公平等法律的价值目标融入算法审计问责程序之中,且需要做好与其他监督的贯通协同,形成监督合力。实施算法审计问责制度能够强化责任意识,促进算法责任主体及时对算法设计与应用各个阶段的潜在问题或已发生的算法侵害作出回应,倒逼算法主体快速改良算法性能,强化审计客体及时完善算法制度与机制。

(二)孕育高水平算法审计人才团队

算法审计是人工智能算法与审计取证二者的深度融合,其涉及人工智能科学、审计学、安全科学与工程、伦理学等学科领域知识。人才是推动算法审计发展的核心要素,优秀的人才可以为组织带来更好的产品质量和更高的工作效率,算法审计工作创新需要凝聚更多的具有跨学科知识且擅于知识整合的复合型人才,而人才培养和团队建设则是凝聚算法审计人才的关键。

1.建设专业化审计队伍

审计人员的专业能力决定着算法审计的实施效果,算法在研发设计、组织部署和操作运行等方面的专业性较强,传统审计人员无法全面胜任人工智能时代下以各类算法的设计、部署和应用为对象的新型审计任务。由此,构建具备相关专业能力的高水平算法审计队伍势在必行,且审计主体的努力方向具体有:(1)优化人才引进机制。传统审计方法、思路、模式已无法满足人工智能时代算法审计的全新需求和要求,算法技术的复杂性特征以及算法权力滥用、算法黑箱、算法遮蔽等问题的产生都对算法审计人员提出了更高的挑战,上述因素相互叠加,共同促使算法审计人员不仅需要熟知传统审计理论,还需通晓算法建模、算法应用、代码编程等人工智能领域的技术和方法,更需掌握信息安全、伦理科学等方面的知识与经验。为有效推动高水平算法审计队伍的形成,审计主体需要结合人工智能时代对算法审计人才的现实要求,制定明确的人才引进政策,设置科学的人才引进标准和程序,收集相关人才信息并建立人才库,灵活利用多种渠道广纳贤才,并为引进的人才提供良好的工作环境,建立科学的激励机制,吸引和留住人才,以为算法审计的发展提供强有力的人才支撑。(2)完善人才管理机制。审计主体应基于算法审计的模式及特点,从培训、评价、发展三个层面孕育科学的人才管理机制。首先,在人才培训方面,可针对员工在算法应用中的某一短板制定个性化理论培训,或开展提升算法治理能力的实践能力培训,抑或采用培训班、课堂教学、在线互动等方式相融合开展多元化培训。其次,在人才评价方面,应加强员工的绩效评价及职业发展规划,以有力推动算法审计人才的开发及审计人力资源的配置。再次,在人才发展方面,需要加强算法审计人员的岗位轮换,为他们提供明确的职业晋升通道,并提供专业书籍、导师解惑等资源支持,以促使算法审计人员拓宽视野和经验,持续通过学习与实践提升自身的专业化能力。

2.提升审计人员职业素养

职业素养是个人在职业活动中需要遵守的行为规范,主要涵盖思想素养、道德素养、文化素养、专业素养、学习创新素质等。审计人员所具有的职业素养决定着自身的职业发展,审计人员在算法审计工作中,仅有通过不断的实践、思考和学习,才能有效提升自身的职业素养。算法审计人员提升自身职业素养应从如下方面入手:(1)思想与道德素养。审计人员需要拥有良好的思想素养和道德素养,且在算法审计实践中有效提升自身的思想认识、道德认识、思想觉悟、道德信念、价值观念和道德意志。唯有此,审计人员将不会利用被审计算法系统中的技术漏洞故意对审计结论进行操控,也不会基于侥幸和懒惰的心理,进而放弃职业怀疑和职业判断,以迎合被审计算法系统中的结论。(2)文化与专业素养。文化素养要求审计人员应提升对算法审计文化的认知、理解和运用能力。专业素养要求审计人员不仅拥有算法审计所必需的专业知识、专业理论、专业技能,而且还应具备对有关算法审计的职业道德、专业操守的认同和操守能力。人工智能时代,算法知识更新的速度远超审计人员知识增长的速度,如果审计人员的文化素养与算法审计文化的建设要求不匹配,审计人员的专业素养与算法审计的创新发展不匹配,则不利于审计人员树立正确的工作理念、工作作风和职业观,且审计人员专业胜任能力将受到削弱。(3)学习和创新方面的素养。算法审计要求审计人员不仅具备审计方面的知识,还应具备回归算法、聚类算法、动态规划算法等方面的算法知识。如何将算法与审计有机融合于一体,已成为审计人员知识创新的难题。算法审计人员需要重视自身学习和创新方面素养的培养,且应不断提升自身的学习能力、信息能力、创新意识、创新精神和创新能力,这将有助于自身敢于探索新知识及勇于挑战新技术,有利于自身更容易成为审计、算法、安全、管理、伦理等多学科知识兼备的复合型人才。

(三)培育算法审计原则体系

  在审计业务活动中,审计主体应遵循独立性、客观性、公正性等基本原则。然而,因算法审计取证对象的特殊性,加之算法审计是基于算法全生命周期所实施的算法治理,所以,审计主体既需要依托技术标准和法律法规,对算法进行技术审查和合规审计,还应秉承算法治理原则及伦理原则,进一步对算法研发、部署、运行和管理等过程开展有关于算法影响、算法风险、算法安全、算法伦理等方面的评估。有鉴于此,审计主体需要在遵循审计一般性原则的基础上,有必要培育特别适用于算法审计自身的原则体系。

1.算法审计特定原则

为实现对算法审计对象的全方位监督与审查,审计主体应在算法审计工作中遵循如下特定原则:(1)分类分级审计原则。不同的算法被应用于不同的领域,由此而采用的审计模式与策略也不尽相同。审计主体应遵循分类分级原则,充分考虑算法类型、领域应用、运行场景、预期用途等因素,根据具体算法的风险程度及风险等级进而对算法开展分类分级审查,设计相应的审计方案和评估指标,有针对性地确定审计内容和重点。针对风险等级更高的算法,需切实加强审计强度与力度。(2)全链条审计原则。算法风险具有隐秘性、跨域性等特征,在算法的研发设计、部署运行、应用管理等阶段都会有不同情形的风险产生,这则要求审计主体必须着眼于算法的全链条治理,针对算法的全生命周期开展审计,详细审验在算法各个生命周期中所发生的相关行为活动及信息资料。此外,审计主体还应实现对所有审计对象的全覆盖,如算法主体、算法数据、算法程序、算法后果等。(3)持续动态审计原则。依托大数据驱动,算法具备自主学习能力,能够快速迭代,并具有自动化,智能化,动态化等特性。且审计客体也会根据自身需求不定期维护或更新算法,进而导致可能产生的算法风险无法被准确预测。对此,算法审计工作应秉承持续化和动态化原则,审计主体需要对算法的操作、运行和使用开展持续跟踪及预警,对被审计算法系统的数据更新、模型优化、用途变更等因素进行动态化监测,以通过持续审计模式,有效预防、揭示和抵御算法系统中的各类风险。

2.算法审计伦理原则

算法审计伦理是调节审计主体、审计客体、算法研发者、利益相关者等多方审计关系人之间互动关系的原则和规范。针对算法开发与应用环节所应培植的算法审计伦理原则体系聚焦于:(1)公共利益原则。公共利益原则首先要求审计主体在开展算法审计工作时,既要严格约束算法主体,全面揭示算法主体在算法研发和应用中所出现的各种问题,同时还要维护算法主体的权益,明确区分违规行为是算法主体的主观故意行为,还是客观过失行为,抑或是黑客入侵行为。其次,有别于私人利益,公共利益是整体性利益。在开展算法审计时,审计主体应兼顾各个利益相关者的利益,系统且全面地设计审计流程,不能将公共利益局限于多数人的利益,而忽视少数群体的利益。(2)介入无害原则。审计主体在运用爬取审计、代理审计、众包审计等方法进行算法审计时,会介入算法系统采集数据或者介入人工智能平台用户的账户获取隐私信息,这可能会导致算法的运行被干扰,或用户的隐私信息被泄露。因此,审计主体应遵循介入无害原则,慎重考虑介入行为所引发的后果,对介入行为进行限制,合理设置审计人员的介入时间、介入频率和介入方式,确保审计客体的数据存储安全和用户隐私安全。(3)最小必要原则。最小必要原则是指在通过数据处理以实现特定目标的同时,应采用最小范围和最小影响的方式处理相关数据。审计主体在采集有关算法研发和应用方面的数据时,应遵循最小必要原则,事先对所需求数据的具体类型、最小范围、最小影响、采集方式、使用途径等信息进行论证和设定,避免出现算法系统中数据过度采集和过度处理等情形,以保障自身在算法数据的采集和使用中合法、正当且必要。(4)情境理解原则。情境理解原则是指通过特定的场景、事例对具体的概念、理念或事物进行认识和领会。算法具有多样化、场景化、动态化等特征,审计主体应遵循情境理解原则,将特定类型算法、特定领域应用、特定审计过程三者相交融并布设于特定场景之下,以场景为中心深层次剖析构成和蕴涵在情景中的那些相互交织的因素及其相互之间的关系,基于场景情境多维度认知引发算法问题的因素、成因及作用逻辑,以此寻求算法审计问题的破解之道。

相关热词搜索:

上一篇:叙事魔力:何以触发网络直播购物的冲动购买行为——基于SOR与ELM理论模型的结合
下一篇:社会组织结对帮扶的合作网络何以陷入组织悬浮——基于Y社区基金会“公益村”建设项目的分析

期刊简介

主办单位:兰州市社会科学院
刊期:月刊
主编:曾月梅
副主编:王望
编辑部地址:兰州市金昌北路75号
通讯(投稿)地址:兰州市中央广场邮局《兰州学刊》信箱
电话:8801976
邮编:730030
Email信箱:LZXK@chinajournal.net.cn
Email信箱:LZXK@vip.163.com

最新公告
×
2025年《兰州学刊》刊期变更启事  为建设高水平一流学术期刊,经甘肃省新闻出版局批复同意,《兰州学刊》刊期从2025年元月起由月刊调整为双月刊,每逢双月25日出版,页码变更为224页。刊期调整后,《兰州学刊》将严格遵守《出版管理条例》《期刊出版管理规定》《报纸期刊质量管理规定》和“三审三校”制度等相关管理规定,树立精...

查看详细》