
法治化视域下大模型赋能政务服务研究
摘 要 以deepseek为代表的大模型技术带来了新一轮人工智能革命,为政务服务智能化转型提供了新机遇。从法治化视域探讨如何构建安全透明、合法合规的智能政务服务模型,分析政务大模型的应用情况和面临的挑战,包括数据安全、算法偏见、责任界定等问题,提出构建数据安全治理体系、算法审计机制、责任追究机制等法治化路径,以期为构建有效、便捷、安全的智能政务服务体系提供理论支撑和实践指引。
关键词 大模型;政务服务;智能化;法治化
近年来,我国互联网行业受到各级政府部门的关注。国家积极支持鼓励人工智能行业发展与创新。大模型的应用逐步覆盖了金融、医疗、教育、在线新经济等领域,并不断优化管理与服务模式。[1]自大模型工具问世以来,全球各国纷纷探索新技术在政府治理中的应用潜能,推动形成以运用智能大模型为标志的数字政府改革浪潮。法治是现代国家治理的重要方式,面对政务服务社会治理领域的新兴技术运用,运用法治思维分析问题和探寻优化路径具有重要现实意义。
一、政务服务大模型的应用分析
政务服务大模型是为政务服务数字化而设计的智能系统,帮助政府部门优化服务流程、增强服务质效及提高公众满意度。政务服务大模型在各具体应用场景里已取得显著成效。从应用广度看,生成式AI大模型在政务领域的应用探索已较为普遍,全球各主要国家和地区纷纷进行数字政务的战略部署。[2]从应用主体看,包括了中央政府部门及地方各级政府机关。在应用场景上,大模型的应用覆盖了格式生成、智慧问答、行政决策等多类功能,从内部事务处理到外部服务应用场景,融入政府事务的方方面面中。
(一)推出交互服务,拓宽个性化边界
智能化时代,公众对政务服务的要求越来越高。政务大模型可以通过对个人和企业的数据分析、提供个性化的服务来满足多元服务需求。基于政务大模型生成能力,政务流程的创建和审批得到极大简化;基于政务大模型交互能力,政务问答的准确率和响应效率显著提升。
在智能审批场景下,通过审批流程转化为电子文档、在线申请和审批、自动化通知等方式,实现了审批过程的快速、高效和透明。政务服务网正以前所未有的速度遍布全国各省份,以实现全国办事一网通的构想。智能审批能够帮助政府部门畅通内部人员办事流程,有利于行政机关的内部无纸化办公和机构优化,开展基于数据要素的科学决策和高效治理。[3]对外有利于服务公众,加强对审批过程的监督和管理,减少滥用职权的可能性,增强政府机构的管理能力,提高行政效率,真正实现办事“不多跑”“不跑空”。
在智能问答场景下,利用大模型技术优势,智能政务客服使其更具交互性、灵动性。通过政务服务大模型及政务知识库,加强训练,让智能客服具有基础的意图识别及服务能力,在具体交互服务过程中,可以快速根据办事人的指令,识别办事人意图,并提供精准的咨询问答、智能帮办、增值服务等。通过应用大模型的功能扩张,智能客服的服务对象从自然人延伸到法人,提供“AI合同”“AI设计”等企业增值服务。
(二)推动多元协同,加强精准管理
在政企合作中,政务服务大模型能够在政府主导主动主控下,以需求为导向,以需求引领技术,帮助企业寻找和培育创新发展转型升级的新引擎。同时,以智能大模型为纽带载体,充分链接行政执法部门的实践经验和企业的技术创新优势,为促进政府机关、企业及社会组织各方协同治理提供新思路,实现多方共赢。
智能监管是构建基于多元协同主体,如政府部门、社会公众、市场主体等需求特征的“人工智能+”解决方案。在智能监管场景下,政务大模型能精准识别不同群体在政务服务领域的异常行为,加强风险预警和风险把控,通过实时扫描相关数据、发现异常自动预警,助力监管部门事前及时排查风险,事中紧急调动资源,避免经济损失,事后加强防范,避免异常再发生。
(三)推进智能办公,提升工作效能
重大行政决策通过一系列法定程序以确保决策的科学性、民主性与合法性。在智能决策场景下,大模型技术正助力政府决策、服务与治理的智能化转型,推动数字政府迈入新阶段。在行政决策智能化进程中,政务大模型凭借其多源数据、多样类型、快速响应及真实性强的优势,有效满足了决策者的信息需求,突破了传统行政决策样本数量限制,为决策机关提供了全样本分析支持,提高相关信息收集的效率。大模型的信息采集能力具有完整性和及时性,能够快速、全面地收集决策执行过程中的数据,并根据外界变化实时更新。其重新整合数据和信息片段得以为现有决策的调整提供新的视角,同时也为决策后评估打下坚实的数据信息基础。
此外,大模型面向政务外部服务和内部管理,其有关技术手段助益于政府内部工作人员,构建横跨各部门、区域,纵跨整个业务链条的协同工作平台。政务大模型利用自身的数据整合能力,深度覆盖经济、社会、民生等各个领域,通过智能分析和模拟公文等,为政府决策提供深度准确参考。
二、政务服务大模型现存法律困境
(一)数据信息安全的风险挑战
政务服务大模型本质上仍然属于生成式人工智能,通过人工智能算法内容自动化生成的一类技术集合。操作流程中涉及的大量个人信息数据有待规范保护。《生成式人工智能服务管理暂行办法》作为我国首部大模型监管法规,制定了提供服务方需保证训练数据来源合法的规范。现实中大模型研发的头部企业声称采用先进的数据加密和匿名化技术保护数据安全,但仍存在非法爬取、收集个人信息的现象,不断挑战着数据最小化原则与告知同意原则的适用边界。
数据最小化原则旨在强调减少个人隐私泄露的风险,数据处理者仅收集和处理实现特定目的所需的最少数据。[4]在行政机关探索智能化政务服务的时候,由于依申请办理的公共服务事项的特殊性,政务服务大模型不可避免地涉及到相关隐私数据,在极有可能受到网络攻击危及数据安全的同时,也同样影响着政府公信力及经济社会稳定。政务服务大模型对于处理个人信息数据时,并没有对一般个人信息数据和特殊个人信息数据作保护程度上的区别与划分。特殊个人信息包括敏感信息处理、未成年信息处理及跨境信息处理等,其中对于特定类别尚需做二次类型化构建,例如,对于未成年个人信息需要以十四周岁年龄为界限划分。针对不同政务服务业务,大模型所需的个人信息也需要做类似区分。
告知同意原则保护数据主体的知情权和自决权,是个人信息保护的核心原则之一。预训练过程中使用的数据集本身具有间隔性,影响到了这一原则的适用。假定每一次数据集的使用都必须建立在告知同意原则的基础上,技术的使用效率将受到影响,并会阻碍大模型运作。这一原则不可避免地成为个人信息收集和处理中的“匹诺曹的谎言”。相应地,“匿名化信息免同意”规则并不适用于政务服务大模型,“匿名化”规则通过对信息的分类,事实上免除了行政机关作为数据处理者对这部分信息的天生的保护义务。信息经过匿名化过度处理而导致无法识别特定自然人也会影响涉及身份关系的政务服务办理。
(二)算法歧视下的公平困境
在政务服务大模型中,算法作为解决问题、产出结果的清晰指令,通过排列、搜索、分析、评估一系列技术组合,形成一定的策略机制。算法正在成为政府和市场之外调配资源的“第三只隐形的手”。[5]数字技术发展以来,正义正在自“无知之幕”向算法公平演进。政务服务大模型也正在成为世界各国提高数字政府治理效率、提升公共服务水平的重要举措。
当前,我国虽然已经形成以个人信息保护法为代表的“主干”、以次一级行政法规为“枝丫”的初级算法公平规范体系,但对算法公平的规范仍存在缺陷,如基础立法数目少、部门规章覆盖面窄、技术标准规范适用范围受限、存在敏感个人信息保护风险,等等。[6]以《中华人民共和国个人信息保护法》为例,其虽涉及算法公平议题,但规制范围主要局限于数据规制和数据赋权,缺乏对算法公平的全面考量。在次级立法层面,相关规范同样呈现出明显的局限性。例如,针对“大数据杀熟”的现象,未能充分涵盖算法公平的多元维度。《国务院反垄断委员会关于平台经济领域的反垄断指南》第十七条与《互联网信息服务算法推荐管理规定》第二十一条,分别从宏观市场结构调控和微观算法服务管理两个维度构建规制框架。然而,这些规范对涉及个人基本权利的歧视问题,特别是基于性别、年龄、健康状况等敏感信息而产生的现象,尚未建立有效的规范机制。尽管算法具备可解释性,但算法权力与公权力交织场景下的规范内容并不丰富,算法权力的各方位规范方式也不完善。
相较于传统歧视,算法歧视展现出独特的形成机理。其一,算法决策过程中缺少明确的因果关系,逻辑的丢失导致个体难以通过直接感知获取初步证据以启动维权程序。以劳动争议为例,传统歧视中劳动者可明确识别具体的地域歧视事由,而算法歧视侵权案件中则鲜有此类直观证据。特别是在服务对象差异性大、服务范围广的政务服务大模型中,地域、性别等歧视风险更为突出。其二,算法歧视往往根植于数据本身或社会现实中的结构性偏差,从其产生条件看,并不必然要求提供算法的一方具备主观故意。对于维护政务服务大模型中出现的算法公平,应以事前防范与事后救济的完整链条进行。
(三)未明确的事后追责路径
权责一致是监督正当行使的依据,是各权力运行目标与基本原则之一,也是法治政府建设的基本需求,该原则确保公共行政的可问责性。对大模型的监督和问责可以从“如何监督行政机关利用大模型”和“如何利用大模型对行政机关展开监督”两个角度着手,以保障权力和责任的统一。在数字政府时代,使用政务服务大模型也需坚持人工辅助、权责明晰、权责一致。在数字时代,政务服务大模型发生侵权损害公民利益的现象,由于使用者数量之多、服务范围之广、大模型生成“幻觉”,需要在明确政务大模型的开发者、运营者、使用者的责任划分,确保责任追究有法可依后,才确定合理明智的追责路径。[7]
面对大模型的多模态、跨领域特征引发的数据安全、算法歧视问题,引入行政诉讼是维护公法权利和维持客观秩序的必要保障。[8]行政公益诉讼有且只能由检察机关这个唯一主体提起。为了满足行政公益诉讼的客观诉讼需要,在发生侵害公共利益的情况下,检察机关可以提起行政公益诉讼。目前实践中,检察机关仍存在信息不对称、追责片面性等问题。行政公益诉讼中需要设立协作机制,以检察合力全方位推动各机关履职。面对政务大模型所带来的强大公权力侵害,办案需破除“信息孤岛”,促进公权力部门之间互联互通。
(四)数字人本观下的伦理规范缺位
在法律发展与社会发展良性互动下,以人为本的法律观作为普世的价值观植根于公众内心。以人为本的法律观是指人不仅作为主体还应该是自然人、理性人、社会人等各方面统一的伦理规范。算法技术的开发虽能在法律框架下进行,却难以适应更高层次的法理伦理标准,也缺乏必要的灵活性。[9]数字时代下,人类的社会属性相较于传统语境下发生了外延,以人为本的法律观应该做出新的变革和更新,以适应技术带来的伦理困境,形成数字人本法律观。平台掌握“私权力”的异军突起使得传统意义上的私权利—公权力的二元背景逐步转变为三元背景,在此背景下,伦理规范应当扮演“软法”的角色,通过明确人工智能大模型发展与治理的价值导向和基本准则,以更为灵活的方式引导通用技术发展。
数字人本法律观从维护数字人权的角度出发,政务服务大模型以人为中心,以服务大众为主要目的,在生成内容时更需遵循道德伦理基本原则。微观上,大模型的运行和决策机制应当充分回应服务对象的实际需求以实现个性化政务服务;从宏观视角来看,大模型以促进社会整体利益为根本目标。针对通用人工智能快速发展的趋势,当前算法治理平衡伦理法理,需要强化人本导向,借助数字人本法律观的理念,从伦理规范、法律规制和技术标准等多个维度,推动政务大模型的规范化发展,助力数字法治政府建设。
三、大模型赋能政务服务的法治化路径探索
(一)完善数据信息安全法律体系,设置“同意”门槛
数据是政务服务大模型构建语料库及后续运行的基础。政务服务大模型形成了从数据到模型、模型到监督办事和监督办事再反哺数据的闭环模式。首先,数据到模型阶段,政府应将数据来源合法性和质量筛选标准统一性放在首位。在数据来源上,应用者要明确数据的所有权、管理责任和使用规范。在质量筛选标准上,政府要通过数据质量监控体系,对数据采集、存储、处理等环节实时监控和预警。其次,在模型到监督办事阶段,采用先进的数据清洗技术,将输入端数据脱敏整合至统一数据平台中,以供大模型使用;此外,还需加强数据安全管理,加强数据防盗和防泄漏,制定数据标注规则。[10]在此基础上,构建灵活可扩展的技术架构,以适应超大数据量、复杂算法和高并发处理需求。再次,在“反哺”阶段,通过数字建模归集新的数据丰富数据库,优化数据要素分配机制,确保各方平等共享数字红利的治理成果。
要加强立法健全管理制度,与业务需求机关共同建立严格的数据管理规范,涵盖政务数据采集、存储、加工、传输等全流程各环节,避免数据在以上流程中被非法使用。明确数据安全责任制,加强数据安全合规审查。综合运用数据加密、数据备份、安全漏洞应急响应等方式,多维度有效保证数据及用户隐私安全。在完善数据安全和个人信息保护法律法规方面,要在坚持同意原则的基础上进行扩充。二次同意原则原本是针对未成年人信息和敏感信息,大模型收集不满十四周岁未成年人信息的使用目的、处理方式等内容发生实质性变化时,必须要再次征得本人和监护人的同意。对于政务服务而言,出于对其公众信息敏感性、业务多阶段性以及政府机关的公信力的考虑,大模型也应设置多次同意门槛,规避由于法人或个人的故意行为所导致的网络产品和服务安全风险,逐步实现可审核、可追溯。
(二)建立健全算法监管制度,梳理受保护特征
算法权力在数字社会一旦生成就具有强大控制力。同时,算法固有的不透明性和操作模糊性的黑箱属性又为算法权力的隐性运作提供了空间和条件。在我国的政治背景下,行政机关的公权力由人大授予,根本上是由人民赋予,政务服务大模型的算法权力与这有所冲突。而算法权力失序易引发社会风险与公平歧视。
解决算法歧视的关键是厘清构成不正当差别对待的影响因素,算法“偏见进,则偏见出”必然造成歧视性意识形态的恶性循环传递。[11]受保护特征具有因大模型应用场景差异而动态变化的特性。政务服务领域与其他行业有一定程度上的应用场景交叉。以政府性融资担保审批环节为例,引入企业的经营要求和绩效考核可能导致系统性偏见;而在个人公共医疗保险领域,性别、年龄等敏感因素也会有所影响,若将这些特征与医疗资源分布以及损失补偿条件挂钩,则可能侵害某些特定群体的权益。因此,基于算法公正原则制定受保护特征目录时,需兼顾不同行业里高风险场景特性,定期对算法进行审计,确保其公平性和透明性。[12]算法审计过程中需完善多主体的监督渠道,将多维主体纳入算法审计的监管框架之中。
(三)明确应用追责机制,厘清追责路径
行政机关在办理有关案件中可能会作为信息数据的直接处理者、产业行业的监管者以及作为公权力机关履行保护义务职能的角色。对于相应的法律责任承担可以参考以行政公益诉讼的方式展开。
行政公益诉讼所具备的预防性特征在数据安全与信息保护领域的重要性尤为突出。在政府信息公开的领域中,预防性行政诉讼使用“事中救济”手段维护当事人权益,以此提高政府信息公开的公信力。[13]随着生成式人工智能的发展,为解决大模型对个体权益侵犯造成的损害难以补救这一问题,行政公益诉讼需逐渐从结果救济转变至预防规制。一旦发现了现实紧迫的危险情形,检察机关主动提起行政公益诉讼,公诉权介入时间点并非像传统检察模式待到损害发生,抑或关联刑事案件结案之后。行政公益诉讼的有效实施需要大模型应用机关落实执行知情同意原则以及数据最小化原则,加大行政执法的前端工作力度,以实现预防性价值。同时,行政公益诉讼中需要设立协作机制,以检察合力全方位推动各机关履职。面对政务服务大模型带来的强大公权力侵害,办案需破除“信息孤岛”,促进公权力部门之间互联互通。
对于研发者而言,政务大模型输出内容中如存在不实误导信息,提问者因为被误导而导致损失,从一般法理上说,研发者应承担责任,但需结合具体情形判断其过错程度及法律适用。其一,侵权责任。若大模型研发公司存在过错,例如,未采取合理技术措施过滤不实信息(包括未设置事实核查机制等),则应承担责任。若研发公司能证明已尽到合理审查等义务,如进行了大量数据训练、质量检测等,不实信息是因用户特殊提问方式等原因导致,则可能免除或减轻责任。[14]其二,产品责任。研发者将大模型作为虚拟产品产出并有偿提供给需求方,可将大模型视为“产品”。若不实信息足以构成“缺陷”,则研发大模型的公司需承担产品责任。但“算法产品”是否适用产品责任以及构成“缺陷”的标准,尚存在争议。其三,合同违约责任。在付费使用的情况下,行政机关作为使用方与大模型服务提供方存在服务合同关系,因不实信息导致损失,使用方可主张违约责任。
(四)设置分级监管模式,加强多元社会监督
结合国外大模型应用发展的实践,欧盟对于人工智能风险等级分类的做法值得借鉴:通过《人工智能法案》,对于进入欧盟市场的AI制定了统一的监管规则,减少其对于人权伦理规范的冲击。[15]设立基于划定风险分级以及相应的监管措施而设定的规范化标准,这一做法从数字人本法律观角度维护数字人权。
就我国大模型发展的现状来说,《大模型服务管理暂行办法》规定仍较为宽泛。为避免监管的滞后性,可参考欧盟的分级标准,在完善立法的同时搭建监管框架,在保持市场创新力的前提下规划风险预案。一方面,尽量避免大模型自身在运行中存在的各类问题;另一方面,努力规避寡头化趋势导致的市场失灵。同时,在分级监管体系中增加公众监管一级途径。行政机关在公开透明的原则下行使职权,政务服务大模型接受公众监管也依循了行政权受监督这一脉络。
随着人工智能技术在社会各领域中的应用日益普及,政务服务大模型使用量将会大幅提升。相较之下,大模型的无限数据和自然人的有限思考从根本上生成了不公平竞争。微观上,在解决有关伦理问题之前,可以参考内容使用的标定广告的方法,先划分等级,要求线上政务平台必须对大模型产出的内容在明显位置使用突出符号标注“本内容由大模型生成”。通过这一标注,保持服务方对内容的思辨,避免生成内容和人工政务服务产出内容的准确性与伦理性混为一谈,防止产生侵害人权伦理的后果,生成符合社会伦理价值的服务型人工智能系统。[16]
参考文献:
[1]庄运涛,王沛沛,王文龙,等.城市级数字政府建设规划及其价值实现路径研究[J].中国高新科技,2024(06):138-140.
[2]江文路,张小劲.地方政府数字化转型的变革逻辑与路径演进——以北京市“接诉即办”数字治理改革为例[J].南昌大学学报(人文社会科学版),2023,54(03):91-92.
[3]成微,巩天啸.政务信息化建设招投标中数据价值的体现[J].中国招标,2023(12):85-87.
[4]翟相娟.个人信用信息采集最小化原则的适用困境与替代方案[J].南京大学学报(哲学·人文科学·社会科学),2024,61(03):73-75.
[5]张欣.算法公平的类型构建与制度实现[J].中外法学,2024,36(04):866-867.
[6]陈姿含.人工智能算法决策中的敏感个人信息保护[J].法律科学(西北政法大学学报),2024,42(06):70-71.
[7]唐林.生成式人工智能(AIGC)下的个人信息保护行政公益诉讼探索与发展[J].安徽理工大学学报(社会科学版),2024,26(06):34-36.
[8]夏艾明,郭延军.政府数据开放的行政诉讼制度逻辑及规范构建[J].西南民族大学学报(人文社会科学版),2024,45(03):71.
[9]程乐.“数字人本主义”视域下的通用人工智能规制鉴衡[J].政法论丛,2024(03):11-12.
[10]桑先军.制定数据标注规则必须坚持“三个原则”[N].检察日报,2024-02-09(03).
[11]于水,范德志.新一代人工智能ChatGPT的价值挑战及其包容性治理[J].海南大学学报(人文社会科学版),2023,44(05):85.
[12]雷刚,孙国敏.从价值定位到制度建构:数字时代算法审计制度的路径探析[J].甘肃理论学刊,2025(03):81.
[13]王春业.论检察机关提起“预防性”行政公益诉讼制度[J].浙江社会科学,2018(11):51-53.
[14]苏宇.大型语言模型的法律风险与治理路径[J].法律科学(西北政法大学学报),2024,42(01):81.
[15]张凌寒.中国需要一部怎样的《人工智能法》?——中国人工智能立法的基本逻辑与制度架构[J].法律科学(西北政法大学学报),2024,42(03):7.
[16]和军,杨慧.ChatGPT类生成式人工智能监管的国际比较与借鉴[J].湖南科技大学学报(社会科学版),2023,26(06):126-127.
本文系浙江省教育厅科研项目“大模型赋能政务服务的构造及其法治化研究”(编号Y202457044)的阶段性成果。
(作者单位:浙江大学光华法学院)
【责任编辑:王宗君】