松本香菜糖心logo:月圆合欢小说全文免费阅读-AI的治理模式与中国企业的应对策略

2025年2月11日,巴黎AI行动峰会引发了全球对AI治理的广泛讨论及争议。一方面,包括中国、法国、印度在内的60个国共同签署了《关于发展包容、可持续的AI造福人类与地球的声明》,强调全球合作、包容性发展和可持续治理。但另一方面,美国和英国却拒绝签署该声明,其中美国主张放松对AI的监管,而英国则主张该声明不符合其国家利益。这不仅显示出各国在AI治理理念上的分歧,而且也凸显了当前全球在AI监管与发展之间的博弈。
就如何平衡AI的发展与安全的关系,全球主要有两种具有影响力的理想类型:一是以“风险分级分类机制+政府强力规制”为基石,并强调“基本权利保护”的欧盟“权利主义”模式;二是以“市场机制+企业自我规制”为基石,并强调“数据流动利用”的美国“自由主义”模式。而我国则应当充分借鉴上述两种模式的优点,并同时摒弃其中的劣势,实现平衡AI创新发展与个人权利保护之间的关系。
一、欧盟的权利主义模式
欧盟模式的法理基础是以人为本的权利保护。鉴于AI可能对社会产生的重大影响以及建立信任的必要性,AI产业发展的前提条件是以人为本的技术,确保保护人的基本权利和自由,它应作为人类的工具,最终目的是提高人类福祉。欧盟模式的形成,与基于法治的个人权利保护传统息息相关。如欧盟以“人格尊严”等权利价值导向来定义个人数据,数据主体具有自主决定个人数据的处理目的及方式的权利。由此,我们很容易理解欧洲人为何不能容忍公开讨论薪水,却可以接受在公共场所脱掉比基尼。
欧盟模式的最终决定因素是经济基础,由于没有成体系的AI产业及世界排名靠前的超大型AI企业,欧盟在平衡发展与安全之间关系时,选择“偏向”安全一边的“权利保护”,即把权利保护植入AI立法,凭借价值观等软实力充分发挥布鲁塞尔效应,影响世界各国的AI治理及立法实践,尤其依靠超高的技术准入标准和合规成本,事实上限制了美国、中国等国的跨国企业进入欧盟市场,以便保护欧盟AI产业;欧盟也可以依据严格的AI法,对违反合规义务的跨国企业处以巨额罚款。由此,欧盟把高标准的AI立法作为与美国、中国等主要贸易对手的竞争及谈判筹码,而且权利保护是绝对正确的价值观,世界各国没有任何理由予以反对。
欧盟模式的实现机制,则是充分强调政府强力规制基础上的综合治理。如在数据保护领域,欧盟一直致力于建立“行业准则及标准+法律强制性规范”的双重规范体系和“企业自我规制+政府强制规制”的双重治理体系。
二、美国的自由主义模式
美国AI治理模式的法理基础是自由主义。其理论来源是产生于上世纪二三十年代的奥地利学派和美国承继的新自由主义学派,代表人物是米塞斯和哈耶克。美国模式的两根支柱为“市场主导”和“商业自由”,即主张市场主导配置下的AI企业的自我规制和对政府强制规制的理性限制。由此,美国对AI创新和产业发展的承诺成为反对政府无限干预的经济理由,而对个人自由和企业自由的价值支持则被援引为是限制政府通过立法和政策强力规制AI产业的政治理由。
美国模式的“自由主义”在加州《前沿AI模型安全创新法》的反对意见中得到充分体现:一是主张立法的严格规制将阻碍创新和产业发展。如该法案将对开源及初创企业造成了系统性损害,而它们是加州创新的策源地;如该法案将抑制了美国AI的研究与创新,给其他国家赶超美国提供了机会;如该法案将给加州的AI投资和产业发展带来寒蝉效应。二是主张立法将带来严重的不确定性。如该法案的模糊定义和严格法律责任,将给创新带来了巨大的不确定性和风险;又如该案可能迫使AI研发转入地下,这将极大降低AI模型和系统的安全性。
三、中国的AI治理实践
对于AI的治理,中国早期以促进型产业政策等“发展议题”为主,近年来特别是随着生成式AI的盛行,我们开始同时聚焦伦理审查、算法治理及数据隐私等“安全议题”。与欧盟的权利主义模式和美国的自由主义模式不同,中国特色的AI治理具体包括:
我们应当在平衡发展与安全之间关系的基础上稍偏向“发展”一方,正如《生成式AI服务管理暂行办法》所强调的“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式AI创新发展,对生成式AI服务实行包容审慎和分类分级监管”。
我们的配置机制是社会市场论,既强调市场机制在AI领域的基础性配置作用,也强调政府的保护性措施。
我们的实现规则应当是合作治理论,即强调在信任基础上实现政府、市场及社会在AI领域的协同综合治理。
四、中国AI企业的应对策略
面对纷繁复杂的全球AI治理模式,中国AI企业只有在确保技术安全性和法律合规性的基础上,才能充分把握AI带来的巨大经济与社会红利。为此,笔者建议中国AI企业作好以下措施:
1.定义并控制AI模型及系统的边界。例如,在医疗、金融等高度敏感领域,AI系统的误判可能导致严重后果,因此企业应设定严格的使用边界,确保技术不会被应用于未经充分验证的场景。同时,企业还需要建立技术准入机制,确保外部AI工具和服务的合规性。
2.制定详细的AI治理计划,建立长期风险管理体系。AI治理不仅涉及技术本身的安全性,还包括企业管理层的决策机制和执行能力。企业应制定全面的AI治理框架,涵盖数据处理、算法透明度、伦理审查、监管应对等方面。与此同时,AI治理必须是动态的,企业需要建立定期评估机制,以适应不断变化的法规环境和技术发展趋势。
3.重点关注网络安全、个人信息保护和数据安全。AI系统处理海量数据,其中涉及大量个人信息和敏感数据。因此,企业必须遵循“零信任”安全原则,即在系统内部不默认信任任何用户或设备,而是采用严格的身份验证、数据加密、访问控制等措施,以防止数据泄露和滥用。
4.实现AI风险的均衡化和分散化。AI系统的集中式架构可能导致单点故障问题,甚至带来系统性风险。因此,企业应将AI功能模块化、分散化,从而降低因技术故障或攻击导致的整体损害。同时,企业还应加强AI系统的冗余设计,以提升稳定性和容错能力。
5.加强AI系统全生命周期的数据合规和治理。数据治理是AI治理的重要组成部分,企业必须在数据的采集、存储、使用、共享和销毁等各个环节建立严格的合规管理体系。例如,企业应确保数据的来源合法,避免使用未经用户授权的数据训练AI模型。
6.提高组织内部AI素养,强化用户培训。AI企业应加强员工培训,确保研发人员、管理者及用户都能理解AI技术的风险和使用规范。例如,数据科学团队需要接受关于算法公平性和偏见检测的培训,而普通用户则应了解AI的基本操作和隐私保护要求。
7.通过伦理审查和偏见测量,确保AI的可信性。企业应建立AI伦理审查委员会,定期对算法进行偏见测量和公正性测试。此外,企业还可以引入外部专家审核机制,确保AI技术的使用符合社会责任要求,避免因算法偏见导致歧视性决策或不公平待遇。
综上所述,中国AI企业在全球治理趋势下,需要采取全面的合规措施,不仅要确保技术安全、数据合规和网络安全,还要关注AI伦理、风险管理以及组织内部的AI教育。只有在合规的基础上稳步推进技术创新,中国AI企业才能在全球竞争中占据有利位置,充分把握人工智能发展的时代机遇。
(作者何渊为上海交通大学数据法律研究中心执行主任,上海交通大学凯原法学院副教授,《欧盟人工智能法合规手册》第一作者)