2024年5月21日,欧盟理事会通过了《人工智能法案》,欧盟成为全球首个在人工智能领域设立统一强制监管框架的地区。以下简介该《人工智能法案》的框架和特色。
1、法案以兼顾科技发展与人权保护为立法宗旨。
法案确保AI系统的开发、部署和使用过程中人的权利得到充分保护,人工智能必须以人为本,为人所用。法案建立明确的法律框架和道德准则,规范AI技术的使用,防止滥用个人数据和侵犯隐私。法案明确加强对AI技术的监督和审查,确保其符合道德和法律要求,同时提供透明度和追溯性,以增强消费者和公民对AI技术的信任。
2、法案管辖范围宽泛,涉及多方主体。
根据法案的规定,法案的管辖范围,涵盖了属人、属地以及实质判断等多个管辖标准,即无论是欧盟境内还是欧盟境外的实体,只要其在欧盟境内将人工智能系统或通用人工智能模型投入市场或投入使用,均将受到法案的规制。对于位于欧盟境外的人工智能系统提供者,若其系统产生的产出将用于欧盟,同样需受法案约束。除了人工智能系统的提供者外,法案的管辖范围还涵盖人工智能系统的部署者、进口者、分销者和其他第三方。这些主体在将人工智能系统或模型引入欧盟市场时,都需要履行法案下的合规义务,确保其所提供的产品或服务符合欧盟的法律标准。
3、差异化人工智能系统监管体系。
法案将人工智能系统根据其对用户和社会可能产生的潜在影响程度,划分为四个类别:第一类是不可接受风险类人工智能系统,第二类是高风险类人工智能系统,第三类是有限风险类人工智能系统,第四类是最小风险类人工智能系统。针对不同风险级别的人工智能系统,将实施相应级别的监管措施,其中风险等级越高,监管措施将更为严格。法案确保高风险人工智能系统的安全和合规性需要统一监管各个责任主体,包括AI系统提供者、部署者、进口商和分销商。这涉及建立明晰的责任分工和法规框架,制定一致的技术标准和行业规范,加强监督检查机制,促进信息共享和合作,以及提升责任主体的教育培训水平。通过协同努力,这些措施能够确保人工智能系统的安全性、合规性和可信度,从而保护公众利益并推动人工智能技术的健康发展。
4、强制性适用监管沙盒制。
法案规定欧盟成员国需至少在国家层面设立一个监管沙盒。强制性规定监管沙盒的设立将鼓励更多的企业和创新者参与到监管沙盒中来,试验和实验新技术和商业模式,推动创新生态系统的发展,促进新兴技术的应用和商业化。而在国家层面设立将推动各国之间的监管合作和经验共享。通过共同努力,各国可以更好地应对跨境和全球性的监管挑战,为创新提供更好的环境。此强制性规定将促使监管机构更加灵活地应对创新和技术发展。监管沙盒允许监管机构在受控环境中测试新的监管方法和政策,从而更好地适应快速变化的技术和市场需求。
《人工智能法案》的颁布为全球人工智能治理注入了新的动力,也为中国企业带来了新的挑战与机遇。一方面,中国企业需要积极适应的新监管要求,加强内部合规管理,确保在欧盟市场推出的人工智能产品或服务符合法案的规定。这不仅要求企业具备高度的法律意识,还需要企业投入更多的资源和精力进行技术研发和产品升级,以满足安全、隐私和伦理等方面的要求。另一方面,中国企业也可以从欧盟的监管框架中汲取经验,以压力作为动力加强自身的技术创新和研发能力,提升产品或服务的竞争力,开拓国际市场。中国企业只有不断适应变化、加强合规管理、推动技术创新,才能更好地应对日益激烈的市场竞争和不断变化的市场环境,在人工智能领域取得更大的成就。