主办单位:上海市法学会竞争法研究会
上海交通大学竞争法律与政策研究中心
欧洲议会正式通过《人工智能法案》
发表时间:2024-03-19 阅读次数:90次

     2024年3月13日,欧洲议会以523票赞成、46票反对和49票弃权的压倒性优势通过了《人工智能法案》(Artificial Intelligence Act)。接下来,该法案还需要得到欧盟理事会的正式批准。

 

     《人工智能法案》旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的侵害,同时促进创新并确立欧洲在该领域的领导者地位。该法规根据人工智能的潜在风险和影响程度规定了人工智能的义务。

 

     被禁止的应用程序

 

     《人工智能法案》遵循基于风险的方法,该法案禁止某些威胁公民权利的人工智能应用程序,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库。工作场所和学校的情绪识别、社会评分(根据行为、社会经济地位或个人特征对人进行分类)、预测性警务(仅对一个人的特征进行分析或评估时)以及操纵人类行为或利用人们脆弱性的人工智能应用程序也将被禁止。

 

     执法豁免

 

     执法部门原则上禁止使用生物识别系统(RBI),除非在详尽列出和严格定义的情况下。“实时”RBI只能在满足严格保障措施的情况下才能使用。例如,其使用在时间和地理范围上受到限制,并须事先获得特定的司法或行政授权。这种用途可能包括有针对性地搜索失踪人员或防止恐怖袭击。事后使用此类系统(“事后远程 RBI”)被认为是一种高风险用例,需要获得与刑事犯罪相关的司法授权。

 

     高风险系统的义务

     

     高风险人工智能系统是《人工智能法案》的重点监管对象,因其对健康、安全、基本权利、环境、民主和法治具有重大的潜在危害,需承担更为严格的义务。高风险人工智能系统包括:用于关键基础设施的管理和运营的人工智能系统、用于教育和职业培训的人工智能系统、用于就业、工人管理和自营职业的人工智能系统、用于提供基本的私人和公共服务(如医疗保健、银行)的人工智能系统、用于执法中的人工智能系统、用于移民和边境管理的人工智能系统、用于司法和民主程序的人工智能系统。必须对此类人工智能系统进行评估(高风险的人工智能系统将在投入市场之前及其整个生命周期进行评估)以降低风险,提高使用的透明度和准确性,并确保人工监督。人们有权向指定的国家当局提出有关人工智能系统的投诉,并获得有关影响其权利的高风险人工智能系统的合理解释。

 

     透明度要求

 

     通用式人工智能(GPAI)系统及其所基于的GPAI模型必须满足某些透明度要求,包括遵守欧盟版权法并发布用于培训的内容的详细摘要。可能带来更大系统性风险的GPAI模型需要履行一些特殊义务,包括对模型进行评估、识别和减轻系统性风险、以及及时向欧盟人工智能办公室上报严重事件和可能的纠正措施。此外,人造或经过处理的图像、音频或视频内容也需要作出明确的标记。

 

     支持创新和对中小企业的措施

 

     对于人工智能系统,必须在国家层面建立监管“沙盒”和真实世界测试,并向中小企业和初创企业开放,以便在创新人工智能投入市场之前开发和训练创新人工智能

 

来源:武大知识产权与竞争法

 

 

 

 

 

 

 

 

 

 

 

 

竞争动态

Copyright © 2013 | 上海交通大学竞争法律与政策研究中心,沪交ICP备20121189

上海市徐汇区华山路1954号,上海交通大学凯原法学院竞争法律与政策研究中心(邮编 200030 E-mail: sjtucclp@126.com