欧盟AI法案公布!下月生效 分阶段实施
而所谓的“高风险”使用案例中,AI在生物识别、执法、就业、教育和关键基础设施中的使用是法律允许的,但开发这些应用的公司在数据质量和反偏见等方面必须承担相应义务。同时,“高风险”等级还对类似AI聊天机器人开发商提出了一些较轻的透明度要求。
监管规定对于通用目的AI(General Purpose AI,GPAI)模型制造商,如ChatGPT,也有一些透明度要求。最强大的GPAI模型,通常基于计算阈值,可以被要求进行系统风险评估。此前,有些AI行业的某些元素在少数成员国政府的支持下进行大规模游说,试图减轻GPAI的义务,担心这部法律可能阻碍欧洲培养本土AI巨头以与美国和中国的竞争对手竞争的能力。
根据分阶段实施的计划,首先,禁止使用AI的领域将在法规生效六个月后适用,即2025年初,其中包括社会信用评分、通过不定向抓取互联网或闭路电视来编制面部识别数据库等;除非有几个例外情况可以使用,如在寻找失踪或被绑架人员时,执法部门可以在公共场所使用实时远程生物识别技术。
接下来,法规生效九个月后,即2025年4月左右,适用监管范围内AI应用的开发者将必须遵守监管规定的行为准则。欧盟设立的AI办公室是该法规建立的监督机构,负责提供这些行为准则。
不过,实际上谁来编写这些规定仍然引发了问题。根据本月早些时候媒体报道,欧盟一直在寻找咨询公司来起草这些行为准则,这引发了民间社会的担忧,认为AI行业的参与者可能对规则制定施加影响。最近,有媒体报道称,在欧洲议会议员的压力下,欧盟AI办公室将发布征求意向书,以选择利益相关者起草GPAI模型的行为准则,以使该过程更具包容性。
另一个关键的最后期限是在法律生效12个月后,即2025年8月1日,GPAI开发者必须开始遵守透明度要求的规定。而某些高风险AI系统获得了最宽松的合规最后期限,监管规定给予了36个月的时间,即到2027年,可以开始旅行履行义务。