当地时间6月14日,在法国斯特拉斯堡举行的欧洲议会全体会议上,议员参加了关于《人工智能法案》的投票会议。
(资料图)
当地时间6月14日,欧盟《人工智能法案(AI Act)》朝着成为法律的方向迈出重要一步:欧洲议会投票通过了该法案,禁止实时面部识别,并对ChatGPT等生成式人工智能工具提出了新的透明度要求。
《人工智能法案》现在将进入欧盟监管过程的最后“三部曲”阶段。官员们将尝试就这一法律草案与欧盟行政部门和成员国达成妥协,他们之间目前仍存分歧。如果该法案要在欧盟明年的选举前生效,则必须在明年1月完成立法程序。
“这一刻非常重要。”Access Now布鲁塞尔办事处专注于人工智能的高级政策分析师 丹尼尔·鲁弗(Daniel Leufer)告诉《时代》,“欧盟所说的对人权构成不可接受的风险将被视为全世界的蓝图。”
欧盟批准的法律版本提出,任何应用于就业、边境管制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。该法案不会自动将ChatGPT等“通用”AI视为高风险,但对“基础模型”或经过大量数据训练的强大AI系统施加了透明度和风险评估要求。例如,基础模型的供应商,包括OpenAI、谷歌和微软,将被要求声明是否使用受版权保护的材料来训练AI。但是,没有类似的要求来声明是否在训练期间使用了个人数据。
这些规则如何运作?
欧盟《人工智能法案》于2021年被首次提出,将适用于任何使用人工智能系统的产品或服务。
该法案根据4个级别的风险对人工智能系统进行分类,从最小到不可接受。风险较高的应用程序,例如招聘和针对儿童的技术将面临更严格的要求,包括更加透明和使用准确的数据。
欧盟的主要目标之一是防范任何人工智能对健康和安全构成威胁,并保护其基本权利和价值观。
这意味着某些AI用途是绝对禁止的,例如根据人们的行为来判断他们的“社会评分”系统,以及利用弱势群体(包括儿童)或使用可能导致伤害的潜意识操纵的AI,比如鼓励危险行为的交互式对话工具。用于预测谁将犯罪的预测性警务工具也将被禁止。
此外,用于就业和教育等类别的人工智能系统会影响一个人的生活进程,将面临严格要求,例如对用户保持透明,并采取措施评估和减少算法带来的偏见风险。
欧盟委员会表示,大多数人工智能系统,如视频游戏或垃圾邮件过滤器,都属于低风险或无风险类别。
争论的一个主要领域是面部识别的使用。欧洲议会投票禁止使用实时面部识别,但仍存在是否应出于国家安全和其他执法目的而允许豁免的问题。另一项规定将禁止公司从社交媒体上抓取生物识别数据来建立数据库。
当天,欧洲议会的一群右翼立法者在最后一刻试图取消法案提议的实时面部识别禁令,但遭到立法者否决。
执行这些规则将取决于欧盟的27个成员国。监管机构可能会迫使企业从市场上撤回应用程序。在极端情况下,违规行为可能会被处以高达3000万欧元(约合3300万美元)或公司全球年收入6%的罚款,对于谷歌和微软等科技公司而言,罚款可能高达数十亿美元。
和ChatGPT有什么关系?
法案最初的措施几乎没有提到聊天机器人,仅要求对其进行标记,以便用户知道他们正在与机器进行交互。谈判人员后来增加了条款,以涵盖像ChatGPT这样广受欢迎的通用人工智能,使该技术满足一些与高风险系统相同的要求。
一个关键的补充是,法案要求彻底记录任何用于训练AI系统如何生成类似于人类作品的文本、图像、视频和音乐的版权材料。这将使内容创作者知道,他们的博客文章、电子书、科学文章或歌曲是否已被用于训练为ChatGPT等系统提供动力的算法。然后他们可以决定其作品是否可以被复制并寻求补偿。
一些担心人工智能模型带来安全风险的专家认为,该法案没有对人工智能系统可以使用的计算能力进行限制。随着每个新版本的发布,像ChatGPT这样的大型语言模型使用的计算量呈指数级增长,这将极大提高其能力和表现。“用于训练人工智能系统的计算越多,人工智能就会越强大。能力越大,风险和危险的可能性就越大。”人工智能安全初创公司Conjecture的战略和治理主管安德里亚·米奥蒂(Andrea Miotti)告诉《时代》。
米奥蒂指出,研究人员衡量系统总计算能力相对容易,因为用于训练大多数尖端AI的芯片是一种物理资源。
为什么欧盟的监管很重要?
《时代》指出,欧盟并不是尖端人工智能开发的重要参与者,这个角色由美国和中国扮演,但欧盟经常扮演引导潮水的角色,其法规往往成为事实上的全球标准,并已成为针对大型科技公司力量的先驱。
专家表示,欧盟单一市场规模庞大,拥有4.5亿消费者,这使得公司更容易遵守规定,而不是为不同地区开发不同的产品。通过为人工智能制定通用规则,欧盟还试图通过在用户中灌输信心来发展市场。
“这是可以强制执行的法规,公司将被追究责任这一事实意义重大”,因为美国、新加坡和英国等地仅提供了“指导和建议”,爱尔兰公民自由委员会的高级研究员克里斯·施里萨克(Kris Shrisak)说,“其他国家可能想要适应和复制”欧盟规则。
其他一些国家也在加紧监管步伐。比如,英国首相苏纳克(Rishi Sunak)计划在今年秋天举办人工智能安全世界峰会。“我想让英国不仅成为知识的家园,而且成为全球人工智能安全监管的地理家园。”苏纳克在本周的一次技术会议上说,英国峰会将汇集“来自世界各地的学术界、商界和政府”人士,共同致力于“多边框架”。
艾达·洛芙莱斯研究所(Ada Lovelace Institute)的代理主任弗朗辛·贝内特(Francine Bennett)告诉《纽约时报》:“快速发展和可迅速重新利用的技术当然很难监管,因为即使是开发该技术的公司也不清楚事情将如何发展。但如果在没有充分监管的情况下继续运营,对我们所有人来说肯定会更糟。”
然而,美国计算机与通信行业协会认为,欧盟应避免过于宽泛的监管,否则会抑制创新。该机构欧洲政策经理博尼法斯·德·尚普里斯( Boniface de Champris )说,“欧洲的新AI规则需要有效解决明确定义的风险,同时为开发人员提供足够的灵活性来交付为所有欧洲人谋福利的人工智能应用。”
下一步是什么?
法案完全生效可能需要数年时间。下一步是涉及成员国、议会和欧盟委员会的三方谈判,在他们试图就措辞达成一致前可能面临更多变化。
鲁弗分析,在即将到来的三方对话阶段,代表成员国政府的欧洲理事会预计将强烈主张执法和边境部队使用的人工智能工具免于对“高风险”系统的要求。
法案预计将在今年年底获得最终批准,随后是企业和组织适应的宽限期,通常约为两年。但领导该法案工作的欧洲议会意大利议员布兰多·贝尼菲(Brando Benifei)表示,他们将推动更快地采用生成式AI等快速发展技术的规则。
为了在立法生效前填补空白,欧洲和美国正在起草一份自愿行为准则,官员们在5月底承诺将在几周内起草该准则,并可能扩大到其他“志同道合的国家”。