Friday, October 4, 2024

分析:欧洲首创人工智能法案 世界可以借鉴什么?

Must read

在世界各地,各国政府都在努力研究如何以最佳方式管理人工智能(AI)这头越来越不驯服的野兽。

这一迅猛发展的技术有望促进国民经济,使琐碎的工作变得更容易完成。但它也带来了严重的风险,如人工智能引发的犯罪和欺诈、不实信息和虚假信息的传播增加、公共监视的加强以及对本已处于不利地位的群体的进一步歧视。

欧盟在应对这些风险方面发挥了世界领先的作用。最近几周,欧盟的《人工智能法》开始生效。

这是国际上第一部旨在全面管理人工智能风险的法律。随着澳大利亚和其他国家也在努力确保人工智能对每个人都是安全有益的,我们可以从中学习到很多东西。

人工智能:一把双刃剑

人工智能已经在人类社会中广泛应用。它是在线音乐流媒体Spotify和网络视频点播服务Netflix等应用程序推荐音乐、电影和电视节目的各种算法的基础。在机场和购物中心,识别人员的摄像头中也有人工智能的身影。它也越来越多地应用于招聘、教育和医疗保健服务。

但人工智能也被用于更令人担忧的目的。它可以创建深伪图像和视频,为网络诈骗提供便利,助长大规模监控并侵犯我们的隐私和人权。

例如,2021年11月,澳大利亚信息与隐私事务专员安杰琳·福尔克(Angelene Falk)裁定,一款名为Clearview AI的面部识别工具违反了隐私法,因为它出于训练目的从社交媒体网站上截取了人们的照片。然而,独立新闻网站Crikey今年早些时候的一项调查发现,该公司仍在为其人工智能数据库收集澳大利亚人的照片。

诸如此类的案例凸显了加强对人工智能技术监管的迫切需要。事实上,人工智能开发者甚至呼吁制定法律来帮助管理人工智能风险。

Clearview表示,其软件可以在脸书等数据库中搜索人脸。(Reuters: Dado Ruvic)

欧盟人工智能法

欧盟新的人工智能法于8月1日生效了。

最重要的是,该法根据不同人工智能系统所带来的风险程度制定了相应的要求。某个人工智能系统对人们的健康、安全或人权造成的风险越大,它就必须满足越严格的要求。

该法案包含一份被禁止的高风险系统清单。这份清单包括使用潜意识技术操纵个人决定的人工智能系统。它还包括执法部门使用的不受限制的真实人脸识别系统,该系统与中国目前使用的系统类似。

其他人工智能系统,如政府机构或教育和医疗领域使用的系统,也被视为高风险系统。虽然这些系统并未被禁止,但它们必须符合许多要求。

例如,这些系统必须有自己的风险管理计划,要根据高质量数据训练而成,要满足准确性、稳健性和网络安全要求,并确保一定程度的人工监督。

风险较低的人工智能系统,如各种聊天机器人,只需遵守某些透明度要求。例如,必须告知聊天者他们正在与人工智能机器人而非真人进行互动。人工智能生成的图像和文本也需要说明它们是由人工智能而非人类生成的。

指定的欧盟和各国机构将监督欧盟市场上使用的人工智能系统是否符合这些要求,并对不符合要求的系统处以罚款。

其他国家也在效仿

并非只有欧盟在采取行动驯服人工智能革命。

今年早些时候,拥有46个成员国的国际人权组织欧洲委员会通过了首个国际条约,要求人工智能尊重人权、民主和法治。

加拿大也正在讨论《人工智能与数据法案》(AI and Data Bill)。与欧盟的法案一样,该法案将根据各种人工智能系统的风险制定相应的规则。

美国政府最近提出了一系列不同的法律以应对不同领域的不同人工智能系统,而不是以单一的法律辖制。

澳大利亚可以从中学习并发挥领导力

在澳大利亚,人们对人工智能深感担忧,并正在采取措施为这项新技术设置必要的防护栏。

去年,联邦政府就澳大利亚安全且负责任的人工智能问题进行了公开咨询。随后,联邦政府成立了一个人工智能专家组,该专家组目前正在制定第一部人工智能立法提案。

政府还计划改革法律,以应对人工智能在医疗保健、消费者保护和创意产业方面的挑战。

在考虑如何监管各种人工智能技术时,欧盟和其他国家采用的基于风险的人工智能监管方法是一个良好的开端。

然而,单一的人工智能法律永远无法解决该技术在特定行业中的复杂性。例如,人工智能在医疗保健领域的应用将引发复杂的伦理和法律问题,需要在专门的医疗保健法律中加以解决。一部通用的《人工智能法》是不够的。

对各行各业的各种人工智能应用进行监管并非易事,要想让所有国家都制定出全面且可执行的人工智能法律,还有很长的路要走。政策制定者必须与澳大利亚各地的业界及社区携手合作,确保人工智能为澳大利亚社会带来承诺的好处,而不会造成危害。

Rita Matulionyte是麦觉理大学(Macquarie University)法律系副教授。本文最初发表在《对话》(The  Conversation)网站上。

订阅ABC中文周报 网罗每周精选内容

Latest article