ChatGPT中文站

欧洲议会议员准备就首个安全透明人工智能规则进行谈判

禁止使用人工智能(AI)进行生物识别监视、情感识别和预测性执法。

像ChatGPT这样的生成式人工智能系统必须披露内容是由人工智能生成的。

使用人工智能系统在选举中影响选民被认为是高风险的。

(2023年6月14日)欧盟人工智能规则旨在推广以人为本和值得信赖的人工智能,并保护健康、安全、基本权利和民主免受其有害影响。

欧洲议会在与欧盟成员国就该法律的最终形式进行商谈前,以499票赞成,28票反对和93票弃权的表决结果,通过了其有关人工智能法案的谈判立场。

这些规则将确保在欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视和社会和环境福利。

禁止的人工智能实践

规则采取风险为基础的方法,并根据人工智能所能产生的风险级别,为供应商和部署人员建立义务。因此,对人们安全造成不可接受风险的人工智能系统将被禁止使用,例如用于社会评分(基于个人社会行为或个人特征对人进行分类的系统)。欧洲议会扩大了禁止使用人工智能的清单,其中包括禁止入侵性和歧视性使用人工智能的行为,例如:

  • 公开场所的实时远程生物识别系统。
  • “发布”远程生物识别系统,除了执法机关为了起诉严重犯罪并且仅在获得司法批准后方可使用。
  • 使用敏感特征(例如性别,种族,民族,公民身份,宗教,政治取向)的生物识别分类系统;
  • 预测性执法系统(基于个人资料、位置或过去的犯罪行为);
  • 情感识别系统在执法、边境管理、工作场所和教育机构中使用;以及
  • 从互联网或闭路电视监控画面中非特定目标地获取面部图像,以创建人脸识别数据库(侵犯人权和隐私权)。

高风险人工智能

欧洲议会议员确保高风险应用程序现在包括对人们的健康、安全、基本权利或环境造成重大伤害的人工智能系统。用于影响选民和选举结果的AI系统,以及用于社交媒体平台(拥有超过4500万用户)的推荐系统,也被列入高风险清单中。

普遍人工智能的义务

提供基础模型的提供商是人工智能领域中新兴和快速发展的一种型态,他们需要评估和减轻可能的风险(包括健康、安全、基本权利、环境、民主和法治等方面),并在其发布到欧洲市场之前在欧盟数据库中注册他们的模型。基于这些模型的生成式人工智能系统,如ChatGPT,则必须遵守透明度要求(披露内容是由人工智能生成的,同时帮助区分所谓的深度伪造图像和真实图像),并确保防止生成非法内容。其培训所使用的具体版权数据摘要也必须公开可见。

支持创新和保护公民权利

为了促进人工智能的创新,支持中小企业,欧洲议会增加了对研究活动和提供开源许可的人工智能组件的例外条款。新法律推广所谓的监管沙盒,即由公共机构建立的现实环境,用于测试人工智能在部署之前。

最后,欧洲议会希望加强公民对人工智能系统的投诉权,以及对基于高风险人工智能系统做出的对其基本权利有重大影响的决定的解释权。欧洲议会还改革了欧盟人工智能办公室的角色,该办公室将负责监督人工智能规则的实施情况。

投票之后,共同报告员布兰多·贝尼菲(意大利,S&D)表示:“今天所有人都在关注我们。尽管大型科技公司对自己的创建发出警报,但欧洲已经提出了对AI开始构成风险的具体应对措施。我们希望充分利用AI对创造力和生产力的积极潜力,但在与理事会的谈判中,我们也将努力保护自己的立场,打击对我们的民主和自由构成危险的行为。”

共同报告员德拉戈斯·图多拉奇(Renew,罗马尼亚)表示:“AI法案将在人工智能的发展和治理方面全球设定基调,确保这项技术能够根据欧洲的民主、基本权利和法治价值观得以演进和使用,并将通过其巨大的优势彻底改变我们的社会。”

下一步

今天晚些时候,将开始与议会就法律的最终形式进行谈判。

2023-10-20 16:54:43 AI中文站翻译自原文