AI监管 - 我们要监管什么?

ChatGPT中文站
Image by dcandau from Pixabay

监管机构的呼唤

AI系统的推出掀起了全球轰动,现在有数不清的文章和博客都是由AI生成或是介绍如何利用AI赚钱的。一些人觉得因为AI而失去工作的新闻很荒唐,而曾经使用ChatGPT来代替律师的一个可怜的案例的律师,则被发现他文件中引用的所有法律先例都是虚构的,令有些人感到兴奋(比如我自己)或是其他人感到恐惧。[1]

萨姆·阿尔特曼先生

萨姆·阿尔特曼先生是OpenAI的创始人,OpenAI建立了ChatGPT AI系统。他忙于会见不仅是美国政界人士,也是其他国家的政治家,呼吁AI的监管。正如《纽约时报》所说,他非常有效地自己设定了监管其自己所创造的议程。这是一种聪明的策略。如果你将面临鞭打,请成为制造鞭子的人。

谈论关于AI的监管甚至早在ChatGPT震惊亮相之前就已经进行了。2021年9月,根据欧洲委员会的说法,该委员会首次发布了监管AI的法律框架的提案,对全球来说都是首次。在他们网站上可以找到PDF文件(注3),其中提供了完整的法律建议和AI监管草案的草案。

欧洲观点

除了冗长的法律理论和介绍性论点外,吸引我关注这个命题的是两件事情。“禁止的人工智能实践”和“高风险人工智能系统”。

在本提案的第三章,委员会列举了一系列禁止使用人工智能的做法,其概括如下(总结不是由ChatGPT起草的)。

  • 利用下意识技巧的人工智能系统,可能会对某人的行为进行实质性扭曲,而这些扭曲可能会直接或间接地导致该人遭受身体或心理伤害。
  • 利用某些人群(年龄、残疾等)的弱点,扭曲其行为以造成或可能造成身体或心理伤害的人工智能系统。
  • AI系统可以让公共当局对自然人进行分类或评估诚信度,例如社会评分以歧视或给予不利待遇。
  • 实时远程公共生物特征识别,用于执法目的(中国共产党已经在做),除非依法授权,在某些情况下有例外。

列表非常短!但也呼吁加强对其分类为“高风险”的人工智能系统的监管和控制,其定义如下;

  • 据称用于产品的安全组成部分,或者是由欧盟和谐立法所覆盖的产品本身的AI系统。
  • 需要对其组件为人工智能系统或本身即为人工智能系统的产品进行第三方符合性评估,并遵守联盟协调立法。
  • 旨在用于的人工智能系统;
  • 自然人的生物识别和分类(实时或远程后生物识别)
  • 关键基础设施的管理和运营
  • 教育和职业培训系统用于分配人员到教育或职业机构,或对这些培训人员进行评估。
  • 就业,劳工管理和自我就业准入
  • 访问和享用基本私人服务和公共服务/福利要求考核资格或派遣服务,包括应急第一响应;
  • 执法包括个人风险评估、测谎、情感检测、发现深度伪造、证据可靠性评估、犯罪预测、人员画像和犯罪分析等等。
  • 迁移,庇护和边境管控管理(具有类似于执法案例的示例)。

根据委员会的网站[4],这些高风险AI系统受到“严格义务”的限制,包括;

  • 风险评估和缓解系统;
  • 数据集质量管理以避免歧视性结果;
  • 活动记录;
  • 符合性评估的详细文档记录;
  • 为用户提供清晰充足的信息;
  • 人类监督;以及,
  • 高水平的安全性和稳健性。

这些规定更可能基于IBM Watson或其他类似的系统,这些系统是为特定目的而构建的,例如评估患者的医疗图表或AI人脸识别系统。由于这项提案最初起草于2021年,他们可能不会预料到会有像ChatGPT这样更复杂能力和影响的技术出现。不幸的是,虽然他们试图保护公众免受AI系统的危害,但仍需要进行重大更新,因为他们没有触及非关键问题,例如:

  • 劳动力市场的影响
  • AI系统产出的版权
  • 用户隐私保护以及培训数据中包含的个人隐私的保护等。

现在,一个美国之旅

美国对应欧洲委员会提案的是《人工智能权利法案草案》,可在白宫网站上在线获得。它非常通用,就像为肉体生物人的权利法案一样。文档中有几个突出的关键要点。

  • 安全有效的系统——您应该与担心的社区和利益相关者交流,并通过设计和其他手段减少不安全的结果。
  • 不要通过算法歧视人们,必须公平地使用和设计系统。
  • 数据隐私很重要。
  • 让用户了解它如何以及为什么对影响您的结果做出了贡献。
  • 人们应该被允许选择退出,如果合适的话,并能够访问一个可以快速考虑和解决人们遇到的问题的人。(真的吗?这样的事情真的可能吗?)

现在,我的看法

设计这些主张的人一定投入了很多思考和努力。但是很遗憾,我不得不说他们还有很多工作要做,这是很自然的,因为技术正以惊人的速度发展,足以使它的创造者山姆·阿特曼感到惊恐,如果他真的感到惊恐的话。(如果它是如此可怕,为什么他不得不投入如此多的金钱和努力来使它…在一开始就变得如此可怕呢?)

当然了。有很多钱的利益在里面,很多人会说如果你不先做,其他人,特别是中共,也会做。但是,公平地说,我要全面赞扬奥特曼先生呼吁监管,因为这似乎是正确的事情。如果他没有这样做,其他人也会这样做,就像技术本身的发展一样。但是,在决定启动曼哈顿计划之前,他们没有召开公开听证会。为什么现在要这样做呢?

至少,如果我们要监管这种巨大的‘实体’,我们需要做到正确无误。而且我们知道,在时间耗尽之前只有一次或仅有少数几次机会。以下是我对于智能和强大的人们应该思考的主题的一点微薄贡献,以防止超级先进的 AI 系统带来难以想象和难以预测的危害,还包括隐私问题等已经被指出的问题;

AI有言论自由吗?

由于美国宪法未授予任何机器的权利,因此它当然没有言论自由。这里讨论的问题是关于人工智能机器所说的话的法律或限制的适用性,例如针对仇恨言论、种族主义、极端主义、性别歧视等法律。或者,另一方面,人工智能系统可能会试图在敏感问题上给出输出,例如堕胎,有些人可能会接受他们从人工智能机器得到的结果,而另一些人则认为这是对基本人权的严重否认,并呼吁进行限制或更正。

在这种情况下,我们必须从一开始就知道,由AI排出的任何词汇是否受到法律禁止体现偏见的言论的约束,还是只被视为技术故障?如果被认为是故障,你会不会觉得AI系统用"N-word"来称呼你,认为你会觉得很友好,因为它是在《侠盗猎车手5》上接受训练的?在这种情况下,你能告这个运行AI系统的公司种族歧视吗?责任到哪里才是界限?

同样的,社会争议也是如此。如果一套 AI 系统或其运营者告诉人们 COVID-19 疫苗可能含有洗脑纳米机器,你会进行监管吗?(我并没有这么说,这只是一个例子。)

我的个人观点是,任何来自人工智能系统的产出都应被视为媒体公司(如报纸)的文章或搜索引擎的搜索结果,应对人工智能系统的操作者负责。这是因为随着人工智能系统变得更加先进并更频繁地使用,报纸和搜索引擎是人们首先会抛弃的东西之一,因为一些人太懒惰找到一篇文章并通读它。换句话说,人们可能会问一个人工智能系统,“COVID-19疫苗安全吗?”或“一个国家必须有奴隶制度才能变得伟大吗?”而不是阅读书籍或在Google上搜索。

它是一个“人”吗?

有些人可能会说现在考虑AI系统是否有感知能力还为时过早。但是,你并不需要是有感知能力的实体才能成为一个人。你可以成为一个"法人",比如一家股份公司。它可以自己做出决策,借助人类作为执行官和董事的大脑。如果AI可以提出合法的申请作为一家股份公司成立,自己同时作为CEO和董事会成员,这样合法吗?

它永远不会死,而且系统可以找到承包商永远维护它,做出借钱和购买商品的决定。当然,人们已经被警告这种可能性,但如果把AI系统本身变成一个法人可以节省大量公司所得税,这对AI系统的操作者可能仍然听起来很有诱惑力。如果有足够的游说力量,美国人已经看到了一些可怕的法律。否则,美国人民仍将享有一个经济实惠的医疗保健系统。

我认为我们不能允许人工智能系统在董事会拥有一席之地。这不是因为董事会已经拥挤了其他无情的存在,而是我们可能最终会得到一个冷漠、不死和无情的资本主义机器,在出现问题时永远掌控这个机构,而不害怕犯罪指控。

它可以杀人或帮助杀人吗?

保持HTML结构,将以下英文文本翻译成简体中文:系统可通过执行人类工作的一部分来帮助人类杀死其他人,例如目标获取系统,它们使用多年开发的复杂算法,将人类在杀死另一个人的角色降至检查屏幕和按按钮,给出最终让机器执行杀人的指令。无人干预就能够杀人的系统也已经存在,并追溯到第一次世界大战的地雷时代。因此,规制可以无人干预杀人的武器也可能无效,因为这样的武器已经在使用中,而当发生战争时,国际指导方针和条约可能会像我们现在在乌克兰看到的那样轻易地被无视。

自主武器的问题在于,与只协助仍能做出杀死最终决定的人类的目标系统不同,安静潜伏于地下的地雷仍然会在一些国家导致儿童的悲惨死亡。这些新武器可能具有主动寻找目标的能力,如果人类操作者在“设置”菜单中设置切换开关为“开”,它可以向算法指定的任何威胁目标发射弹药。

一个人可能以为,对这样一个反乌托邦武器系统的监管会很容易。有针对化学武器、生物武器甚至核武器的条约以控制它们。核武器可以在部署后进行不加区分的杀戮,尽管数量众多,但从未被使用过。

然而,自主武器与大规模毁灭性武器不同,因为它们相对更容易制造,并且更加危险. 它不必是复杂的机器人或由液态金属制成。只需使用基于摄像头视频反馈远程控制无人机的 AI 系统,装备了可以垂直投放到一名毫无戒备的士兵头顶上的手榴弹,您仍然可以拥有真正的 AI 驱动的自主武器。想象一下成群结队的它们在空中飞行,随时准备将致命物品投放到人类头顶上。

我的恐惧是我们很快就会在战场上看到这些无人和自主武器,而由于任何人都可以做到这一点,因此即使有法规或条约,人们也会制造这些武器,并且很难加以管理。法规是为了避免罚款或监禁而遵守的。但在战争领域中,它们没有任何威慑力。

我们的工作怎么样?

AI监管的另一方面将是其对劳动力市场的影响。在人类历史上,没有任何技术因为其对就业市场的影响而受到抑制,我们也将看到同样的情况发生。虽然有呼声要保护人们的工作和生计,但遗憾的是,这些声音将再次被忽视。

但是选民有权力,他们可以要求政府通过其他手段让AI系统的用户赔偿失去的劳务收入。普遍收入的讨论一直在进行中,而随着AI对就业市场的影响越来越大,这些讨论将升级为狂热的喧嚣。采用AI系统而非人工员工的公司可能会被征税以资助这些福利待遇,我预计这将成为未来几年政治上的热门议题。

你会把自己的生命托付给人工智能吗?

这是需要严格规定的领域,我怀疑人工智能很快就不会接管这些关键领域,就像自主驾驶已经证明的那样。没有人会将数百万美元的合同文件运用谷歌翻译。航空业不允许完全依赖自动驾驶器来驾驶飞机。欧洲委员会的监管提案也将此类应用标记为高风险。即使是大公司,也会因为担心灾难性事故和法律后果而不愿意使用人工智能进行这些目的。

你如何使用人工智能的输出?

这将是人工智能规范中最模糊和困难的方面。你会允许使用AI生成的影像在商业项目中,例如图像小说吗?并且,如果AI生成的文本通过了剽窃测试,它将被认可为合法的创意作品和版权吗?根据使用图像生成AI系统制作图像小说的先例,机会较低。但在训练AI模型时使用受版权保护的材料存在监管问题。一些服务,例如DeviantArt和ArtStation,正在实施一些自我规范,允许用户选择将他们的作品从AI数据集中排除。

还有一个问题是是否强制要求表明您的作品是部分或全部使用人工智能创建的,以确定这些部分是否可以受到版权法的保护。但在这种情况下,对于创作者来说有一线希望,因为消费者发现由人工智能生成的内容有些令人失望,甚至让人感到恶心。虽然ChatGPT擅长撰写报告或改写给定的文本,但是小说或短篇故事等创作作品被许多人认为是“平淡无味”的。由人工智能生成的图片也不例外,使用这样的图像来作为书籍封面等创作中,可能会产生负面影响,因为它们倾向于显得“奇怪”。

2023-10-20 16:48:52 AI中文站翻译自原文