ChatGPT中文站
Boris Zhitkov GettyImage

我们还能看到真相多久?

由拉菲拉·阿盖莫(Raffaella Aghemo)提供

尽管推广使用生成算法系统可能看起来是最近几个月“增强”使用它们的人的能力和能量的继续格言的实现,但越来越多的情节会提醒我们“巫师学徒”的神话:被指示扫帚搬水桶并填满浴缸的狂热中,他失去了控制并冒着淹没一切的风险。

我的这个片段来自于阅读一份优秀的作品,由莫拉·R·格罗斯曼、保罗·W·格林、丹尼尔·G·布朗和莫莉(伊明)·徐合作撰写的《GPTjudge:在生成式人工智能世界中的公正》。

生成型人工智能(“GenAI”)系统,例如ChatGPT,最近发展到能够产生计算机生成的文字和图片,难以与人类生成的文字和图片区分。同样,由人工智能生成的证据材料,例如文件、视频和音频录音,也越来越难以与不是人工智能生成的材料区分。这些技术进步给当事人、律师和法院带来了重大挑战,需要确定证据是真实的还是虚假的。“模拟创意或生成文本的系统是计算机研究的一个蓬勃发展的分支。但是在最近几年中,这种技术变得越来越强大。”

本文列出了一些案例,突显出在不加控制地使用这些强大的新工具可能存在的潜在风险。第一个情节涉及一名女孩,因使用“协作”工具ChatGpt在论文中工作而被拒绝入读法学院,被校长指控作弊,最终被挂科!然而,这位女孩对如此严厉的决定提出了异议,因为她的一位非美国同事为她的工作使用了一个机器翻译器,因此没有被控告作弊。

在另一宗案件中,一名自由艺术家在社交网络上冲浪时注意到TikTok上的一张图像与他多年前的一项作品非常相似,因此与一伙艺术家一起对多家GenAI公司提起了侵犯版权的诉讼。诉讼的被告不仅包括建立人工智能模型的公司,还包括收集数据和训练GenAI算法的公司、开发他访问过的应用程序的公司以及制作包含他艺术作品的TikTok视频的个人。虽然人工智能可能只在最近六个月才引起公众的关注,但GenAI领域的重大进展可以追溯到2010年代。“2014年,GenAI的框架生成对抗网络(‘GAN’)在创建看似真实的图像、视频和音频方面迈出了巨大的一步。在这个新框架中,两个网络进行‘竞争’;一个生成网络处理候选项,判别网络针对真实数据评估这些候选项以试图区分它们。在生成网络的一侧,这导致生成的内容更真实。在判别网络的一侧,这导致新的特征发现,提高了匹配训练数据的准确性。”

2017年,Google 推出了转换器架构,这是自然语言处理计算的又一步前进,因为这些转换器不需要预先标注的训练数据,并且可以并行训练,比以前的人工智能架构更快。

随着 GPT-3 的出现,另一个主要变化是使用强化学习,这是一种利用外部(即人类)反馈来修改 AI 模型输出的过程。在 LLMs 的情况下,增加强化学习使得 GPT 模型的创建者 OpenAI 可以尝试防止其模型产生不正确或冒犯性的输出。

ChatGPT4展示了更高的能力,而且,在2023年3月23日发布ChatGPT插件之后,它不再被限制于过时的信息;它可以与实时数据交互,与其他工具一起完成任务,比如使用Expedia预订旅行或在Instacart上购买物品。

在这个问题中,引起了警惕:“当像上述假设中描述的这样的案例到达法庭 - 并且它们将以惊人的速度这样做 - 法官将被要求就可能由GenAI应用程序产生或可能真正为人类或未知来源但被质疑为深度伪造的证据的真实性和可接受性做出决定。毫无疑问,提供,挑战和裁决数字证据变得更加困难。总体而言,当前的联邦证据规则及其州法的防范是为了为在各种情况下的法官和律师提供一般指导,并且仅在少数情况下提供特别针对特定类型技术证据的规定。这是因为修订联邦证据规则及其州法的防范是一个耗时的过程,而技术总体和GenAI特别是以令人眼花缭乱的速度发展。”

然后,必须要求现有的规则在技术进步面前不应过分坚守,而应该被改编以适应新技术的应用以及随之而来的证据挑战,如GenAI和深度伪造证据所提出的挑战,促使法官特别注意避免不足够有效和可靠证据呈现给陪审团而导致的不公平偏见,并对引入不准确或不可靠的技术证据可能伴随的不公平偏见进行仔细评估。

法院还必须考虑证据如果被证明虚假或不足够有效可靠将会带来的潜在风险、负面影响或不幸后果。换言之,当不公正或错误结果的风险很高,真实性证据很少时,应该排除证据。

这份文件提出了一系列步骤,法官应该严格遵循,以避免出现错误的评估或判决。

第一步:制定安排令。在民事或刑事诉讼中制定安排令时,法院应设定时间限制,要求拟引用可能基于GenAI应用程序的证据的一方足够提前向对方当事人和法院披露该证据的性质,以便对方律师决定是否打算挑战该证据的可录入性,以及对方律师是否打算申请审查以挑战该证据。同样,安排令还应包括一个截止日期,要求将实际或潜在的GenAI证据将被呈现给的一方告知该证据的提供者和法院,以及其打算挑战该证据并要求核实以挑战其可录入性。

第二步:听证会。当AI-generated或deepfake作为证据介绍时受到质疑,法院应安排一次证据听证会,以发展裁定关于质疑证据的可接受性所需的事实。由于这一裁决的结果可能严重影响是否能进行审判,因此应该在审判开始足够长时间前安排听证会,以使法院可以编制和评估证据记录,并发布关于质疑证据可接受性的决定。

最后,法庭应要求证据提出方和反对方讨论引入提供的证据可能产生的不公平或过度歧视的潜在风险,特别是如果证据在审判中被认定为无效、不可靠或是Deepfake。

第三步:判决。听证会结束后,法院应该仔细审查听证会上提供的证据和论点,并作出判决。在这样做的过程中,法院应该评估证据提供者是否已经充分满足了举证责任。判决应该涉及到相关性、认证和偏见问题,法院应该特别关注对受质疑证据的有效性和可靠性的结论,并权衡提供证据的相关性和不公平或过度偏见的风险。

“拟议中的联邦规则修订将于2023年12月1日生效,明确表示涉及GenAI和Deepfakes等高度技术性证据,需要审判法官更有义务充当门卫的职责。”除了有用的建议,风险并未止步:“……洛约拉法学院教授Rebecca Delfino对‘深度伪造辩护’的出现表示关注,之前Bobby Chesney和Danielle Citron在2019年的一篇文章中称之为‘骗子的红利’。本质上,这个想法是随着人们越来越意识到操作音频和视觉证据有多容易,被告将利用这种怀疑心理来为自己谋取利益。‘深度伪造辩护’已经在多起案件中提出,其中之一是埃隆·马斯克的律师试图辩称,一个已经在网上发布了七年,包含他在2016年技术会议上发表的声明的YouTube视频很容易被篡改,另一个案件是两名被告因参与1月6日叛乱被审判,他们试图辩称显示他们在国会大厦的视频可能是由AI制作或篡改的。在这两个案件中,法庭都没有处理这个问题,但这个问题对司法体系产生了真正的威胁,特别是在刑事案件中。”

当今,前瞻性控制和适当监管的需要是“真实”未来的第一个“门卫”。欧洲议会以499票赞成通过了新的人工智能法案,似乎是朝着正确方向迈出的第一步!

保留所有权利,律师Raffaella Aghemo

2023-10-20 17:00:49 AI中文站翻译自原文