新闻媒体中的生成AI:这里有6个原则来解决多样性和包容性问题(这只是很好的新闻报道)。

人工智能在多样性方面面临深层次的问题:机器学习算法受历史数据影响可能存在制度性歧视,自然语言处理和生成式人工智能也面临同样的问题,而人工智能行业本身也面临多样性挑战。

令人惊讶的是,围绕生成式人工智能的讨论在该行业出现,却迄今未能涉及这些问题:英国监管机构Ofcom本月早些时候发布的新闻稿没有提及;美国广播电视数字新闻协会的新指南也没有提及。BuzzFeed从其对该技术的使用中吸取的经验和讨论未涉及此问题;虽然受到该技术的影响,但CNET的政策没有提到偏见。

Wired在关于使用生成 AI 的声明中提到了偏见,但仅涉及生成内容的部分,而没有涉及生成想法或研究的部分。我见过的组织中最接近的是卫报新发布的原则,在广泛的范围内提到“防范偏见”。但是看看WAN-IFRA所进行的行业调查中有关生成 AI 的主要关注点,你不会看到偏见被提及。

ChatGPT中文站
Image from https://wan-ifra.org/insight/gauging-generative-ais-impact-in-newsrooms/

而“多样性”这个词呢?在这些文件中你找不到它。

这就是为什么我和伯明翰城市大学的同事Diane Kemp和Marcus Ryder两周前坐下来起草一些核心原则,以开启关于这个问题的重要讨论。

使用生成型人工智能与多元包容的负责任新闻学原则六项

使用生成AI和多样性和包容性的负责任新闻使用的六项原则旨在提供一个起点,讨论我们如何确保涉及生成AI的新实践和工作流程不重复历史上的错误,并确保新闻记者有一些实用的技巧开始尝试生成工具。

原则是:

  1. 注意内置偏差:很容易忘记,生成式人工智能本质上具有偏见,就像任何来源一样。我们需要确保记者从这个角度开始考虑,这会导致...
  2. 将多样性融入您的提示:良好的提示编写对于有效使用人工智能至关重要,就像优秀的记者知道如何询问好问题一样,他们也应该知道如何编写好的提示-这包括确保多样性得到积极提示。
  3. 认识到来源材料和引用的重要性:这是另一项熟悉的新闻技巧:我们应该始终知道信息的来源,并确保这些来源不仅代表最响亮的声音。例如,当被提示“20世纪最重要的20位演员是谁?”时,ChatGPT没有列出任何有色彩的演员;当被问及温斯顿·丘吉尔或美国开国元勋时,它未包含重要的关键事实。我们会反驳人类的这些答案,所以对于生成式AI来说,做同样的事情非常重要。
  4. 报告错误和偏见:人工智能仍在学习中-了解您的使用如何反馈到其中非常重要。
  5. GAI 生成的文本应该以新闻学的怀疑态度来看待:再次强调一个核心新闻学特征(我会争辩认为生成 AI 生成文本的能力将被证明是它较不实用的应用之一)。
  6. 在适当的情况下保持透明:AI的应用范围非常广泛,很难说你应该总是透明,但这应该是一个考虑因素。

这些原则是起点。我们非常欢迎您提供反馈、示例、技巧和其他想法,以便我们继续完善它们。

该帖子最初发布于在线新闻博客上。

2023-10-20 17:03:07 AI中文站翻译自原文