在AI在教育领域的罗素集团准则上

罗素集团(这是一个自愿组成的24所英国大学网络,自1990年代以来一直使用这个集体品牌)最近发布了一套有关在教育中使用生成AI的五个原则。当然,这意味着ChatGPT,它自2022年末以来引起了轰动,还有其他各种工具,如巴德(Bard)、中途(Midjourney)等等。

我对关于协商或制定这些原则所使用的方法一无所知。但从事物的外观来看,这个想法是制定一些相当灵活、高层次的指导方针,为一个明显复杂而有争议的问题提供一些清晰度和共享词汇。我的结论是:也许是个较高的二二等?欢迎你来进行第二次评定!

或者,向下滚动查看建议的另外五个原则。

首先需要指出的是,这份三页长的文件比那份五个要点摘要要好得多。

1. 大学将支持学生和教职员工变得精通人工智能。

2. 员工应该具备能够有效地支持学生在学习过程中以恰当的方式使用生成式人工智能工具的能力。

3. 大学将调整教学和评估,以纳入生成型人工智能的道德使用,并支持平等获取。

4.大学将确保学术严谨性和诚信得以维护。

5. 大学将合作共同分享最佳实践,随着技术和其在教育领域的应用的发展。

因此,我最重要的建议是将摘要与三页文档更紧密地对齐,即使我们需要使用一些额外的词语来实现这一点。

例如,原则1使用了字面上的比喻。它可能被合理地解释为暗示类似于:

生成式人工智能是一种不可或缺的工具,并将在未来变得极为普遍。因此,我们有责任训练学生成为熟练的生成式人工智能用户,就像我们训练他们在专业领域成为熟练的阅读和写作者一样。

事实上,这实际上并不意味着这个(呼~)!当我们看到这个在文件中的详细解释时,原则 #1 更多地关注现有AI的限制和不足之处。对原则 #1 更准确的总结应该是:

大学将支持教职员工和学生了解生成式人工智能在教育环境和更广泛领域中的机遇、限制、风险和伦理考虑。

具体的示例领域包括:隐私(即AI用户在不一定了解数据将如何被使用的情况下提供数据);偏见的可能性;信息的不准确性和误解;伦理准则;抄袭和侵犯版权;剥削(例如由低工资劳工在恶劣条件下进行的数据标注)。

那是足够公平的,当然这里不适合列出详尽的清单。不过有几个小事情。

剽窃:生成式AI工具重新呈现他人开发的信息,因此存在用户提交自己的抄袭内容和/或侵犯版权的风险,而图像生成器使用的艺术作品可能未经创作者的同意或许可而被包含进去。

这个混淆了侵犯版权和学术抄袭。这里难道没有两个分开的观点吗?其中一个观点是关于学生或其他人工智能用户没有披露他们使用了人工智能,或者对他们如何使用人工智能进行了歪曲。这就是“以用户自己的形式提交”所暗示的。这是一个巨大的问题(文档在原则4中也试图解决)。第二个观点与那些被用来训练人工智能模型的创作者的合法和道德权利有关。法律情况复杂,各个司法管辖区不同,随时间推移而发展,并且在法庭上也很大程度上没有经过实践的检验。但简短版本似乎是这样的:由于数据挖掘的例外,版权法没有构成太大威胁。如果学生要求Midjourney创建“一辆以吉卜力工作室风格的猫巴士”,可能不会有任何版权侵犯,因为虽然宫崎骏的艺术作品被用于训练模型,但是这是合法的。我认为这里更深层的问题在于将法律和伦理混淆在一起。稍微更好的方式可能是承认:(a)围绕人工智能的知识产权法还在变动中,(b)什么是法律和不合法的可能并不总是清楚,(c)没有经过许可就被用于训练生成式人工智能的创作者可能会有令人信服的伦理抱怨,即使他们的合法权利没有受到侵犯。更好的方式可能是轻轻地指出:(d)即使在最近的生成式人工智能浪潮之前,就伦理原因,对知识产权法进行了许多令人信服的批评。

伦理准则:使用生成型人工智能工具的用户应意识到,尽管有伦理准则存在,但它们可能没有嵌入所有生成型人工智能工具中,并且用户可能无法轻易验证其是否被纳入使用者的工具中。

这个非常有趣。我不太确定我理解它的意思吗?我觉得它的意思是给学生灌输一种对人工智能的野性和难以管控性的意识!这暗示了可能会出现偏向于关注谷歌、微软和其他知名公司的倾向,但提醒我们这些公司可能有动机去解决其他许多人工智能制造者并没有的问题。任何人都可以训练一个模型;模型可能会泄露;模型可能会被微调;一个应用程序可能会在一个与底层模型完全不同的模型上构建。

当然,在ChatGPT和“这是我从Reddit上找到的一个随机AI模型”之间,很多教育科技将会存在。所以也许在这里存在一个“买家需谨慎”的话?正如我们都知道的一样,“推动教育科技市场的投资者的主要动机是回报率。”

另一个想法是,这是否也暗示了在关于人工智能伦理和安全讨论中经常出现的一个问题,即“不透明性”、“可解释性”、“可解读性”或“黑匣子”?换句话说,对于开发者来说,甚至对于用户来说,要确保任何“道德准则”的健壮可靠的融入可能是困难的。

偏见。从哪里开始!这是人工智能安全、人工智能伦理、关键数据研究等领域的一个关键术语,而且很快就会突显出重要性。另一方面,我们要认识到,“偏见”这个词是数据科学(数据科学家有丰富的工具箱来识别和减轻各种统计偏差)、认知科学(所有那些认知偏差)和社会公正(人工智能应该公平而公正,不偏袒)的交汇点。人们在谈论“偏见”时并不总是指同一件事,这意味着他们在讨论解决“偏见”时也不总是指同一件事。偏见经常是有用的,但也是有限的,并且有时会误导人,它描述了人工智能可能造成的各种伤害或其存在可能预示的伤害。关于偏见的问题往往可以有益地重新构建成关于所有相关利益相关者之间的权力动态、所有直接或间接受到影响的人,或可能受到影响的人的问题。矛盾的是,如果我们过于专注于偏见,它可能导致某种程度上的拟人化(“垃圾进,垃圾出”是个不错的开始,但它倾向于掩盖人工智能真正的变革性机制),以及一种技术解决方案主义(人工智能伦理必然涉及社会和政治问题,而不仅仅是技术问题)。我认为我有一种反偏见的偏见!

有哪些在原则1中明显缺少的内容?当然不能包括所有东西,但环境可持续发展应该在其中某个地方被包含进去。

第二和第三原则对于人工智能的不可避免性放弃了太多的立场,并没有明确和坚定地主张大学有权利(和能力)在适当的时候进行过滤、选择和拒绝。这些原则需要做到以下几点:(a)更加明确和持续地考虑将生成式人工智能整合到现有教育过程中所涉及到的多样化成本和利益,特别是机会成本;(b)更少地进行无依据的假设,即未实现的好处;(c)更加认识到这一切发生得有多快(从广义上讲,生成式人工智能已经存在了几个世纪,但具体到这个领域,才出现了一年左右),并且未来可能完全不同。事实上,我并不确定我们现在应该真的用“原则”来思考这个问题,或者如果我们必须这样做的话,第六个原则应该是至少每年更新一次这些原则。

原则 #4,关于学术诚信和严谨性,非常受欢迎,但从一开始就注定会失败一些。以压缩版本来看,这显然是毋庸置疑的。也许在这里有一个机会来强调不仅要严谨和诚信,还要致力于以教育为更大的前提而不仅仅是学习效率?正如Rebecca Eynon在AIED的讨论中所写道,“对教育的关注不足,相对于学习,也可以从AIED和教学的角色讨论中看出。”

#4的更大问题是,恐怕我们还不知道如何评估经过AI增强的学生作品,至少不是跨各个学科领域。这与保持诚信和严格性的问题不太相关,更多地是要追回失去的地盘。至少,“教育机构面临着对当前学生评估框架的严重威胁。”因此,大学制定清晰的政策并向教职员工和学生明确传达是非常重要的(并且在学院、模块、作业等级别给予教职员工适当的自主政策制定空间)。但是,这个夏天ChatGPT让我的评分工作量翻了一番,我相信我不是唯一一个这样的情况。区分学生和AI的贡献可能非常困难。AI不仅会消除或转变任务,还会产生新任务(而教职员工和学生需要得到支持来处理这些新任务)。尽管付出了额外的努力,我猜今年的评分比去年要不公平得多。不同的学科将受到不同程度的影响,有些几乎没有,有些则极大。

原则5对我来说很棒:大学应该在这方面进行合作!我真的好奇为什么这些是罗素集团的原则?以及生成式人工智能是否会以不同的方式影响不同类型的大学?

以下是一些替代原则。我们觉得如何?

  1. 大学将确保以适当的上下文敏感性评估生成型人工智能的利弊。生成型人工智能的适用性很可能因教育背景和学科而有所不同。大学将认识到即使没有整合生成型人工智能,它仍可能产生影响,并确保教职员工和学生具备适当的资源来应对这些影响。
  2. 大学将积极支持教职员工和学生利用生成人工智能进行教育方面的调查、实验和创新。对于这种探索性采用的支持,不会以牺牲学术诚信和严谨为代价,也不会强制教职员工或学生使用生成人工智能,而是尊重他们倾向于使用其他工具和方法的选择。
  3. 大学将充分利用其独立、跨学科的专业知识,就人工智能伦理问题进行研究,以确保高等教育领域内的人工智能应用符合最高的道德标准。大学将积极参与向决策者提供基于证据的见解和专业知识,以促进更广泛的社会层面上负责任的规章制度。
  4. 大学将与不同的行业合作伙伴展开对话,以理解生成型人工智能对工作场所实践的不断影响,并在较长的时间范围内带头综合这些发现的工作。
  5. 大学将在技术发展的同时进行合作,共享最佳实践,同时支持多样化且有时背道而驰的政策和实践的发展,并承认并减轻该领域不同资源水平的差异。大学将为对生成性人工智能对教育的更广泛意义和目标的影响进行持续反思的空间。

它们有点啰嗦。但是似乎现在我们有的就是大量的文字。

2023-10-11 04:35:56 AI中文站翻译自原文