大型语言模型(LLMs)的未来

ChatGPT中文站

欢迎来到大语言模型(LLMs)的世界!

ChatGPT于2022年11月的发布,引发了对大型语言模型(LLMs)的新一轮关注。这些模型已经通过生成类似人类的文本并为多个应用程序提供解决方案,大大地影响了各种行业。然而,它们的有效性受到了一些问题的阻碍,包括偏见、不准确性和毒性。这些问题引发了伦理问题,并限制了它们的广泛采用。

为了发挥这些模型的全部潜力,研究人员正在探索有前途的方法,例如自我训练、事实核查和引入更好的提示工程和微调技术,以减轻这些问题并开发更准确和符合伦理的模型。

大型语言模型:概述

大型语言模型(LLMs)是利用深度学习技术进行自然语言处理(NLP)和自然语言生成(NLG)任务的基础模型。为了帮助它们理解语言的复杂性和联系,LLMs使用微调、上下文学习和零/一/少量数据学习等技术,在大量数据上进行预训练。

行业分析师预测,自2020年的110亿美元到2026年将迅速增长至350多亿美元的NLP市场。然而,不仅市场规模庞大,LLM模型的大小和涉及的参数数量也相当可观。下图展示了LLM模型的大小近年来呈指数级增长的情况。

图片来源

在这里了解生成性语言模型在软件工程中的作用:生成性语言模型如何重新定义软件工程。

热门大语言模型(LLMs)清单

值得一提的是一些流行的法律硕士(LLM),并描述它们的重要性。此清单并非详尽无遗,每天都会推出新的LLM。例如,Meta推出了LLMa作为其全新系列的LLM,具有不同的参数。

  • T5(文本到文本转换变压器):T5是一种预先训练的LLM,使用转换器架构执行几个自然语言处理任务。与其他LLM不同,T5可以使用单个模型执行多个任务,使用文本到文本转换方法,可以在最小的微调下适应不同任务。T5是由Google在2019年开发的,拥有110亿个参数。
  • GPT-3(生成式预训练变压器 3):由 OpenAI 开发,于 2020 年问世,GPT-3 是最大、最先进的语言模型之一,具有 1750 亿个参数。GPT-3 可以执行各种自然语言处理任务,包括摘要、问答、语言翻译和文本补全。
  • LaMDA(对话应用语言模型): Google于2021年7月宣布了LaMDA的推出。像GPT-3和BERT等其他LLM一样,LaMDA可以学习文本表示,用于各种自然语言处理任务。然而,LaMDA在几个方面都是独特的。首先,它有1.6万亿个参数,比大多数其他LLM都要大得多。其次,它使用了一种名为Switch Transformer的新颖架构,允许模型根据需要在各种任务特定模块之间切换。
  • BERT(来自转换器的双向编码器表示):BERT是由Google于2018年推出的预先训练的LLM,它使用变换器架构来学习文本表示。BERT在几个NLP任务中都取得了最先进的成果,包括问答、文本分类和语言推理。BERT有3.4亿个参数。
  • RoBERTa(Robustly Optimized BERT Approach):由 Facebook AI 于 2019 年开发,RoBERTa 是基于 BERT 架构的预训练 LLM,但是在更广泛和多样化的数据集上进行微调。RoBERTa 在几个 NLP 任务上已经取得了最先进的性能,包括文本分类、问答和语言建模。RoBERTa 具有 3.55 亿个参数。

下面给出的图像展示了大型语言模型的时间线:

图片来源

为什么我们需要多模态语言模型?

只有文本的LLMs,如GPT-3和BERT,具有不同的应用,包括写文章、撰写电子邮件和编码。但是,由于它们仅仅依赖于文本,这些模型有其局限性。

人类的智慧不仅仅涵盖语言,还涉及由经验塑造的无意识知觉和能力以及对世界运作的理解。仅有文本的LLMs很难融入常识和世界知识,这导致了某些任务上的挑战。扩大培训数据在一定程度上有所帮助,但知识缺口仍然可能出现意外。多模态方法提供了解决这些限制的解决方案。

例如,让我们考虑 ChatGPT 和 ChatGPT-4。

即使ChatGPT是一个具有广泛用途的令人印象深刻的语言模型,但它在复杂推理方面面临局限。

ChatGPT-4,下一个版本旨在超越ChatGPT的推理能力。通过采用先进的算法和多模态集成,ChatGPT-4有望将自然语言处理提升到下一个水平。它解决复杂的推理问题并增强其生成类人响应的能力。

奖励阅读:ChatGPT-4 vs ChatGPT-3:你需要了解的一切

PaLM-E是谷歌和柏林工业大学研究人员开发的另一个多模态语言模型的例子,通过跨视觉和语言领域的知识转移,彻底改变了机器人学习的方式。

与以往的努力不同, PaLM-E 在训练期间直接集成来自机器人代理的原始传感器数据。这导致了一个令人信服的机器人学习模型,使其成为通用视觉语言任务的理想选择。

大型语言模型(LLM)的下一步是什么?

随着技术的不断发展,大语言模型(LLMs)领域正在取得一些有希望的进展,解决了这些模型面临的一些常见问题。特别是,研究人员正在关注未来语言模型的三个重大变革。

1. 未来的大型语言模型可以自行进行事实检查

第一个变化涉及通过赋予其自我核对事实准确性和可靠性的能力来改善LLM的事实准确性和可靠性。这将允许模型访问外部来源并为其答案提供引文和参考文献,这对于实现实际应用至关重要。

在这个领域中开发的两个有前途的模型分别是Google的REALM和Facebook的RAG,两者都是在2020年推出的。

最近,2022年6月,OpenAI推出了其GPT模型的精调版本WebGPT,它使用微软必应来浏览互联网并生成更精确、更全面的答案。该模型的工作方式类似于人类用户,向必应提交搜索查询,点击链接,浏览网页,并使用CTRL+F等功能来定位相关信息。

当模型在其输出中涵盖来自互联网的信息时,它包括引文,使个人能够验证信息的来源。WebGPT的初步研究结果是很有前途的,这个模型在准确响应的百分比和提供真实和信息丰富的答案的数量方面优于所有GPT-3模型。

无法精确预测LLM在未来会如何发展,但这些先进技术为这些模型的可靠性和静态知识限制提供了希望。这些改变将有助于为LLM更广泛的实际应用做准备,使其成为更有效和有用的自然语言处理和生成工具。

这个图显示了TruthfulQA结果,比较了GPT-3和WebGPT模型:

图像来源

谷歌DeepMind也在探索类似的研究领域,最近推出了一个名为Sparrow的新语言模型。像ChatGPT和WebGPT一样,Sparrow也基于对话的方法进行功能操作,可以在提供支持其发现的参考资料的同时在互联网上搜索额外的信息。

虽然还为时过早确定即将推出的模型是否能够克服准确性、事实核查和静态知识库等问题,但最近的研究表明未来可能会有很大的前景。这可能会减少需要及时进行工程验证的需求,因为模型本身已经对其结果进行了双重检查。

2. LLMs仍需要更好的即时工程方法

尽管语言模型在各种任务中表现出了出色的性能,但它们仍然缺乏对语言和世界的完整理解,不像人类。这可能会导致意料之外的行为和错误,对用户来说可能是毫无意义的。

为解决这个问题,及时的工程技术已经被开发出来,以指导LLMs产生更准确的输出。其中一种方法是少样本学习,通过添加一些相似的例子和期望的结果来创建提示,这些提示可以作为模型产生输出的指南。通过创建少样本例子的数据集,LLMs的性能可以得到提高,而无需重新训练或微调它们。

思路链(COT)提示是另一种令人振奋的技术系列,它使得模型能够生成答案以及它用来达到答案的步骤。这种技术对于需要逻辑推理或逐步计算的任务非常有益。

推理和逻辑对深度学习提出了根本性挑战,需要新的体系结构和AI/ML方法。但现在,快速工程技术可以帮助减少LLMs所犯的逻辑错误,并促进错误的排除。

3. 更好的微调和对准方法

个性化定制对于LLMs至关重要; 通过应用特定的数据集进行微调可以显着增强它们的性能和强健性。对于专业领域尤其如此,对于一般用途的LLMs无法提供准确的结果。

除传统的微调技术外,出现了新的方法可以进一步提高LLMs的准确性。其中之一被称为“从人类反馈中强化学习”(RLHF)的策略被用于训练ChatGPT。

使用RLHF,人工注释员对LLM的答案提供反馈,然后使用此反馈来训练奖励系统,从而对模型进行微调,更好地与用户意图相匹配。这种方法证明非常有效,并且是ChatGPT-4在遵循用户指令方面优于其前身的关键原因。

现在,有竞争性的竞赛来开发更大的语言模型。

无论是拥有1780亿个参数的以色列Jurassic-1,还是拥有1.75万亿个参数的中国巨龙,或是有175万亿个参数的ChatGPT-4,构建这些庞大的模型不再是像Google或微软这样的公司的专属。该领域的创新变得越来越普及和多样化。

前进的道路上,LLM提供商必须开发工具,允许公司创建自己的RLHF管道,并为其特定的应用定制LLMs。这将是使LLMs更容易被更广泛的行业和用例使用的关键步骤。

结论

Graphcore 的首席技术官Simon Knowles说:“显然,如果AI能够执行多个功能,它不必利用所有的知识来完成特定任务。这与人脑的功能相似,应该是开发人工智能的标准方法。如果在未来一年内减少了开发高密度语言模型的数量,我不会感到惊讶。”

随着自然语言处理(NLP)领域的持续发展,令人兴奋的是看到新的进展如何解决LLM面临的剩余挑战。虽然我们在事实核查、微调和激励技术等方面看到了有希望的进展,但还有许多工作要做。

随着LLM的可靠性越来越高,无疑会变得更容易为开发人员和研究人员所接触。这可能会导致新的应用和使用案例,以前是不可达到的,同时也会在诸如机器翻译、语音识别和文本生成等领域的进步。

如果你想将你的想法从一个简单的概念变成商业化,我们的全球应用开发团队可以快速推进你的项目,使你在市场中保持竞争力。

随着我们持续发展和完善这些模型,看到它们如何演变以及它们将会带来哪些新的功能将是极具趣味的。

今天就与TechBlocks安排通话,开始您的发展之旅吧!

2023-10-20 17:02:57 AI中文站翻译自原文