解锁 LLM(Language Model) 的力量:HuggingFace 和 LangChain 实践指南

2022年11月30日标志着科技行业的一个开创性工具的发布。OpenAI为广大公众发布了ChatGPT [Chat-Generative Pre-trained Transformer]。这是一个具有里程碑意义的里程碑,可以说只有90年代初互联网的发布才有过类似的情景。

以下图表显示了ChatGPT在过去12个月内在Google趋势上的流行程度。

ChatGPT中文站

背后驱动ChatGPT的是一种强大的算法(即GPT 3.5/4.0),基于大型语言模型(LLMs)。

because the primary data have not yet loaded?

这些模型是在大量的文本数据上进行训练的,以学习语言中的模式和实体关系。LLM使用深度学习算法来处理和理解自然语言,执行翻译、情感分析和生成新文本等任务。

以下图示了LLMs的用途

ChatGPT中文站

在本文中,我们将展示一个文本生成LLM的样本用法。

我们需要以下内容来完成实践作业:

  1. 大蟒蛇(用于在Jupyter笔记本中编写Python代码)

2. Python包 — HuggingFace(开源社区,致力于开发和发布LLM模型),LangChain(开源包装框架,用于编写具有多个提供者(如Meta、OpenAI和HuggingFace)的LLM)。

让我们潜入并开始吧 :-)

步骤

  1. 根据您的操作系统类型安装Anaconda程序。
  2. ChatGPT中文站

2. 点击 Jupyter notebook 下的启动按钮

3. 创建一个HuggingFace账户并生成Access Tokens -

个人资料 > 设置 > 访问令牌

4. 创建一个新的Jupyter笔记本 —— MyFirstLLMApp

以下是MyFirstLLMApp笔记本的源代码

!pip install langchain
!pip install huggingface_hub

import os
os.environ["HUGGINGFACEHUB_API_TOKEN"]="<YOUR ACCESS TOKEN>"

from langchain.llms import HuggingFaceHub

llm=HuggingFaceHub(repo_id="google/flan-t5-xxl")

# The LLM takes a prompt as an input and outputs a completion
query1 = "What is the currency of India?"
completion = llm(query1)

print(completion)

query2 = "when is diwali this year?"
completion = llm(query2)

print(completion)

输出是

ChatGPT中文站
ChatGPT中文站

代码中使用的LLM模型的实际名称是——google/flan-t5-xxl。

您可以在这里阅读更多相关信息。

注:由于某种原因,模型无法正确输出第二个查询的答案。一个可能的原因是t5模型是基于110亿参数训练的。您可以尝试使用其他复杂模型,如Meta的LLaMA 2,该模型基于700亿参数进行训练。另一个好的选择是Falcon模型。

这就是关于实践性法学硕士文章的全部内容。

如果你喜欢我的文章,请考虑为其点赞,并在LinkedIn上关注我。

2023-10-20 17:16:43 AI中文站翻译自原文