Sure, here's how you could structure the HTML with the simplified Chinese translation: ```html

Do you know how a Large Language Model Works?

``` And the translated text in simplified Chinese: ```html

你知道大语言模型是如何工作的吗?

``` This HTML snippet maintains the structure while presenting the text in both English and simplified Chinese.

在我观看Andrej Karpathy关于大型语言模型(LLM)介绍的教程时,就像大多数其他AI教程一样,开始时内容非常简单,但突然之间变得有些难以跟上。在这篇文章中,我将利用从该教程中学到的知识,以最简单的方式解释大型语言模型的概念,让任何人都能理解。这里的“任何人”指的是任何人,即使你一生中从未写过一行代码。

Sure, here's the text translated to simplified Chinese while keeping the HTML structure: ```html 什么是大型语言模型? ```

Sure, here is the simplified Chinese translation of the text, while maintaining the HTML structure: ```html 当我告诉你,一个大型语言模型只是两个文件,无论看起来多么复杂时,你可能会觉得我疯了。
这两个文件位于一个假想的目录中。
一个简单的例子是最流行的开源LLM模型之一,由Meta Ai发布的Llama 270b模型。
这个模型是Llama系列的第二代,使用了700亿个参数。
我知道,我刚才讲了一些复杂的东西,但请跟我走,我们很快就会理解这些参数是什么。 ``` This translation keeps the text in separate `` elements, respecting the HTML structure while providing the simplified Chinese translation.

请保留HTML结构,将以下英文文本翻译为简体中文: 这个特定的模型很特别,因此很多人喜欢它,因为它可能是当今最强大的开放权重模型。我的意思是,模型的架构和Meta发布的一篇论文使任何人都可以轻松地自行使用这个模型,而这对我们目前使用的许多其他语言模型来说是不太可能的,比如ChatGPT,其模型架构从未发布,因为它由OpenAI拥有,您只能通过网络接口使用语言模型,但无法访问该模型。因此,在这种情况下,Llama 270b模型只是您文件系统上的两个文件,即参数文件和包含一些运行这些参数的代码的运行文件。

Sure, here's the translation of "What the hell are Parameters?" in simplified Chinese while keeping the HTML structure: ```html

什么是参数?

``` This HTML code will display the translated text in a paragraph element on a webpage.

Sure, here's the translated text in simplified Chinese, keeping the HTML structure intact: ```html 参数是神经网络的权重。例如,对于这个拥有700亿参数的模型,每个参数都以两个字节的形式存储,因此这些参数文件的大小为140GB。我们还需要一个运行该神经网络的代码,这段代码已经实现在我们的运行文件中,可以是C文件、Python文件或其他任何编程语言。 ``` This translation maintains the structure and accurately conveys the meaning of the original English text.

To translate the provided text into simplified Chinese while keeping the HTML structure intact, you can use the following: ```html

所以模型使用这些参数来运行。我打赌这很简单,只需这两个文件就足以构建一个功能完备的大型语言模型。这就是所有必要的东西,你甚至不需要互联网连接就可以与模型交互。只需拿这两个文件,编译你的Python代码并指向这些参数,然后你就可以与这个语言模型进行交流。

``` Make sure to insert this HTML snippet into your document where you need the translated text to appear. This text accurately conveys the meaning of the original English text in simplified Chinese.

Sure, here's how you would write "How do we interact with LLMs?" in simplified Chinese while keeping the HTML structure intact: ```html 如何与LLMs互动? ``` In this HTML snippet, the Chinese text is placed within `` and `` tags if you are embedding it within a larger HTML document.

```html

除非你一直生活在岩石下,你可能以前使用过ChatGPT,因此这是基本知识,但为了清晰起见,我们使用提示用自然语言与LLM进行交流。例如,你可以发送文本如“写一首关于规模AI公司的诗”,这个语言模型将开始生成文本,在这种情况下,它将遵循指示并给你一首关于规模AI的诗,或者像我一样使用ChatGPT写技术工作的求职信。(我申请了200份申请后甚至没有被邀请面试)稍微具体一点就是这样,这就是我们可以运行该模型的方式,只需要两个文件。所以我认为我们可以同意的事实是,看起来运行该模型并不需要很多,这是一个非常小的包,但是当我们想要获取这些参数时,计算复杂性确实增加了。

```

Sure, here is the text translated into simplified Chinese, while keeping the HTML structure: ```html

如何获取参数?

```

在HTML结构中,将以下英文文本翻译为简体中文: LLM的魔力在于其参数。描述参数获取的最简单方式是将其理解为对互联网大部分内容的压缩。想象一下,通过对互联网的爬取获得了大约10TB的文本。在这个过程中,我们只是收集来自各种不同网站的大量文本,并将其整合在一起。这可以通过采购GPU集群来完成,GPU集群本质上是专门用于非常重型计算任务的计算机。训练神经网络大约需要6000个GPU,并且需要运行约12天才能获得Llama 270b大小的模型。这将花费大约200万美元。因此,强调一下,我们所做的是将大量文本压缩成一种类似于zip文件的形式。因此,我们之前讨论的参数文件应该被视为一种zip文件的形式。

To translate "Okay, we have the parameters, so what?" into simplified Chinese while keeping the HTML structure, you can use the following code snippet: ```html Okay, we have the parameters, so what? 好的,我们有了这些参数,那又怎样? ``` In this HTML snippet: - `` indicates the English text. - `` indicates the simplified Chinese translation. Make sure your HTML document has proper encoding and meta tags to display Chinese characters correctly.

Sure, here is the HTML structure with the translated text in simplified Chinese: ```html

一旦我们有了运行神经网络的参数,计算成本就相当低廉。神经网络并不复杂。神经网络基本上只是基于这些参数,并试图预测序列中的下一个词。就像任何基本的神经网络一样,参数是神经网络的输入,这些参数分散在整个神经网络中,我们期望的输出是预测下一个词是什么。

``` In this HTML snippet: - `

` tags are used to denote paragraphs, as typically used in HTML for text content. - The Chinese text is enclosed within the `

` tags and is a direct translation of the provided English text.

To translate "So it’s probability?" into simplified Chinese while keeping the HTML structure intact, you can use the following: ```html 所以这是概率吗? ``` This HTML code uses `` with the `lang` attribute set to `zh-CN` for simplified Chinese. The text inside the `` tag is the translation of "So it’s probability?".

To translate the English text to simplified Chinese while keeping the HTML structure intact, you can use the following: ```html

神经网络的基本任务是非常准确地执行下一个词的预测,并使用这一预测来压缩数据集,因此它只是一个下一个词预测神经网络。神经网络给它一些词,它给你下一个。但请注意,这个任务可能会让你觉得是一个非常简单的目标,但实际上它是一个相当强大的目标,因为它迫使你在参数内学习关于世界的许多知识。神经网络必须学习很多被称为参数的权重中压缩的收集到的知识。

``` This HTML snippet translates the provided English text into simplified Chinese and wraps it in a `

` (paragraph) tag to maintain the structure.

Sure, here is the translated text in simplified Chinese while keeping the HTML structure: ```html

在语言模型中,神经网络的作用是什么?

``` This HTML snippet displays the translated text "在语言模型中,神经网络的作用是什么?" in simplified Chinese.

Sure, here is the HTML structure with the translated text in simplified Chinese: ```html

Translated Text

在核心,神经网络执行的任务是在给定上下文中生成接下来的内容。在神经网络训练期间,我们连续采样一个词,将其反馈回去,并获取下一个词以重复这个过程。因此,网络几乎只是在某种幻觉形式中模仿这些文档。

``` Translated text in simplified Chinese: 在核心,神经网络执行的任务是在给定上下文中生成接下来的内容。在神经网络训练期间,我们连续采样一个词,将其反馈回去,并获取下一个词以重复这个过程。因此,网络几乎只是在某种幻觉形式中模仿这些文档。

Sure, the simplified Chinese translation of "How does this network work?" while keeping the HTML structure intact would be: ```html

这个网络是如何工作的?

```

```html

您可能对神经网络如何执行下一个单词预测任务以及其内部运作感到好奇。老实说,这是事情变得有些复杂的地方。这些网络的显著之处在于,我们确实知道它们内部发生的数学运算的详细情况及其各个阶段,但挑战在于数十亿的参数早已分散在整个神经网络中,因此我们所知道的仅仅是如何通过迭代调整这些参数,使得整个网络在网络预测任务上表现更好。因此,我们基本上知道如何优化这些参数,以获得更好的下一个单词预测,但没有人知道这数十亿参数在神经网络内部做什么以及它们如何协同工作来执行预测任务。因此,唯一能做的就是测量网络是否在进行网络预测方面变得更好,然后优化这些参数(输入),以提高预测准确性。

``` This HTML snippet contains the translated text in simplified Chinese, structured to maintain readability and maintain HTML format.

Sure, the simplified Chinese translation of "Interpretability" while keeping the HTML structure intact would be: ```html 可解释性 ``` In this HTML snippet: - `` indicates that the text inside is in Simplified Chinese. - `可解释性` is the translation of "Interpretability" into Simplified Chinese. This structure ensures that the text is correctly identified and rendered as Simplified Chinese by browsers and other parsing tools.

在保留HTML结构的情况下,将以下英文文本翻译为简体中文: 有一些模型可以尝试从高层次思考神经网络可能正在进行的工作。这是通过理解它们构建的内容并维护某种知识数据库完成的,但不幸的是,这些知识数据库非常奇怪且并不完美。请注意,当您考虑到大型语言模型时,内部工作的许多细节与构建汽车等事物的清晰理解相比显得模糊。要有一个相当准确的大型语言模型,它必须经历长时间的优化过程以提高性能,但我们无法准确地说出神经网络是如何工作的。然而,有一个称为“可解释性”的领域旨在弄清楚神经网络的各个部分在做什么。您可以在一定程度上做到这一点,但目前无法完全解释一切。

Here's the translation in Simplified Chinese while keeping the HTML structure: ```html 如何获得一个人们可以互动的AI助手? ```

```html

到目前为止,我们只讨论了LLM作为文本或文档生成器,但它不仅仅是这样。直到此刻我们所讨论的一切被称为大型语言模型的预训练阶段,这个阶段仅限于文档或文本生成,并且对于许多任务并不十分有用。首先制作LLM的目的是让我们能够提出问题,然后期望LLM根据提供的问题生成答案。为了实现这种助理功能,我们必须进行下一步的训练,即所谓的微调阶段。

```

Fein调

Sure, here's the translated text in simplified Chinese while keeping the HTML structure: ```html 获取AI助理的过程在基本上是相似的,我们保持优化的方式也是一样的。训练过程与之前相同,即进行下一个词预测的任务,但在这个阶段,我们会替换用来训练神经网络的数据集。回顾起初 ``` This HTML structure will render the translated Chinese text while maintaining the integrity of any surrounding HTML tags.

Sure, here's the translated text in simplified Chinese, while keeping the HTML structure: ```html

训练,该模型是在互联网文档上进行训练的,现在在这个阶段我们利用手动收集的数据来训练LLM。这些数据是从许多人那里收集来的。通常情况下,为了收集这些数据,公司会雇佣人员并给他们标注指导。公司会要求这些人提出问题,然后为这些问题写答案。下面的图片展示了可能用于训练的文本示例。

``` This translation preserves the structure of the HTML while conveying the meaning of the original English text in simplified Chinese.

Sure, here's the translation in simplified Chinese while keeping the HTML structure: ```html 这些数据是如何收集的? ``` This HTML snippet ensures that the text "这些数据是如何收集的?" (How is this data collected?) is displayed in simplified Chinese, maintaining the HTML structure around it.

```html 每个人都将写出对这些问题理想回答应该是什么样子。所有这些问题都将遵循公司指定的标注说明。例如,OpenAI公司的负责人将制定标注文档。在预训练阶段,主要是从互联网上大量获取文本数据,这些文本可能数量很大,但其中大部分并非高质量文本。在第二个训练阶段,我们更注重质量而非数量,例如,我们可能只有20万个文档,但所有这些文档现在都是对话形式,并且它们必须是非常高质量的对话,以构成第二个训练数据集。 ```

Sure, here's the translation of "The assistant model" into simplified Chinese while keeping the HTML structure: ```html 助理模型 ``` In this HTML snippet, `` is used to encapsulate the translated text "助理模型" which means "The assistant model" in simplified Chinese.

```html

模型然后在这些问答数据上进行训练,完成此过程后,我们得到的模型就是我们所称的助理模型。现在,助理模型遵循其新训练的形式来回答新的查询。例如,如果我们给它一个涉及在您的代码中解决错误的新问题,即使这个问题的答案不在第二个训练数据集中,模型仍将基于我们早期训练的参数来使用下一个词预测找到正确答案,但仍然理解它应以有帮助的助理形式回应新问题。这些模型能够改变它们的响应以成为有帮助的助理的能力非常令人印象深刻,但仍利用在预训练阶段建立起来的所有知识。

```

Sure, here is the text "Putting everything together" translated into simplified Chinese while keeping the HTML structure: ```html 将一切整合在一起 ``` In this HTML snippet, `` is used to encapsulate the translated text "将一切整合在一起", maintaining the structure of the original HTML.

Sure, here's the translated text in simplified Chinese: 获取类似ChatGPT这样的聊天助手分为两个阶段。第一阶段是预训练阶段,涉及从互联网上通过网页抓取获取大量文本(参数),获得一组GPU集群,将文本压缩成神经网络,运行多天,这将生成我们称之为基础模型的内容。这第一阶段计算成本高昂,因此在公司内可能每年或几个月进行一次。

```html

一旦我们有了基础模型,接下来就进入微调阶段,这涉及编写标记说明,定义助手的行为方式。公司随后雇佣人员根据标记创建问答文档。基础模型然后在这些数据上进行约一到两天的训练,然后我们得到所谓的助手模型。接着,我们通过向助手模型提问来监视和收集任何不良行为,并记录模型的答案。

``` This HTML structure preserves the translation while ensuring it can be easily integrated into web content.

以下是将英文文本翻译为简体中文并保持HTML结构的结果: ```html

然后,我们获取所有模型给出错误响应的转换,并要求人员填写正确答案,然后再次提供给模型作为改进的示例。由于这种方式在计算上较为经济,因此这个过程经常重复。

```

进一步的微调阶段

```html

制造与GPT-4一样强大的模型是一个持续的微调过程,为了使模型更好,我们可以应用其他的微调技术,一个你会使用的微调的例子被称为比较标签。在这种技术中,我们要求模型生成多个答案,然后请人类对模型提供哪个是最佳响应的反馈。我们这样做是因为如果你是人类的话,比较答案比自己写答案要容易。最后,我知道我描述微调阶段时说人类在做所有手工作业,但这并不完全准确。这个过程更像是一个机器协作的过程,以提高这些标签的效率和正确性。

```

2024-07-10 05:02:31 AI中文站翻译自原文