Sure, here's how you can translate that English text into simplified Chinese while keeping the HTML structure: ```html 好奇用户的大语言模型概念:LLM 的静态、无状态和方向性特性 ``` This HTML code snippet preserves the structure while presenting the translated text in simplified Chinese.

Sure, here's the text translated to simplified Chinese while keeping the HTML structure intact: ```html

三个关于LLM如何运作的最大误解解释。

```

Sure, here's how you could write "LLMs are Static" in simplified Chinese while keeping the HTML structure intact: ```html LLMs are Static ``` In simplified Chinese characters, it would be: ```html LLMs 是静态的 ```

Sure, here's the translation of the provided text into simplified Chinese while keeping the HTML structure intact: ```html 当我们说像OpenAI的GPT系列这样的LLM是静态的时候,我们指的是它们的广义知识(或权重),仅在训练过程中学习,从不在使用(或推理)过程中改变。换句话说,模型在没有某种形式的训练(无论是初始预训练还是未来的微调)的情况下不会学习、适应或改变。这就是为什么模型的创建者和提供者会为其模型设定截止日期的原因。 ``` This HTML code will display the translated text in simplified Chinese while preserving the original structure if it's rendered in a browser or displayed in an HTML viewer.

在保持HTML结构的情况下,将以下英文文本翻译为简体中文: 那么像ChatGPT这样的服务为何似乎拥有更新的信息,超越了训练日期的范围?

Sure, here's the translated text in simplified Chinese, keeping the HTML structure intact: ```html

为了使模型能够处理在这些昂贵而密集的训练过程中未曾见过的数据,它们必须从某些其他来源或机制中获得这些新数据的上下文(类似于“工作记忆”)。具体包括以下内容:

``` This HTML snippet contains the translated text in simplified Chinese, maintaining the structure suitable for web content.

Sure, here is the text translated into simplified Chinese while keeping the HTML structure: ```html 推理过程中的上下文学习(在提示中提供新信息) ``` This HTML snippet ensures that the translated Chinese text is properly marked up and identifiable for display or processing purposes.

Sure, here's the text "A user’s direct prompt" translated into simplified Chinese while keeping the HTML structure intact: ```html 一个用户的直接提示 ``` This HTML snippet maintains the original structure and translates the text accordingly.

Sure, here's how you can structure and translate the text into simplified Chinese while keeping the HTML tags intact: ```html 2) An application calling the model (using an API to interact with a model programmatically) ``` Translated into simplified Chinese: ```html 2) 一个调用模型的应用程序(使用API与模型进行程序化交互) ``` In this HTML snippet: - `...` denotes the English text. - `...` denotes the simplified Chinese translation. This approach maintains the HTML structure while providing the translated text in simplified Chinese.

Sure, here is the translation of "Retrieval-Augmented Generation (RAG)" in simplified Chinese while keeping the HTML structure intact: ```html 检索增强生成(RAG) ```

To translate "Function calling and agents to obtain data from external sources (e.g., Google, Wikipedia, Wolfram Alpha)" into simplified Chinese while keeping the HTML structure, you can use the following: ```html 功能调用和代理获取外部数据(例如,Google、Wikipedia、Wolfram Alpha) ``` This HTML snippet will display the translated Chinese text and specify that the language of the content is simplified Chinese.

在保持HTML结构的前提下,将以下英文文本翻译成简体中文: 4) 可以在提示之间甚至在会话之间存储信息的向量数据库

Here is the translated text in Simplified Chinese while keeping the HTML structure: ```html Hallucinations 幻觉 ```

在保持HTML结构的情况下,将以下英文文本翻译为简体中文: 5) 最后,有时语言模型看起来回答了当前信息,实际上却是在产生幻觉。当语言模型创建语法正确但事实不准确的文本时,就会发生幻觉,这是一种正常且预期的行为。

Sure, here's the translation of the text into simplified Chinese while keeping the HTML structure intact: ```html 这是因为语言模型基于概率生成文本,而不是死记硬背的知识,重要的是要明白,语言模型可能在看似提供当前信息时其实是在编造信息。 ``` This HTML code includes the translated text in simplified Chinese.

To translate "LLMs are Stateless" into simplified Chinese while keeping the HTML structure intact, you would use the following: ```html LLMs 是无状态的 ``` In this translation: - `` tags are used to denote a section of text that should be formatted separately. - "LLMs" is directly transliterated into Chinese characters as "LLMs". - "是" means "are". - "无状态的" means "stateless".

Sure, here is the translated text in simplified Chinese while keeping the HTML structure intact: ```html

LLM(语言模型)可以被看作是一个只读数据文件(包含广义文本知识或权重),以及与该数据交互的机制(如注意力和标记化功能等)。模型本身在使用(或推理)过程中并不会改变,也不会在请求之间实际“运行”或执行任何操作。

``` This HTML snippet contains the translated text in simplified Chinese, formatted as a paragraph (`

` tag).

以下是将英文文本翻译成简体中文并保持HTML结构的结果: ```html 此外,像OpenAI的GPT系列这样的模型实际上不会记住(或更准确地说,存储)任何来自先前请求的数据 — 这取决于应用层来维护整个对话的运行日志,并在每次请求时呈现全部或部分日志。这样做会使模型在实际上每次仅仅处理整个不断增长的聊天历史时,给人一种在进行来回对话的错觉。 ``` 这段翻译保留了原始文本的意思,并符合HTML标记语言的结构。

```html 随着上下文的增长(如上所述的提示、响应、从函数调用中提取的数据、代理和向量数据库),处理整个上下文所需的内存和计算能力也会增加。 ```

在模型训练过程中(确定最大可能的上下文)以及可用资源(GPU VRAM,计算资源)决定了模型可以处理的最大上下文量,到达某一点时,必须省略或截断部分上下文以继续工作。

Sure, here is the translation in simplified Chinese while maintaining HTML structure: ```html LLMs 生成单向文本 ```

Sure, here is the simplified Chinese translation of the text: ```html

LLMs通过使用所谓的自注意力机制根据提示生成新文本。正是这种机制,如2017年里程碑式论文《Attention Is All You Need》所描述的,导致了像ChatGPT这样基于生成变换器的LLMs近期的巨大进步。

```

在保持HTML结构的情况下,将以下英文文本翻译为简体中文: 这种机制考虑提示中的所有标记(参见昨天关于标记化的文章),以及它们之间的关系,根据概率生成一个新的单个标记。然后,机制再次考虑所有标记,包括新的标记,以生成另一个标记,如此循环,直到答案完成。

Sure, here is the translated text in simplified Chinese, while keeping the HTML structure intact: ```html 这种文本生成是单向的,被称为“前向传播”,模型在生成新标记时每次都会考虑所有当前标记,但模型在生成过程中无法更改或编辑先前生成的文本。 ``` In HTML: ```html

这种文本生成是单向的,被称为“前向传播”,模型在生成新标记时每次都会考虑所有当前标记,但模型在生成过程中无法更改或编辑先前生成的文本。

```

Here is the translated text in simplified Chinese, keeping the HTML structure: ```html 这种方向性是语言模型难以遵循字数和建议回复长度的另一个原因,也代表了人类思维方式与语言模型简单基于学习语言和概率关系生成新文本之间的又一个巨大差异。 ```

2024-07-11 04:47:53 AI中文站翻译自原文