在知识图谱的基础上提升RAG应用的准确性

一个在RAG应用中使用Neo4j和LangChain构建和检索知识图的实用指南

Image created by DALL-E.

Sure, here's the translation in simplified Chinese: ```html

图检索增强生成(GraphRAG)正在蓬勃发展,并成为传统向量搜索检索方法的强大补充。该方法利用图数据库的结构化特性,将数据组织为节点和关系,以增强检索到的信息的深度和上下文。

```
Example of a knowledge graph.

Sure, here's the translated text in simplified Chinese, maintaining the HTML structure: ```html

图表在以结构化方式代表和存储异构且相互关联的信息方面表现出色,轻松捕捉不同数据类型之间的复杂关系和属性。相比之下,向量数据库常常难以处理这种结构化信息,因为它们的优势在于通过高维向量处理非结构化数据。在您的 RAG 应用中,您可以将结构化图数据与通过非结构化文本进行的向量搜索相结合,以实现两者的最佳效果。这正是我们将在本博文中演示的内容。

```

Sure, here's the translation: ```html

知识图谱很棒,但是你如何创建一个呢?

```

构建知识图谱通常是最具挑战性的步骤。这涉及到收集和构建数据,需要对领域和图形建模都有深入的理解。

为了简化这个过程,我们一直在尝试LLMs。凭借其对语言和上下文的深刻理解,LLMs可以自动化知识图谱创建过程的重要部分。通过分析文本数据,这些模型可以识别实体,理解它们之间的关系,并建议如何最好地在图结构中表示它们。

Sure, here's the translated text: ```html 由于这些实验的结果,我们已经在LangChain中添加了图构建模块的第一个版本,我们将在这篇博文中进行演示。 ```

这段代码可以在GitHub上找到。

Neo4j环境设置

```html 你需要设置一个 Neo4j 实例。跟随这篇博客文章中的示例进行操作。最简单的方法是在 Neo4j Aura 上启动一个免费实例,它提供了 Neo4j 数据库的云实例。或者,您也可以通过下载 Neo4j Desktop 应用程序并创建本地数据库实例来设置 Neo4j 数据库的本地实例。 ```

os.environ["OPENAI_API_KEY"] = "sk-"
os.environ["NEO4J_URI"] = "bolt://localhost:7687"
os.environ["NEO4J_USERNAME"] = "neo4j"
os.environ["NEO4J_PASSWORD"] = "password"

graph = Neo4jGraph()

```html

另外,您必须提供一个OpenAI密钥,因为我们将在这篇博客文章中使用他们的模型。

```

Sure, here is the translation of "Data Ingestion" in simplified Chinese while maintaining the HTML structure: ```html 数据摄入 ``` In this HTML snippet: - `` is used to group inline elements and apply styles if needed. - `lang="zh-CN"` specifies the language as simplified Chinese. - The text "数据摄入" translates to "Data Ingestion" in simplified Chinese.

为了进行演示,我们将使用伊丽莎白一世的维基百科页面。我们可以使用LangChain加载器无缝地从维基百科获取并拆分文档。

# Read the wikipedia article
raw_documents = WikipediaLoader(query="Elizabeth I").load()
# Define chunking strategy
text_splitter = TokenTextSplitter(chunk_size=512, chunk_overlap=24)
documents = text_splitter.split_documents(raw_documents[:3])

Sure, here's the translated text in simplified Chinese, keeping the HTML structure: ```html

是时候基于检索到的文档构建图表了。为此,我们实现了一个 LLMGraphTransformer 模块,大大简化了在图数据库中构建和存储知识图谱的过程。

```
llm=ChatOpenAI(temperature=0, model_name="gpt-4-0125-preview")
llm_transformer = LLMGraphTransformer(llm=llm)

# Extract graph data
graph_documents = llm_transformer.convert_to_graph_documents(documents)
# Store to neo4j
graph.add_graph_documents(
graph_documents,
baseEntityLabel=True,
include_source=True
)

你可以定义知识图生成链使用哪个LLM。目前,我们仅支持来自OpenAI和Mistral的函数调用模型。然而,我们计划将来扩展LLM的选择。在这个例子中,我们正在使用最新的GPT-4。请注意,生成的图的质量在很大程度上取决于您使用的模型。理论上,您总是希望使用最能胜任的模型。LLM图转换器返回图文档,可以通过add_graph_documents方法导入到Neo4j中。baseEntityLabel参数为每个节点分配一个额外的__Entity__标签,增强索引和查询性能。include_source参数将节点链接到其来源文档,促进数据可追溯性和上下文理解。

To translate "You can inspect the generated graph in the Neo4j Browser" into simplified Chinese while keeping the HTML structure, you can use the following: ```html 您可以在Neo4j浏览器中检查生成的图形。 ```

Part of the generated graph.

Sure, here's the translation: ```html 注意:此图片仅代表生成图的一部分。 ```

RAG的混合检索

在图形生成之后,我们将使用一种混合检索方法,将矢量和关键词索引与图形检索结合起来,用于RAG应用。

Combining hybrid (vector + keyword) and graph retrieval methods. Image by author.

```html

该图表说明了一个检索过程,从用户提出问题开始,然后被引导到一个RAG检索器。该检索器使用关键词和向量搜索来搜索非结构化文本数据,并将其与从知识图谱收集的信息相结合。由于Neo4j具有关键词和向量索引,您可以使用单个数据库系统实现所有三个检索选项。来自这些来源的收集数据被馈送到LLM以生成并传递最终答案。

```

Sure, here's the translation in simplified Chinese while maintaining the HTML structure: ```html 非结构化数据检索器 ```

Sure, here's the translated text in simplified Chinese within the HTML structure: ```html

您可以使用 Neo4jVector.from_existing_graph 方法将关键字和向量检索添加到文档中。该方法配置了混合搜索方法的关键字和向量搜索索引,针对标记为文档的节点。此外,如果缺少文本嵌入值,它还会计算文本嵌入值。

```
vector_index = Neo4jVector.from_existing_graph(
OpenAIEmbeddings(),
search_type="hybrid",
node_label="Document",
text_node_properties=["text"],
embedding_node_property="embedding"
)

Sure, here is the text translated to simplified Chinese while keeping the HTML structure: ```html

然后可以使用 similarity_search 方法调用向量索引。

```

图检索器

Sure, here's the translated text: ```html

另一方面,配置图检索更加复杂,但提供更多自由。本示例将使用全文索引来识别相关节点并返回它们的直接邻居。

```
Graph retriever. Image by author.

图检索器首先通过识别输入中的相关实体来启动。为了简单起见,我们指示LLM识别人员、组织和位置。为了实现这一目标,我们将使用LCEL,结合新添加的with_structured_output方法来实现这一目标。

# Extract entities from text
class Entities(BaseModel):
"""Identifying information about entities."""

names: List[str] = Field(
...,
description="All the person, organization, or business entities that "
"appear in the text",
)

prompt = ChatPromptTemplate.from_messages(
[
(
"system",
"You are extracting organization and person entities from the text.",
),
(
"human",
"Use the given format to extract information from the following "
"input: {question}",
),
]
)

entity_chain = prompt | llm.with_structured_output(Entities)

Sure, here's the translated text in simplified Chinese while maintaining the HTML structure: ```html 让我们来测试一下: ```

entity_chain.invoke({"question": "Where was Amelia Earhart born?"}).names
# ['Amelia Earhart']

Sure, here's the translated text in simplified Chinese within an HTML structure: ```html

好的,现在我们可以在问题中检测实体了,让我们使用全文索引将它们映射到知识图谱。首先,我们需要定义一个全文索引和一个函数,该函数将生成全文查询,允许一些拼写错误,这里我们不会深入讨论。

```
graph.query(
"CREATE FULLTEXT INDEX entity IF NOT EXISTS FOR (e:__Entity__) ON EACH [e.id]")

def generate_full_text_query(input: str) -> str:
"""
Generate a full-text search query for a given input string.

This function constructs a query string suitable for a full-text search.
It processes the input string by splitting it into words and appending a
similarity threshold (~2 changed characters) to each word, then combines
them using the AND operator. Useful for mapping entities from user questions
to database values, and allows for some misspelings.
"""
full_text_query = ""
words = [el for el in remove_lucene_chars(input).split() if el]
for word in words[:-1]:
full_text_query += f" {word}~2 AND"
full_text_query += f" {words[-1]}~2"
return full_text_query.strip()

Sure, here's the translation: 让我们现在把所有东西放在一起。

# Fulltext index query
def structured_retriever(question: str) -> str:
"""
Collects the neighborhood of entities mentioned
in the question
"""
result = ""
entities = entity_chain.invoke({"question": question})
for entity in entities.names:
response = graph.query(
"""CALL db.index.fulltext.queryNodes('entity', $query, {limit:2})
YIELD node,score
CALL {
MATCH (node)-[r:!MENTIONS]->(neighbor)
RETURN node.id + ' - ' + type(r) + ' -> ' + neighbor.id AS output
UNION
MATCH (node)<-[r:!MENTIONS]-(neighbor)
RETURN neighbor.id + ' - ' + type(r) + ' -> ' + node.id AS output
}
RETURN output LIMIT 50
""",
{"query": generate_full_text_query(entity)},
)
result += "\n".join([el['output'] for el in response])
return result

Sure, here is the translated text in simplified Chinese, keeping the HTML structure: ```html

The structured_retriever function starts by detecting entities in the user question. Next, it iterates over the detected entities and uses a Cypher template to retrieve the neighborhood of relevant nodes. Let’s test it out!

``` Translated text: ```html

structured_retriever函数首先检测用户问题中的实体。接下来,它会遍历检测到的实体,并使用Cypher模板检索相关节点的邻域。让我们来测试一下吧!

```
print(structured_retriever("Who is Elizabeth I?"))
# Elizabeth I - BORN_ON -> 7 September 1533
# Elizabeth I - DIED_ON -> 24 March 1603
# Elizabeth I - TITLE_HELD_FROM -> Queen Of England And Ireland
# Elizabeth I - TITLE_HELD_UNTIL -> 17 November 1558
# Elizabeth I - MEMBER_OF -> House Of Tudor
# Elizabeth I - CHILD_OF -> Henry Viii
# and more...

Sure, here's the translation: ```html 最终检索器标签> ```

Sure, here's the translation in simplified Chinese, keeping the HTML structure: ```html

如开始时所述,我们将结合非结构化和图检索器,创建传递给LLM的最终上下文。

```
def retriever(question: str):
print(f"Search query: {question}")
structured_data = structured_retriever(question)
unstructured_data = [el.page_content for el in vector_index.similarity_search(question)]
final_data = f"""Structured data:
{structured_data}
Unstructured data:
{"#Document ". join(unstructured_data)}
"""
return final_data

Sure, here's the HTML structure with the translated text in simplified Chinese: ```html

由于我们正在使用Python,我们可以简单地使用f-string来连接输出。

```

在这里定义RAG链

我们已成功实现了RAG的检索组件。接下来,我们引入一个提示,利用整合的混合检索器提供的上下文来生成响应,完成了RAG链的实现。

template = """Answer the question based only on the following context:
{context}

Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)

chain = (
RunnableParallel(
{
"context": _search_query | retriever,
"question": RunnablePassthrough(),
}
)
| prompt
| llm
| StrOutputParser()
)

最后,我们可以继续测试我们的混合 RAG 实现。

chain.invoke({"question": "Which house did Elizabeth I belong to?"})
# Search query: Which house did Elizabeth I belong to?
# 'Elizabeth I belonged to the House of Tudor.'

我还加入了一个查询重写功能,使RAG链能够适应允许后续问题的对话环境。鉴于我们使用向量和关键词搜索方法,我们必须重写后续问题以优化我们的搜索过程。

chain.invoke(
{
"question": "When was she born?",
"chat_history": [("Which house did Elizabeth I belong to?", "House Of Tudor")],
}
)
# Search query: When was Elizabeth I born?
# 'Elizabeth I was born on 7 September 1533.'

你可以观察到:“她是何时出生?”首先被改写为“伊丽莎白一世是何时出生?”然后使用改写后的查询来检索相关的上下文和回答问题。

Sure, here is the translation: 简化了增强RAG应用程序

Sure, here's the translated text in simplified Chinese within an HTML structure: ```html

随着LLMGraphTransformer的引入,生成知识图的过程现在应该更加顺畅和可访问,这将使任何希望通过知识图为其RAG应用程序提供深度和上下文的人更容易实现。这只是一个开始,因为我们计划进行很多改进。

```

Sure, here's the HTML structure with the text translated to simplified Chinese: ```html 如果您对我们使用LLMs生成图表有任何见解、建议或问题,请毫不犹豫地联系我们。 ```

这段代码可以在 GitHub 上找到。

2024-06-11 05:15:27 AI中文站翻译自原文