如何使用Ollama在本地LLMs上运行OpenAI Swarm

用示例解释的代码,用于多人工智能代理系统。

Photo by Andrew Neel on Unsplash

生成式人工智能正快速发展,每天都会有更新的大型语言模型推出,许多框架也为各种用例而出现。本月最重要的发布之一是OpenAI Swarm。

如在git存储库中提到

Swarm是一个为教育目的设计的实验性框架,专注于轻量级多代理编排。

如果您想了解更多关于OpenAI Swarm的信息,您可以查看这个网址:

包装看起来不错,相当简约和简单实施。然而,这个包装的一个大挑战是它只能用付费的OpenAI API密钥。

如何免费使用本地LLMs?

没有直接的解决方案。但我有一个变通方法,感谢victorb的ollama-swarm。

所以,这个存储库声称是OpenAI-Swarm的一个分支,但是使用Ollama,这是一种在本地系统中运行LLMs的流行软件,无需编程。

您需要跟随一些步骤来运行使用Ollama-Swarm的OpenAI Swarm。

在终端中执行命令 git clone 该代码库。

进入git仓库并在其中创建您的笔记本/Python文件

设置两个环境变量

OPENAI_ENDPOINT=http://localhost:11434/v1 
SWARM_DEFAULT_MODEL=qwen2.5:72b

SWARM_DEFAULT_MODEL 可根据您希望使用的本地LLM进行更改,方法是使用 'ollama model code'。

4. 此外,在使用Swarm之前,我建议您在cmd中运行以下代码。

ollama run your_model_code

为什么?因为当使用Ollama第一次调用任何模型时,它首先会在本地下载,因此会花费时间。

5. 你都准备好了!!

尝试运行示例代码。它应该可以工作。

from swarm import Swarm, Agent
import os

os.environ['SWARM_DEFAULT_MODEL'] =''
os.environ['OPENAI_ENDPOINT'] = ''

client = Swarm()

english_agent = Agent(
name="English Agent",
instructions="You only speak English.",
)

spanish_agent = Agent(
name="Spanish Agent",
instructions="You only speak Spanish.",
)


def transfer_to_spanish_agent():
"""Transfer spanish speaking users immediately."""
return spanish_agent


english_agent.functions.append(transfer_to_spanish_agent)

messages = [{"role": "user", "content": "Hola. ¿Como estás?"}]
response = client.run(agent=english_agent, messages=messages)

print(response.messages[-1]["content"])

您甚至可以检查上面附加的视频教程以供参考。希望您尝试一下这个框架!

2024-10-22 04:10:30 AI中文站翻译自原文