《本地LLM神器Ollama,浏览器就能玩转AI!》


3 个月前

使用 Ollama 与 Browser-Use 来利用本地大语言模型(LLMs)

引言

在本文中,我们将展示如何通过在 Browser-Use 的网页界面中选择 Ollama 作为提供者来使用本地大语言模型(LLMs)。截至 2025 年 1 月 12 日,Browser-Use 网页界面允许你从多个 LLM 提供者中选择,包括 Anthropic、OpenAI、DeepSeek、Gemini、Ollama 和 Azure OpenAI。使用 Ollama 可以避免 API 费用,因此它是实验本地 LLMs 的一个绝佳选择。

本文将指导你如何设置并使用 Browser-Use 与 Ollama。

什么是 Browser-Use?

Browser-Use 是一个利用 AI 代理自动化浏览器操作的库。

官方仓库:Browser-Use GitHub

其示例目录提供了多种使用场景:Browser-Use 示例

Browser-Use 网页界面

Browser-Use 网页界面允许你通过网页界面与 Browser-Use 进行交互。

仓库:Browser-Use 网页界面

克隆仓库:

git clone git@github.com:browser-use/web-ui.git

你需要 Python 3.11 或更高版本。设置虚拟环境并安装所需的包:

pyenv install 3.11  
pyenv local 3.11  
python -m venv .venv  
source .venv/bin/activate  
pip install -r requirements.txt  
playwright install

设置环境变量:

cp .env.example .env

启动网页界面:

python webui.py --ip 127.0.0.1 --port 7788

访问界面:http://127.0.0.1:7788/

使用 Ollama 的本地 LLMs

下载 Ollama

首先,下载 Ollama

下载后安装 Ollama。

安装所需的模型

接下来,通过 Ollama 安装必要的模型。截至 2025 年 1 月 12 日,Browser-Use 网页界面支持 “qwen2.5:7b” 和 “llama2:7b” 作为 Ollama 的默认模型。你也可以指定自定义模型。

安装模型:

ollama run qwen2.5:7b  
ollama run llama2:7b

更多关于这些模型的详细信息:

配置 Browser-Use 网页界面

访问 http://127.0.0.1:7788/

LLM 配置 标签中:

  • 选择 “Ollama” 作为 LLM 提供者。
  • 选择 “llama2:7b” 作为模型名称。
  • 将基础 URL 设置为 Ollama 的端点:http://127.0.0.1:11434

代理设置 下,取消勾选 “使用视觉” 和 “在内容中使用工具调用”。

最后,在 运行代理 标签中,提供任务描述并点击 “运行代理”。

实际示例

访问 Google 并检索 “OpenAI” 的第一个 URL

从 Browser-Use 网页界面提供的默认任务描述开始:

go to google.com and type 'OpenAI' click search and give me the first url

使用本地 LLMs 时,任务耗时显著长于使用 OpenAI 的 gpt-4o。以下是详细情况:

  • llama2:7b 到达了第 5 步,但最终失败。
  • qwen2.5:7b 到达了第 4 步,同样失败。

每个任务耗时大约 10-20 分钟。

为了提高速度,可以安装一个较小的模型,如 gemma:2b

ollama run gemma:2b

更新 LLM 配置

  • 将 LLM 提供者设置为 “Ollama”。
  • 输入 “gemma:2b” 作为模型名称。

使用 gemma:2b 时,每个步骤耗时 30 秒到 1 分钟,但任务仍然失败。

结论

在本文中,我们展示了如何通过将 Ollama 与 Browser-Use 的网页界面集成来利用本地 LLMs。使用本地 LLMs 可以让你在不产生 API 费用的情况下实验浏览器自动化。

虽然在我们的测试中任务没有成功完成,但我们验证了本地 LLMs 确实可以与 Browser-Use 一起使用。

感谢阅读!希望本文对你有所帮助。

推荐阅读:

FluxAI 中文

© 2025. All Rights Reserved