在Zotero中使用Ollama
Zotero Ollama配置教程: 一步步教你如何在Zotero中使用DeepSeek、Qwen、Llama等本地AI模型,保护隐私零成本
Ollama 是运行本地大型语言模型(如 DeepSeek、Qwen、Llama、Mistral等)最简单的方式。通过在 Zotero 中配置 Ollama 模型,您可以在本地运行 AI 模型,无需依赖云端服务,既保护隐私又节省成本。
前置条件
在开始之前,请确保您已经安装了以下软件:
- Zotero - 文献管理软件
- Ollama - 本地模型运行工具
- BibGenie 插件 - Zotero AI 助手插件
验证 Ollama 安装
首先需要验证 Ollama 是否安装成功。打开命令行终端,输入以下命令:
ollama list如果安装成功,您将看到类似如下的输出:
NAME ID SIZE MODIFIED
qwen2.5:3b 357c53fb659c 1.9 GB 8 months ago
llama3:latest a6990ed6be41 4.7 GB 1 months ago
phi3:latest a2c89ceaed85 2.3 GB 1 months ago上述输出表示 Ollama 已安装了 qwen2.5:3b、llama3:latest、phi3:latest 三个模型。
安装失败?
如果命令无法执行或提示找不到 ollama,请参考 Ollama 官方安装指南 进行安装。
启动 Ollama 服务
验证安装成功后,需要启动 Ollama 服务。在命令行中输入:
ollama serve服务启动成功后,您将看到类似如下的输出:
time=2025-12-07T14:06:04.605+08:00 level=INFO source=routes.go:1331 msg="server config" ...
time=2025-12-07T14:06:04.643+08:00 level=INFO source=routes.go:1384 msg="Listening on 127.0.0.1:11434 (version 0.11.8)"默认端口
Ollama 服务默认监听 127.0.0.1:11434 端口。如果您需要修改端口或允许远程访问,请参考 Ollama 官方文档。
在 BibGenie 中配置 Ollama
确认 Ollama 服务启动成功后,接下来在 Zotero 中配置模型。
打开模型设置页面
点击 BibGenie 插件窗口右上角的齿轮图标,选择 "llm-settings" 打开模型设置页面。
选择配置方式
您可以通过以下两种方式配置 Ollama 模型:
- 新建模型:点击左上角的 Add Model 按钮创建新模型
- 编辑内置模型:在 Custom Models 列表中找到 BibGenie 内置的 Ollama 模型,直接编辑
填写配置信息
根据您选择的配置方式,填写相应的配置项。
保存并启用
配置完成后,点击保存。如果模型处于关闭状态,记得开启该模型的开关。
配置项说明
新建 Ollama 模型时,需要配置以下内容:
| 配置项 | 必填 | 说明 |
|---|---|---|
| Model Name | ✓ | 模型显示名称,可自定义,如 Ollama-qwen2.5:3b |
| Model ID | ✓ | Ollama 模型 ID,即 ollama list 命令中 NAME 列的值 |
| Provider Name | ✓ | 模型提供商名称,可自定义,如 Ollama |
| Provider Type | ✓ | 选择 Ollama |
| Base URL | - | API 地址,选择 Ollama 后自动填入 http://127.0.0.1:11434 |
| API Key | - | API 密钥,默认为空,除非您在启动时指定了密钥 |
| Model Type | ✓ | 模型类型,一般选择 text, 如果模型支持其他功能, 可以勾选其他功能 |
| Max Tokens | - | 最大 Token 数,可根据模型调整,默认不填 |
| Context Window | - | 上下文窗口大小,可根据模型调整,默认不填 |
| Description | - | 模型描述,可自定义,默认不填 |
编辑 BibGenie 内置的 Ollama 模型时,只需配置以下内容:
| 配置项 | 必填 | 说明 |
|---|---|---|
| Model Name | ✓ | 模型显示名称,可自定义 |
| Model ID | ✓ | 填入您想使用的 Ollama 模型 ID,即 ollama list 命令中 NAME 列的值 |
| API Key | - | API 密钥,默认为空,除非您在启动时指定了密钥 |
| Base URL | - | API 地址,默认 http://127.0.0.1:11434,除非您在启动时指定了其他地址 |
开始使用
配置完成后,您可以在 BibGenie 的聊天界面中使用配置好的 Ollama 模型:
- 打开 BibGenie 聊天窗口
- 在输入框下方的模型选择下拉框中选择您配置的 Ollama 模型
- 开始与本地 AI 模型对话
推荐模型
对于科研文献阅读和翻译任务,推荐使用以下模型:
- qwen - 平衡性能与速度
- llama3 - 英文理解能力强
- deepseek-r1 - 推理能力出色
BibGenie 文档