LogoBibGenie 文档

在Zotero中使用Ollama

Zotero Ollama配置教程: 一步步教你如何在Zotero中使用DeepSeek、Qwen、Llama等本地AI模型,保护隐私零成本

Ollama 是运行本地大型语言模型(如 DeepSeek、Qwen、Llama、Mistral等)最简单的方式。通过在 Zotero 中配置 Ollama 模型,您可以在本地运行 AI 模型,无需依赖云端服务,既保护隐私又节省成本。

前置条件

在开始之前,请确保您已经安装了以下软件:

验证 Ollama 安装

首先需要验证 Ollama 是否安装成功。打开命令行终端,输入以下命令:

ollama list

如果安装成功,您将看到类似如下的输出:

NAME                       ID              SIZE      MODIFIED
qwen2.5:3b                 357c53fb659c    1.9 GB    8 months ago
llama3:latest              a6990ed6be41    4.7 GB    1 months ago
phi3:latest                a2c89ceaed85    2.3 GB    1 months ago

上述输出表示 Ollama 已安装了 qwen2.5:3bllama3:latestphi3:latest 三个模型。

安装失败?

如果命令无法执行或提示找不到 ollama,请参考 Ollama 官方安装指南 进行安装。

启动 Ollama 服务

验证安装成功后,需要启动 Ollama 服务。在命令行中输入:

ollama serve

服务启动成功后,您将看到类似如下的输出:

time=2025-12-07T14:06:04.605+08:00 level=INFO source=routes.go:1331 msg="server config" ...
time=2025-12-07T14:06:04.643+08:00 level=INFO source=routes.go:1384 msg="Listening on 127.0.0.1:11434 (version 0.11.8)"

默认端口

Ollama 服务默认监听 127.0.0.1:11434 端口。如果您需要修改端口或允许远程访问,请参考 Ollama 官方文档。

在 BibGenie 中配置 Ollama

确认 Ollama 服务启动成功后,接下来在 Zotero 中配置模型。

打开模型设置页面

点击 BibGenie 插件窗口右上角的齿轮图标,选择 "llm-settings" 打开模型设置页面。

选择配置方式

您可以通过以下两种方式配置 Ollama 模型:

  • 新建模型:点击左上角的 Add Model 按钮创建新模型
  • 编辑内置模型:在 Custom Models 列表中找到 BibGenie 内置的 Ollama 模型,直接编辑

填写配置信息

根据您选择的配置方式,填写相应的配置项。

保存并启用

配置完成后,点击保存。如果模型处于关闭状态,记得开启该模型的开关。

配置项说明

新建 Ollama 模型时,需要配置以下内容:

配置项必填说明
Model Name模型显示名称,可自定义,如 Ollama-qwen2.5:3b
Model IDOllama 模型 ID,即 ollama list 命令中 NAME 列的值
Provider Name模型提供商名称,可自定义,如 Ollama
Provider Type选择 Ollama
Base URL-API 地址,选择 Ollama 后自动填入 http://127.0.0.1:11434
API Key-API 密钥,默认为空,除非您在启动时指定了密钥
Model Type模型类型,一般选择 text, 如果模型支持其他功能, 可以勾选其他功能
Max Tokens-最大 Token 数,可根据模型调整,默认不填
Context Window-上下文窗口大小,可根据模型调整,默认不填
Description-模型描述,可自定义,默认不填

编辑 BibGenie 内置的 Ollama 模型时,只需配置以下内容:

配置项必填说明
Model Name模型显示名称,可自定义
Model ID填入您想使用的 Ollama 模型 ID,即 ollama list 命令中 NAME 列的值
API Key-API 密钥,默认为空,除非您在启动时指定了密钥
Base URL-API 地址,默认 http://127.0.0.1:11434,除非您在启动时指定了其他地址

开始使用

配置完成后,您可以在 BibGenie 的聊天界面中使用配置好的 Ollama 模型:

  1. 打开 BibGenie 聊天窗口
  2. 在输入框下方的模型选择下拉框中选择您配置的 Ollama 模型
  3. 开始与本地 AI 模型对话

推荐模型

对于科研文献阅读和翻译任务,推荐使用以下模型:

  • qwen - 平衡性能与速度
  • llama3 - 英文理解能力强
  • deepseek-r1 - 推理能力出色