Ollama

A quick guide to setting up Ollama for local AI model execution with Cline.

使用 Cline-胜算云增强版 设置 Ollama 以执行本地 AI 模型的快速指南。

📋 先决条件

  • Windows、macOS 或 Linux 计算机

  • 在 VS Code 中安装 Cline

🚀 设置步骤

1.安装 Ollama

  • 访问 ollama.com

  • 根据您的操作系统下载并安装

2. 选择并下载模型

  • ollama.com/search 浏览模型

  • 选择模型并复制命令:

    复制

    ollama run [model-name]

  • 打开终端并运行以下命令:

    • 例子:

      ollama run llama2

✨ 您的模型现在可以在 Cline-胜算云增强版 中使用了!

3.配置 Cline-胜算云增强版

  1. 打开 VS Code

  2. 单击 Cline-胜算云增强版 设置图标

  3. 选择“Ollama”作为 API 提供商

  4. 输入配置:

    • 基本 URL: http://localhost:11434/ (默认值,可以保留)

    • 从可用选项中选择型号

⚠️ 重要提示

  • 与 Cline-胜算云增强版 一起使用之前先启动 Ollama

  • 保持 Ollama 在后台运行

  • 首次下载模型可能需要几分钟

🔧 故障排除

如果 Cline-胜算云增强版 无法连接到 Ollama:

  1. 验证 Ollama 是否正在运行

  2. 检查基本 URL 是否正确

  3. 确保模型已下载

需要更多信息?阅读 Ollama 文档

以前的

Last updated