Ollama
A quick guide to setting up Ollama for local AI model execution with Cline.
使用 Cline-胜算云增强版 设置 Ollama 以执行本地 AI 模型的快速指南。
📋 先决条件
Windows、macOS 或 Linux 计算机
在 VS Code 中安装 Cline
🚀 设置步骤
1.安装 Ollama
访问 ollama.com
根据您的操作系统下载并安装

2. 选择并下载模型
在 ollama.com/search 浏览模型
选择模型并复制命令:
复制
ollama run [model-name]
打开终端并运行以下命令:
例子:
ollama run llama2

✨ 您的模型现在可以在 Cline-胜算云增强版 中使用了!
3.配置 Cline-胜算云增强版
打开 VS Code
单击 Cline-胜算云增强版 设置图标
选择“Ollama”作为 API 提供商
输入配置:
基本 URL:
http://localhost:11434/
(默认值,可以保留)从可用选项中选择型号
⚠️ 重要提示
与 Cline-胜算云增强版 一起使用之前先启动 Ollama
保持 Ollama 在后台运行
首次下载模型可能需要几分钟
🔧 故障排除
如果 Cline-胜算云增强版 无法连接到 Ollama:
验证 Ollama 是否正在运行
检查基本 URL 是否正确
确保模型已下载
需要更多信息?阅读 Ollama 文档 。
Last updated