Ollama
A quick guide to setting up Ollama for local AI model execution with Cline.
Last updated
A quick guide to setting up Ollama for local AI model execution with Cline.
Last updated
使用 Cline 设置 Ollama 以执行本地 AI 模型的快速指南。
Windows、macOS 或 Linux 计算机
在 VS Code 中安装 Cline
1.安装 Ollama
访问
根据您的操作系统下载并安装
2. 选择并下载模型
在 浏览模型
选择模型并复制命令:
复制
打开终端并运行以下命令:
例子:
复制
✨ 您的模型现在可以在 Cline 中使用了!
3.配置 Cline
打开 VS Code
单击 Cline 设置图标
选择“Ollama”作为 API 提供商
输入配置:
基本 URL: http://localhost:11434/
(默认值,可以保留)
从可用选项中选择型号
与 Cline 一起使用之前先启动 Ollama
保持 Ollama 在后台运行
首次下载模型可能需要几分钟
如果 Cline 无法连接到 Ollama:
验证 Ollama 是否正在运行
检查基本 URL 是否正确
确保模型已下载
需要更多信息?阅读 。