A quick guide to setting up Ollama for local AI model execution with Cline.
使用 Cline-胜算云增强版 设置 Ollama 以执行本地 AI 模型的快速指南。
Windows、macOS 或 Linux 计算机
在 VS Code 中安装 Cline
1.安装 Ollama
访问 ollama.comarrow-up-right
根据您的操作系统下载并安装
2. 选择并下载模型
在 ollama.com/searcharrow-up-right 浏览模型
选择模型并复制命令:
复制
打开终端并运行以下命令:
例子:
✨ 您的模型现在可以在 Cline-胜算云增强版 中使用了!
3.配置 Cline-胜算云增强版
打开 VS Code
单击 Cline-胜算云增强版 设置图标
选择“Ollama”作为 API 提供商
输入配置:
基本 URL: http://localhost:11434/ (默认值,可以保留)
http://localhost:11434/
从可用选项中选择型号
与 Cline-胜算云增强版 一起使用之前先启动 Ollama
保持 Ollama 在后台运行
首次下载模型可能需要几分钟
如果 Cline-胜算云增强版 无法连接到 Ollama:
验证 Ollama 是否正在运行
检查基本 URL 是否正确
确保模型已下载
需要更多信息?阅读 Ollama 文档 arrow-up-right。
以前的arrow-up-right
Last updated 9 months ago
ollama run [model-name]
ollama run llama2