LM 工作室
A quick guide to setting up LM Studio for local AI model execution with Cline.
Last updated
A quick guide to setting up LM Studio for local AI model execution with Cline.
Last updated
使用 Cline 设置 LM Studio 以执行本地 AI 模型的快速指南。
使用 LM Studio 和 Cline 在本地运行 AI 模型。
支持 AVX2 的 Windows、macOS 或 Linux 计算机
在 VS Code 中安装 Cline
1.安装 LM Studio
访问
根据您的操作系统下载并安装
2. 启动 LM Studio
打开已安装的应用程序
您会在左侧看到四个选项卡: 聊天 、 开发者 (您将在其中启动服务器)、 我的模型 (存储您下载的模型的位置)、 发现 (添加新模型)
3.下载模型
浏览“发现”页面
选择并下载您喜欢的型号
等待下载完成
4.启动服务器
导航到“开发者”选项卡
将服务器开关切换至“正在运行”
注意:服务器将在 http://localhost:1234
运行
5. Configure Cline
Open VS Code
Click Cline settings icon
Select "LM Studio" as API provider
Select your model from the available options
与 Cline 一起使用之前,请先启动 LM Studio
保持 LM Studio 在后台运行
首次下载模型可能需要几分钟,具体取决于模型大小
下载后模型存储在本地
如果 Cline 无法连接到 LM Studio:
验证 LM Studio 服务器是否正在运行(检查“开发人员”选项卡)
确保模型已加载
检查您的系统是否满足硬件要求