Cline - 中文版 Docs
  • Cline Documentation
  • 入门指南
    • 快速开始
    • What is Cline?
  • Basics
    • Cline - 中文版胜算 说明文档
      • Cline 和模型上下文协议 (MCP) 服务器:提升 AI 能力
      • Interactive blocks
        • OpenAPI
      • Integrations
        • Cloud Provider Integration
        • Security Concerns
      • .clineignore 功能支持
  • Cline - 中文版胜算 说明文档
    • 什么是Cline - 胜算云增强版
    • 对于新程序员
    • 安装 Cline-胜算云增强版
    • 安装 Dev Essentials
    • 我们最喜欢的技术栈
    • 上下文管理
    • 型号选择指南
  • Getting Started
    • What is Cline?
    • For New Coders
    • Installing Cline
    • Installing Dev Essentials
    • Our Favorite Tech Stack
    • Context Management
    • Model Selection Guide
  • 提高提示技巧
    • 提示工程指南
    • Cline-胜算云增强版 内存库
  • Improving Your Prompting Skills
    • Prompt Engineering Guide
    • Cline Memory Bank
  • 探索 Cline 的工具
    • Cline-胜算云增强版 工具指南
  • 检查站
  • 计划与行动模式:有效人工智能发展指南
  • 新建任务工具
  • Remote Browser 支持
  • Exploring Cline's Tools
    • Cline Tools Guide
    • Checkpoints
    • Plan & Act Modes: A Guide to Effective AI Development
    • New Task Tool
  • Remote Browser Support
  • 企业解决方案
    • 安全问题
  • 云提供商集成
  • MCP 服务器
  • 自定义说明
  • Security Concerns
    • Security Concerns
  • Cloud Provider Integration
  • MCP Servers
  • Custom Instructions
  • MCP服务器
    • MCP概述
    • MCP市场
  • 从 GitHub 添加 MCP 服务器
  • 配置 MCP 服务器
  • 连接到远程服务器
  • MCP 传输机制
  • MCP 服务器开发协议
  • MCP Servers
    • MCP Overview
  • MCP Marketplace
  • Adding MCP Servers from GitHub
  • Configuring MCP Servers
  • Connecting to a Remote Server
  • MCP Transport Mechanisms
  • MCP Server Development Protocol
  • 自定义模型配置
    • 带有凭证身份验证的 AWS Bedrock
    • 带配置文件身份验证的 AWS Bedrock
    • GCP Vertex AI
  • LiteLLM 和 Cline-胜算云增强版(使用 Codestral)
  • Custom Model Configs
    • AWS Bedrock w/ Credentials Authentication
  • AWS Bedrock w/ Profile Authentication
  • GCP Vertex AI
  • LiteLLM & Cline (using Codestral)
  • 本地运行模型
    • 请先阅读
    • Ollama
    • LM 工作室
  • Ollama
  • LM Studio
  • Running Models Locally
  • More Info
    • Telemetry
    • 遥测
Powered by GitBook
On this page
  1. 本地运行模型

LM 工作室

A quick guide to setting up LM Studio for local AI model execution with Cline.

PreviousOllamaNextOllama

Last updated 1 month ago

使用 Cline-胜算云增强版 设置 LM Studio 以执行本地 AI 模型的快速指南。

🤖 使用 Cline-胜算云增强版 设置 LM Studio

使用 LM Studio 和 Cline 在本地运行 AI 模型。

📋 先决条件

  • 支持 AVX2 的 Windows、macOS 或 Linux 计算机

  • 在 VS Code 中安装 Cline

🚀 设置步骤

1.安装 LM Studio

  • 访问

  • 根据您的操作系统下载并安装

2. 启动 LM Studio

  • 打开已安装的应用程序

  • 您会在左侧看到四个选项卡: 聊天 、 开发者 (您将在其中启动服务器)、 我的模型 (存储您下载的模型的位置)、 发现 (添加新模型)

3.下载模型

  • 浏览“发现”页面

  • 选择并下载您喜欢的型号

  • 等待下载完成

4.启动服务器

  • 导航到“开发者”选项卡

  • 将服务器开关切换至“正在运行”

  • 注意:服务器将在 http://localhost:1234 运行

5. Configure Cline-胜算云增强版

  1. Open VS Code

  2. Click Cline settings icon

  3. Select "LM Studio" as API provider

  4. Select your model from the available options

⚠️ 重要提示

  • 与 Cline-胜算云增强版 一起使用之前,请先启动 LM Studio

  • 保持 LM Studio 在后台运行

  • 首次下载模型可能需要几分钟,具体取决于模型大小

  • 下载后模型存储在本地

🔧 故障排除

  1. 如果 Cline-胜算云增强版 无法连接到 LM Studio:

  2. 验证 LM Studio 服务器是否正在运行(检查“开发人员”选项卡)

  3. 确保模型已加载

  4. 检查您的系统是否满足硬件要求

lmstudio.ai