Cline - 中文版 Docs
  • Cline Documentation
  • 入门指南
    • 快速开始
    • What is Cline?
  • Basics
    • Cline - 中文版胜算 说明文档
      • Cline 和模型上下文协议 (MCP) 服务器:提升 AI 能力
      • Interactive blocks
        • OpenAPI
      • Integrations
        • Cloud Provider Integration
        • Security Concerns
      • .clineignore 功能支持
  • Cline - 中文版胜算 说明文档
    • 什么是Cline - 胜算云增强版
    • 对于新程序员
    • 安装 Cline-胜算云增强版
    • 安装 Dev Essentials
    • 我们最喜欢的技术栈
    • 上下文管理
    • 型号选择指南
  • Getting Started
    • What is Cline?
    • For New Coders
    • Installing Cline
    • Installing Dev Essentials
    • Our Favorite Tech Stack
    • Context Management
    • Model Selection Guide
  • 提高提示技巧
    • 提示工程指南
    • Cline-胜算云增强版 内存库
  • Improving Your Prompting Skills
    • Prompt Engineering Guide
    • Cline Memory Bank
  • 探索 Cline 的工具
    • Cline-胜算云增强版 工具指南
  • 检查站
  • 计划与行动模式:有效人工智能发展指南
  • 新建任务工具
  • Remote Browser 支持
  • Exploring Cline's Tools
    • Cline Tools Guide
    • Checkpoints
    • Plan & Act Modes: A Guide to Effective AI Development
    • New Task Tool
  • Remote Browser Support
  • 企业解决方案
    • 安全问题
  • 云提供商集成
  • MCP 服务器
  • 自定义说明
  • Security Concerns
    • Security Concerns
  • Cloud Provider Integration
  • MCP Servers
  • Custom Instructions
  • MCP服务器
    • MCP概述
    • MCP市场
  • 从 GitHub 添加 MCP 服务器
  • 配置 MCP 服务器
  • 连接到远程服务器
  • MCP 传输机制
  • MCP 服务器开发协议
  • MCP Servers
    • MCP Overview
  • MCP Marketplace
  • Adding MCP Servers from GitHub
  • Configuring MCP Servers
  • Connecting to a Remote Server
  • MCP Transport Mechanisms
  • MCP Server Development Protocol
  • 自定义模型配置
    • 带有凭证身份验证的 AWS Bedrock
    • 带配置文件身份验证的 AWS Bedrock
    • GCP Vertex AI
  • LiteLLM 和 Cline-胜算云增强版(使用 Codestral)
  • Custom Model Configs
    • AWS Bedrock w/ Credentials Authentication
  • AWS Bedrock w/ Profile Authentication
  • GCP Vertex AI
  • LiteLLM & Cline (using Codestral)
  • 本地运行模型
    • 请先阅读
    • Ollama
    • LM 工作室
  • Ollama
  • LM Studio
  • Running Models Locally
  • More Info
    • Telemetry
    • 遥测
Powered by GitBook
On this page
  • 理解上下文窗口
  • Cline 模型比较(2025 年 2 月)
  • 2025 年精选
  • 按模式(计划或行动)划分的最佳模型
  • 规划
  • 执行(编码)
  • 关于本地模型的说明
  1. Cline - 中文版胜算 说明文档

型号选择指南

最后更新日期:2025 年 4 月 17 日。

Previous上下文管理NextWhat is Cline?

Last updated 1 month ago

理解上下文窗口

可以将上下文窗口视为 AI 助手的工作记忆,类似于计算机中的 RAM。它决定了模型在对话过程中能够“记住”和一次性处理的信息量。这包括:

  • 您的代码文件和对话

  • 助理的回应

  • 提供的任何文档或附加背景信息

上下文窗口以词条(token)为单位(大约是英语单词的 3/4)。不同模型的上下文窗口大小不同:

  • Claude 3.5 十四行诗:20 万个代币

  • DeepSeek 模型:128K 个 token

  • Gemini Flash 2.0:100 万枚代币

  • Gemini 1.5 Pro:200 万个代币

当你达到上下文窗口的上限时,需要删除旧信息以便为新信息腾出空间——就像清理内存以运行新程序一样。这就是为什么有时 AI 助手似乎会“忘记”你对话的早期部分。

Cline-胜算云增强版通过其上下文窗口进度条帮助您管理此限制,其中显示:

  • 输入tokens(您发送给模型的内容)

  • 输出tokens(模型生成的内容)

  • 直观地展示您已使用的上下文窗口大小

  • 您选择的型号的总容量

这种可见性可让您知道何时需要重新开始或将任务分解为更小的部分,从而帮助您更有效地使用 Cline。

模型比较

Cline 模型比较(2025 年 2 月)

模型
输入成本*
输出成本*
上下文窗口
最适合

Claude 3.5 Sonnet

$3.00

$15.00

20万

最佳代码实现和工具使用

DeepSeek R1

$0.55

$2.19

128K

规划与推理冠军

DeepSeek V3

$0.14

$0.28

128K

值代码实现

o3-mini

$1.10

$4.40

20万

运用灵活,规划性强

Gemini Flash 2.0

$0.00

$0.00

100万

强大的全能选手

Gemini 1.5 Pro

$0.00

$0.00

200万

大上下文处理

*每百tokens的成本

2025 年精选

  1. Claude 3.5 Sonnet

    • 最佳整体代码实现

    • 最可靠的工具使用

    • 虽然昂贵,但对于关键代码来说值得

  2. DeepSeek R1

    • 卓越的规划和推理

    • 超值定价

  3. o3-mini

    • 擅长通过可调整推理进行规划

    • 三种推理模式,满足不同需求

    • 需要 OpenAI Tier 3 API 访问权限

    • 200K 上下文窗口

  4. DeepSeek V3

    • 可靠的代码实现

    • 非常适合日常编码

    • 实施成本效益

  5. Gemini Flash 2.0

    • 超大 1M 上下文窗口

    • 提高速度和性能

    • 良好的综合能力

按模式(计划或行动)划分的最佳模型

规划

  1. DeepSeek R1

    • 同类最佳的推理能力

    • 擅长分解复杂任务

    • 强大的数学/算法规划

    • MoE 架构有助于推理

  2. o3-mini(高推理能力)

    • 三个推理层次:

      • 高:规划复杂

      • 中等:日常任务

      • 低:快速想法

    • 200K 上下文有助于大型项目

  3. Gemini Flash 2.0

    • 用于复杂规划的海量上下文窗口

    • 强大的推理能力

    • 擅长处理多步骤任务

执行(编码)

  1. Claude 3.5 Sonnet

    • 最佳代码质量

    • 使用 Cline 工具最可靠

    • 值得为关键代码付费

  2. DeepSeek V3

    • 接近 Sonnet 级别的代码质量

    • API 稳定性比 R1 更好

    • 非常适合日常编码

    • 强大的工具使用能力

  3. Gemini 1.5 Pro

    • 2M 上下文窗口

    • 适用于复杂的代码库

    • 可靠的 API

    • 强大的多文件理解能力

关于本地模型的说明

关键要点

  1. 计划与行动很重要 :根据任务类型选择模型

  2. 实际性能 > 基准 :关注实际的 Cline 性能

  3. 混合搭配 :使用不同的模型进行规划和实施

  4. 成本与质量 :对于关键代码来说,高级模型值得吗?

  5. 保留备份 :为 API 问题准备替代方案

*注:基于实际使用模式和社区反馈,而非基准测试。您的体验可能会有所不同。此列表并非 Cline 中所有可用模型的详尽列表。

虽然在本地运行模型似乎可以节省成本,但我们目前不建议将任何本地模型与 Cline-胜算云增强版 一起使用。使用 Cline-胜算云增强版的核心工具通常只能保留原始模型 1-26% 的功能。例如,DeepSeek-R1 的完整云版本包含 671B 个参数,而本地版本则是经过大幅简化的副本,难以应对复杂的任务和工具使用。即使使用高端硬件(RTX 3070+、32GB+ RAM),您也会遇到响应速度变慢、工具执行可靠性降低以及功能受限等问题。为了获得最佳开发体验,我们建议您坚持使用上面列出的云模型。

本地模型的可靠性明显较低