17611538698
webmaster@21cto.com

在 Visual Studio Code 中免费使用 DeepSeek R1

人工智能 0 22 2025-02-07 12:01:17

图片

如果你正在寻找一款推理能力出色且开源且免费的人工智能那么新推出的DeepSeek R1是一个不错的选择。它与 GPT-4、o1-mini、Claude 3.5 等模型相媲美,并且表现优于它们。我测试过它,赞不绝口!


想在Visual Studio Code中直接运行它作为类似于 GitHub Copilot 的代码代理,而无需花一分钱,请跟着我向你展示如何使用LM StudioOllamaJan等工具来执行此操作。



为什么 DeepSeek R1 最近受到如此热议?


  • 它是免费且开源的:与许多收费昂贵的模型不同,你可以免费使用它。它甚至可以在https://chat.deepseek.com上进行聊天。

  • 性能:它在涉及逻辑、数学甚至代码生成(这是我最喜欢的部分)的任务中与其他模型竞争并超越其他模型。

  • 多个版本:要在本地运行(LLM),有从 1.5B 到 70B 参数的模型,因此你可以根据自己的硬件选择最适合自己 PC 的模型。

  • 易于集成:你可以使用ClineRoo Code等扩展将其连接到 VSCode 。

  • 无成本:如果在本地运行,则无需支付代币或 API 费用。建议使用显卡,因为仅依靠 CPU 运行速度较慢。



开始前的重要提示


  • 节省资源:如果你的电脑性能不是很强大,请坚持使用较小的模型(1.5B 或 7B 参数)或量化版本。

  • RAM 计算器:使用LLM Calc找出你所需的最小内存。

  • 隐私:在本地运行意味着你的数据保留在您的电脑上,不会进入外部服务器。

  • 无成本:本地运行是免费的,但如果想使用 DeepSeek API,则需要支付Token。好消息是他们的价格比其它竞争对手低得多。



选择哪种型号?取决于你的电脑!

DeepSeek R1 有多个版本,选择取决于你的硬件:

  • 1.5B参数

    • 所需内存:~4 GB。

    • GPU:集成(如 NVIDIA GTX 1050)或现代 CPU。

    • 用途:简单的任务和普通的电脑。

  • 7B参数

    • 所需内存:〜8-10 GB。

    • GPU:专用(如 NVIDIA GTX 1660 或更好)。

    • 用途:中级任务和具有更好硬件的PC。

  • 70B参数

    • 所需内存:~40 GB。

    • GPU:高端(如 NVIDIA RTX 3090 或更高版本)。

    • 用途:复杂的任务和超强大的个人电脑。



如何在本地运行 DeepSeek R1


图片


1. 使用 LM Studio


  • 下载并安装 LM Studio:只需访问LM Studio网站并下载适合您系统的版本。

  • 下载 DeepSeek R1 模型:在 LM Studio 中,转到“发现”选项卡,搜索“DeepSeek R1”,然后选择与您的系统最兼容的版本。如果您使用的是搭载 Apple 处理器的 MacBook,请保持搜索栏旁边的MLX选项处于选中状态(这些版本针对 Apple 硬件进行了优化)。对于 Windows 或 Linux,请选择GGUF选项。

  • 加载模型:下载完成后,进入本地模型,选择DeepSeek R1,点击加载

  • 启动本地服务器:在开发人员选项卡中,启用启动服务器。它将开始运行模型http://localhost:1234

  • 继续执行步骤 4与 VSCode 集成



2.使用Ollama


  • 安装 Ollama :

    Ollama网站下载并安装。

  • 下载模型:在终端中,运行:

ollama pull deepseek-r1*
  • 这是主要模型;如果想要较小的模型,请转到https://ollama.com/library/deepseek-r1并查看在终端中运行哪个命令。

  • 启动服务器

    在终端中执行:

    ollama serve

该命令将开始运行模型http://localhost:11434

请继续执行步骤 4与 VSCode 集成。

3. 使用 Jan


  • 下载并安装 Jan :在Jan网站上选择适合您系统的版本。

  • 下载模型:我在 Jan 中无法直接找到 DeepSeek R1。因此,我前往Hugging Face网站并手动搜索“unsloth gguf deepseek r1”。我找到了所需的版本,单击“使用此模型”按钮,并选择 Jan 作为选项。模型在 Jan 中自动打开,然后我下载了它。

  • 加载模型:下载后,选择模型,点击加载

  • 启动服务器:Jan 自动启动服务器,通常在http://localhost:1337

  • 继续执行步骤 4与 VSCode 集成



4. 与 VSCode 集成


  • 安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。


  • 为 Jan 或 LM Studio 配置扩展:ClineRoo Code的配置实际上相同。请按照以下步骤操作:

    • 点击扩展并访问“设置”

    • API 提供程序中,选择“LM Studio”

    • 基本 URL字段中,输入在 Jan 或 LM Studio 中配置的 URL。

    • 如果你只有一个可用模型,则模型 ID字段将自动填充。否则,请手动选择您下载的DeepSeek模型。

    • 单击“完成”即可结束。


配置 Ollama 的扩展

    • 点击扩展并访问“设置”

    • API 提供程序中,选择“Ollama”

    • Base URL字段中,输入在 Ollama 中配置的 URL。

    • 如果你只有一个可用模型,则模型 ID字段将自动填充。否则,请手动选择你下载的DeepSeek模型。

    • 单击“完成”即可结束。

  • 集成完成,现在只需享受 Cline 或 Roo Code 的功能。



结论


对于那些想要获得强大的 AI 而又不想花一分钱的人来说,DeepSeek R1 是一个救星。借助LM StudioOllamaJan,你可以在本地运行它并将其直接集成到Visual Studio Code中。

选择适合你 PC 的型号并立即开始使用它吧!

作者:万能的大雄

评论