如果你正在寻找一款推理能力出色且开源且免费的人工智能,那么新推出的DeepSeek R1是一个不错的选择。它与 GPT-4、o1-mini、Claude 3.5 等模型相媲美,并且表现优于它们。我测试过它,赞不绝口!
想在Visual Studio Code中直接运行它作为类似于 GitHub Copilot 的代码代理,而无需花一分钱,请跟着我向你展示如何使用LM Studio、Ollama和Jan等工具来执行此操作。
它是免费且开源的:与许多收费昂贵的模型不同,你可以免费使用它。它甚至可以在https://chat.deepseek.com上进行聊天。
性能:它在涉及逻辑、数学甚至代码生成(这是我最喜欢的部分)的任务中与其他模型竞争并超越其他模型。
多个版本:要在本地运行(LLM),有从 1.5B 到 70B 参数的模型,因此你可以根据自己的硬件选择最适合自己 PC 的模型。
易于集成:你可以使用Cline或Roo Code等扩展将其连接到 VSCode 。
无成本:如果在本地运行,则无需支付代币或 API 费用。建议使用显卡,因为仅依靠 CPU 运行速度较慢。
节省资源:如果你的电脑性能不是很强大,请坚持使用较小的模型(1.5B 或 7B 参数)或量化版本。
RAM 计算器:使用LLM Calc找出你所需的最小内存。
隐私:在本地运行意味着你的数据保留在您的电脑上,不会进入外部服务器。
无成本:本地运行是免费的,但如果想使用 DeepSeek API,则需要支付Token。好消息是他们的价格比其它竞争对手低得多。
DeepSeek R1 有多个版本,选择取决于你的硬件:
1.5B参数:
所需内存:~4 GB。
GPU:集成(如 NVIDIA GTX 1050)或现代 CPU。
用途:简单的任务和普通的电脑。
7B参数:
所需内存:〜8-10 GB。
GPU:专用(如 NVIDIA GTX 1660 或更好)。
用途:中级任务和具有更好硬件的PC。
70B参数:
所需内存:~40 GB。
GPU:高端(如 NVIDIA RTX 3090 或更高版本)。
用途:复杂的任务和超强大的个人电脑。
下载并安装 LM Studio:只需访问LM Studio网站并下载适合您系统的版本。
下载 DeepSeek R1 模型:在 LM Studio 中,转到“发现”选项卡,搜索“DeepSeek R1”,然后选择与您的系统最兼容的版本。如果您使用的是搭载 Apple 处理器的 MacBook,请保持搜索栏旁边的MLX选项处于选中状态(这些版本针对 Apple 硬件进行了优化)。对于 Windows 或 Linux,请选择GGUF选项。
加载模型:下载完成后,进入本地模型,选择DeepSeek R1,点击加载。
启动本地服务器:在开发人员选项卡中,启用启动服务器。它将开始运行模型http://localhost:1234
。
继续执行步骤 4与 VSCode 集成!
安装 Ollama :
从Ollama网站下载并安装。
下载模型:在终端中,运行:
ollama pull deepseek-r1*
这是主要模型;如果想要较小的模型,请转到https://ollama.com/library/deepseek-r1并查看在终端中运行哪个命令。
启动服务器:
在终端中执行:
ollama serve
该命令将开始运行模型http://localhost:11434
。
请继续执行步骤 4与 VSCode 集成。
下载并安装 Jan :在Jan网站上选择适合您系统的版本。
下载模型:我在 Jan 中无法直接找到 DeepSeek R1。因此,我前往Hugging Face网站并手动搜索“unsloth gguf deepseek r1”。我找到了所需的版本,单击“使用此模型”按钮,并选择 Jan 作为选项。模型在 Jan 中自动打开,然后我下载了它。
加载模型:下载后,选择模型,点击加载。
启动服务器:Jan 自动启动服务器,通常在http://localhost:1337
。
继续执行步骤 4与 VSCode 集成!
安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。
为 Jan 或 LM Studio 配置扩展:Cline和Roo Code的配置实际上相同。请按照以下步骤操作:
点击扩展并访问“设置”。
在API 提供程序中,选择“LM Studio”。
在基本 URL字段中,输入在 Jan 或 LM Studio 中配置的 URL。
如果你只有一个可用模型,则模型 ID字段将自动填充。否则,请手动选择您下载的DeepSeek模型。
单击“完成”即可结束。
配置 Ollama 的扩展:
点击扩展并访问“设置”。
在API 提供程序中,选择“Ollama”。
在Base URL字段中,输入在 Ollama 中配置的 URL。
如果你只有一个可用模型,则模型 ID字段将自动填充。否则,请手动选择你下载的DeepSeek模型。
单击“完成”即可结束。
集成完成,现在只需享受 Cline 或 Roo Code 的功能。
作者:万能的大雄
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。