在浏览 Reddit 网站时,我遇到了有关在 Raspberry Pi 上运行 LLM 的讨论。
于是我很想验证这个“说法”,所以我决定在我的 Raspberry Pi 4 上使用 Ollama 本地运行大语言模型。
现在让我在这篇简短的文章中与各位分享自己的实践。
本文假设您对人工智能、大语言模型和其他相关工具和术语有基本的了解。
可以手动下载它并阅读它的作用。如果您像我一样懒惰,请将它们组合在一个命令中,如下所示:
curl https://ollama.ai/install.sh | sh
📋 您应该至少有 8 GB 可用于运行 7B 模型,16 GB 可以运行 13B 模型,32 GB 可以运行 33B 模型。
TinyLlama
让我们从TinyLlama开始,它基于 11 亿个参数,是第一次尝试本地语言模型的完美候选者。
要下载并运行 TinyLlama,需要输入以下命令:
ollama run tinyllama
下载语言模型需要几分钟的时间,下载完成后,您就可以开始与它聊天。
我向 AI 提出的问题是:
“div 标签在 html 中的用例是什么?”
下面是完整的答案以及完成它所需的时间:
真棒!谁会想到人工智能会在 Raspberry Pi 上运行得这么快?
phi
我们继续讨论一些更大的模型,例如phi,它是一个基于 2.7B 参数的语言模型。我认为 Raspberry Pi 也可以处理这个问题。
接下来安装并运行此模型,请键入以下命令:
ollama run phi
尝试问它一些问题。我提问道:“网络交换机和集线器有什么区别?”
下面是 phi 的完整答案以及其他详细信息:
这是我测试过的最大的大语言模型,因为它自带有 7B 参数。我要求它描述图像而不是问简单的问题。
我使用的是 Raspberry Pi 4 的 4 GB 模型,我个人认为它不会像上面的语言模型那样工作得那么好。
不过,我们还是测试一下。要安装 llava请使用以下命令:
ollama run llava
下载这个模型需要一些时间,因为它的尺寸很大,接近 3.9 GB。
我将要求该模型描述存储在目录中的猫的图片:/media/hdd/shared/test.jpg。
但是我不得不中途终止该过程,因为回复时间太长(超过 30 分钟)。
但是,我们可以看到,响应非常准确,如果你有最新的 Raspberry Pi 5 和 8 GB RAM,你可以轻松运行 7B 参数语言模型。
本文将 Raspberry Pi 5 的功能与 Ollama 相结合,为热衷于在本地运行开源语言模型的人奠定更坚实的基础。
无论您是努力突破紧凑计算界限的开发者,还是渴望探索语言处理领域的机关报爱好者,这种设置都提供了无限的机会。
欢迎在评论部分,发表您对 Ollama 的想法和实践经历。
作者:场长
本文为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。