在树莓派上运行AI大模型 llama3、phi3

使用的是树莓派(raspberrypi)5,8G 内存

0. 直接下载,然后运行

参照 ollama/docs/linux.md at main · ollama/ollama (github.com),做成服务

运行 llama3 模型

运行 phi3 模型

下面的内容是自己编译,需要 ollama, go

1. 准备树莓派(raspberrypi)5

安装好系统,可以通过ssh 远程连接,可以通过有线或是无线连接到互联网

2. 安装go

ollama 需要的环境

  • cmake version 3.24 or higher
  • go version 1.22 or higher
  • gcc version 11.4.0 or higher

需要到 All releases – The Go Programming Language 下载最新的go 版本

后面还会自动下载 llama.cpp

然后解压

3. 下载 ollama

4. 编译 ollama

如果执行上面涉及到下载 i/o timeout 的问题,可以使用下面的代理,重新执行

编译成功后,当前目录下会有 ollama 文件

5. 运行 ollama

6. 选择模型

可以去 llama3 (ollama.com) 下载你想测试的模型:

6. 测试模型 llama3

7. 测试模型 phi3

phi3 比 llama3 快一点

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部