Bootstrap

电脑平板组AI集群,在家就能跑400B大模型,GitHub狂揽2.5K星​

克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

不用H100,三台苹果电脑就能带动400B大模型。

背后的功臣,是GitHub上的一个开源分布式AI推理框架,已经斩获了2.5k星标。

4fc400388cd53bb5094c8c6b34a16195.png

利用这个框架,几分钟就能用iPhone、iPad等日常设备构建出自己的AI算力集群。

8f8f00579aab7b4db09b2b82e81925a1.png

这个框架名叫exo,不同于其他的分布式推理框架,它采用了p2p的连接方式,将设备接入网络即可自动加入集群。

开发者使用exo框架连接了两台MacBook Pro和一台Mac Studio,运算速度达到了110TFLOPS。

同时这位开发者表示,已经准备好迎接即将到来的Llama3-405B了。

9f00cea194526dc5bbbf665790cef8c1.png

exo官方也放话称,将在第一时间(day 0)提供对Llama3-405B的支持。

b035876058c366f7531160edf14cc7b6.png

而且不只是电脑,exo可以让iPhone、iPad等设备也加入本地算力网络,甚至Apple Watch也同样能够吸纳。

b44ca5de34f88dee78c2d550d105f8e2.gif

随着版本的迭代,exo框架也不再是苹果限定(起初只支持MLX),有人把安卓手机和4090显卡也拉进了集群。

5a150d221b379f85b39d6b211ef6c2d8.png

最快60秒完成配置

与其他分布式推理框架不同,exo不使用master-worker架构,而是点对点(p2p)地将设备进行连接。

只要设备连接到相同的局域网,就可以自动加入exo的算力网络,从而运行模型。

在对模型进行跨设备分割时,exo支持不同的分区策略,默认是环内存加权分区。

这会在环中运行推理,每个设备分别运行多个模型层,具体数量与设备内存成比例。

56cf8c943522ce09dfbb7d0cb292e471.png

而且整个过程几乎无需任何手动配置,安装并启动之后系统就会自动连接局域网内运行的设备,未来还会支持蓝牙连接。

在作者的一段视频当中,只用了60秒左右就在两台新的MacBook上完成了配置。

可以看到,在60秒左右时,程序已然开始在后台运行。

0c6a399428a1265b2632b7135c306608.png

另外从上面这张图中还能看出,exo还支持tiny chat图形化界面,同时还有兼容OpenAI的API

不过,这样的操作只能在集群中的尾节点(tail node)上实现。

c169d35b60474ede906f550efa81519c.png

目前,exo支持苹果MLX框架和开源机器学习框架tinygrad,对llama.cpp的适配工作也正在进行。

美中不足的是,由于iOS实现更新跟不上Python,导致程序出现很多问题,作者把exo的手机和iPad端进行了暂时下线,如果确实想尝试,可以给作者发邮件索取。

27cd3afd47c5d0e0e2a03a4890bf6757.png

网友:真有那么好用?

这种利用本地设备运行大模型的方式,在HakerNews上也引发了广泛的讨论。

本地化运行的优点,一方面是隐私更有保障,另一方面是模型可以离线访问,同时还支持个性化定制。

c460ad5b1db511b6b3f84ede1c2d9eaa.png

也有人指出,利用现有设备搭建集群进行大模型运算,长期的使用成本要低于云端服务。

78db51bab05ac17e3dd0a5a8e1cbb4d7.png

但针对exo这个具体的项目,也有不少人表达了心中的疑问。

首先有网友指出,现有的旧设备算力水平无法与专业的服务商之间差了数量级,如果是出于好奇玩一玩还可以,但想达到尖端性能,成本与大型平台根本无法比较。

d24285ceab5a337067c922307748a8fc.png

而且还有人表示,作者演示用的设备都是高端硬件,一个32GB内存的Mac设备可能要价超过2000美元,这个价格还不如买两块3090。

他甚至认为,既然涉及到了苹果,那可以说是和“便宜”基本上不怎么沾边了。

04027fea7a46058c2a2dfcc1e00d50ae.png

这就引出了另一个问题——exo框架都兼容哪些设备?难道只支持苹果吗?

网友的提问则更加直接,开门见山地问支不支持树莓派。

作者回复说,理论上可以,不过还没测试,下一步会进行尝试。

9e97e04a0af898c32fb13a10abc6f4cb.png

除了设备自身的算力,有人还补充说,网络传输的速度瓶颈,也会限制集群的性能。

对此,框架作者亲自下场进行了解释:

exo当中需要传输的是小型激活向量,而非整个模型权重。
对于Llama-3-8B模型,激活向量约为10KB;Llama-3-70B约为32KB。
本地网络延迟通常很低(<5ms),不会显著影响性能。

b9150b0431f62fe041cd5c57ec2f3fe0.png

作者表示,目前该框架已经支持tinygrad,因此虽然测试主要在Mac设备上展开,(理论上)支持能运行tinygrad的所有设备。

目前该框架仍处于实验阶段,未来的目标是把这个框架变得像Dropbox(一款网盘)一样简单。

6d22b46a9e4bb00b2f982b5bfa5f047d.png

BTW,exo官方也列出了一些目前计划解决的缺点,并进行了公开悬赏,解决这些问题的人将获得100-500美元不等的奖金。

adbae1bad0994a4b556d396ebc93f6b0.png

GitHub:
https://github.com/exo-explore/exo
参考链接:
https://x.com/ac_crypto/status/1814912615946330473

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

c8cafe71374fc9443d0db8c853df7f75.png

点这里👇关注我,记得标星哦~

;