量子位 | "大众年夜众号 QbitAI

不用H100,三台苹果电脑就能带动400B大模型。

背后的元勋,是GitHub上的一个开源分布式AI推理框架,已经斩获了2.5k星标。

利用这个框架,几分钟就能用iPhone、iPad等日常设备构建出自己的AI算力集群。

电脑平板组AI集群在家就能跑400B大年夜模型GitHub狂揽25K星​

这个框架名叫exo,不同于其他的分布式推理框架,它采取了p2p的连接办法,将设备接入网络即可自动加入集群。

开拓者利用exo框架连接了两台MacBook Pro和一台Mac Studio,运算速率达到了110TFLOPS。

同时这位开拓者表示,已经准备好欢迎即将到来的Llama3-405B了。

exo官方也放话称,将在第一韶光(day 0)供应对Llama3-405B的支持。

而且不但是电脑,exo可以让iPhone、iPad等设备也加入本地算力网络,乃至Apple Watch也同样能够吸纳。

随着版本的迭代,exo框架也不再是苹果限定(起初只支持MLX),有人把安卓手机和4090显卡也拉进了集群。

最快60秒完成配置

与其他分布式推理框架不同,exo不该用master-worker架构,而是点对点(p2p)地将设备进行连接。

只要设备连接到相同的局域网,就可以自动加入exo的算力网络,从而运行模型。

在对模型进行跨设备分割时,exo支持不同的分区策略,默认是环内存加权分区。

这会在环中运行推理,每个设备分别运行多个模型层,详细数量与设备内存成比例。

而且全体过程险些无需任何手动配置,安装并启动之后系统就会自动连接局域网内运行的设备,未来还会支持蓝牙连接。

在作者的一段视频当中,只用了60秒旁边就在两台新的MacBook上完成了配置。

可以看到,在60秒旁边时,程序已然开始在后台运行。

其余从上面这张图中还能看出,exo还支持tiny chat图形化界面,同时还有兼容OpenAI的API。

不过,这样的操作只能在集群中的尾节点(tail node)上实现。

目前,exo支持苹果MLX框架和开源机器学习框架tinygrad,对llama.cpp的适配事情也正在进行。

美中不敷的是,由于iOS实现更新跟不上Python,导致程序涌现很多问题,作者把exo的手机和iPad端进行了暂时下线,如果确实想考试测验,可以给作者发邮件索取。

网友:真有那么好用?

这种利用本地设备运行大模型的办法,在HakerNews上也引发了广泛的谈论。

本地化运行的优点,一方面是隐私更有保障,另一方面是模型可以离线访问,同时还支持个性化定制。

也有人指出,利用现有设备搭建集群进行大模型运算,长期的利用本钱要低于云端做事。

但针对exo这个详细的项目,也有不少人表达了心中的疑问。

首先有网友指出,现有的旧设备算力水平无法与专业的做事商之间差了数量级,如果是出于好奇玩一玩还可以,但想达到尖端性能,本钱与大型平台根本无法比较。

而且还有人表示,作者演示用的设备都是高端硬件,一个32GB内存的Mac设备可能要价超过2000美元,这个价格还不如买两块3090。

他乃至认为,既然涉及到了苹果,那可以说是和“便宜”基本上不怎么沾边了。

这就引出了另一个问题——exo框架都兼容哪些设备?难道只支持苹果吗?

网友的提问则更加直接,开门见山地问支不支持树莓派。

作者回答说,理论上可以,不过还没测试,下一步会进行考试测验。

除了设备自身的算力,有人还补充说,网络传输的速率瓶颈,也会限定集群的性能。

对此,框架作者亲自了局进行理解释:

exo当中须要传输的是小型激活向量,而非全体模型权重。
对付Llama-3-8B模型,激活向量约为10KB;Llama-3-70B约为32KB。
本地网络延迟常日很低(<5ms),不会显著影响性能。

作者表示,目前该框架已经支持tinygrad,因此虽然测试紧张在Mac设备上展开,(理论上)支持能运行tinygrad的所有设备。

目前该框架仍处于实验阶段,未来的目标是把这个框架变得像Dropbox(一款网盘)一样大略。

BTW,exo官方也列出了一些目前操持办理的缺陷,并进行了公开悬赏,办理这些问题的人将得到100-500美元不等的奖金。

GitHub:https://github.com/exo-explore/exo参考链接:https://x.com/ac_crypto/status/1814912615946330473

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一韶光获知前沿科技动态