空 挡 广 告 位 | 空 挡 广 告 位

苹果研究用AI 大模型让移动端CPU、GPU提高数倍至数十倍性能

查看引用/信息源请点击:映维网Nweon

与CPU和GPU的原始加载方法相比,推理速度分别提高了4-5倍和20-25倍

Vision Pro QQ群交流653565822

映维网Nweon 2023年12月25日苹果日前在一篇论文中介绍了一种可以在超出可用DRAM容量的设备运行大语言模型LLM方法。通过大幅提高内存使用效率,这项新研究将允许资源有限的设备运行2倍于DRAM的LLM。另外与CPU和GPU的原始加载方法相比,推理速度分别提高了4-5倍和20-25倍。

团队的方法包括构建一个与闪存行为相协调的推理成本模型,以在两个关键领域进行优化:减少从闪存传输的数据量和在更大,更连续的数据块中读取数据。在这个闪存信息框架中,苹果主要介绍了两种主要技术。

首先,windowing通过重用先前激活的神经元来策略性地减少数据传输;其次,针对闪存顺序数据访问强度量身定制的“row-column bundling”增加了从闪存读取的数据块的大小。

所述方法使得运行模型的大小达到可用DRAM的两倍。另外与CPU和GPU的原始加载方法相比,推理速度分别提高了4-5倍和20-25倍。同时,研究人员集成了稀疏感知、情景自适应加载和面向硬件的设计,从而为LLM在内存有限设备的有效推理铺平了道路。

相关论文LLM in a flash: Efficient Large Language Model Inference with Limited Memory

尽管没有明确说明这项技术可用的设备,但随着苹果愈发重视全新的空间计算领域,我们或许可以想象这家公司未来将AI整合至诸如Vision Pro这样的资源有限设备。

本文链接https://news.nweon.com/116229
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯