我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
人工智能(AI)是今年业界的热门话题,以ChatGPT为首的各类人工智能支持的应用受到了不少用户的欢迎,背后需要大型语言模型(LLM)提供支持。虽然苹果在人工智能方面暂时还没有带来重量级的功能,不过近期公布的论文显示,苹果在人工智能研究上已经下了不少功夫。
据TechPowerup报道,苹果的研究人员通过新的闪存利用技术,使用闪存芯片存储人工智能模型的数据,让内存有限的设备运行大型语言模型,比如iPhone。要知道大型语言模型需要大量的计算,十分消耗硬件资源,同时加速器和大容量内存也是必不可少,而苹果的新方法旨在解决这些难题。
根据苹果研究人员的介绍,通过将人工智能模型数据存储在闪存上,必要时才会转移到内存,其中涉及到两项关键技术:一是Windowing,人工智能模型不会每次加载新数据,而是重复使用部分已经处理过的数据,从而减少读取内存的次数,让处理过程变得高效;二是Row-ColumnBundling,通过更高效地分组数据,使其能更快地从闪存中读取,最终加快了处理的速度。
苹果称在新技术的加持下,能让iPhone运行人工智能模型的规模达到可用内存容量的两倍,M1Max的CPU运行大型语言模型的推理速度可以提高4到5倍,而GPU可以20到25倍,能极大地扩展适用性和可访问性。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-12-22 22:45:03
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: