我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
12月21日消息,苹果的人工智能研究人员表示,他们已取得一项重大突破,通过一种创新的闪存利用技术,成功地在内存有限的iPhone和其他苹果设备上部署了大型语言模型(LLM)。这一成果有望让更强大的Siri、实时语言翻译以及融入摄影和增强现实的尖端AI功能登陆未来iPhone。
近年来,像ChatGPT和Claude这样的LLM聊天机器人风靡全球。它们能够进行流畅的对话、撰写不同风格的文本,甚至生成代码,展现出强大的语言理解和生成能力。然而,这些模型有一个致命弱点:它们极其“吃”数据和内存,普通手机根本无法满足其运行需求。
为了突破这一瓶颈,苹果研究人员开辟了一条新路,将目光投向了手机中普遍存在的闪存,也就是储存应用和照片的地方。在题为“闪存中的LLM:利用有限内存实现高效的大型语言模型推理(LLMinaflash:EfficientLargeLanguageModelInferencewithLimitedMemory)”的论文中,研究人员提出了一种巧妙的闪存利用技术,将LLM模型的数据存储在闪存中。作者指出,与传统用于运行LLM的RAM相比,闪存在移动设备中更为丰富。
IT之家注意到,他们的方法巧妙地利用两种关键技术绕过限制,从而最小化数据传输并最大化闪存内存吞吐量:
窗口化(Windowing):可以将其视为一种回收利用的方法。AI模型不会每次都加载新数据,而是会重复使用部分已处理的数据。这减少了频繁读取内存的需要,让整个过程更加流畅高效。
行-列捆绑(Row-ColumnBundling):这种技术类似于你读一本书时,不是逐字逐句地阅读,而是成段地阅读。通过更有效地分组数据,可以从闪存中更快地读取数据,从而加速AI理解和生成语言的能力。
论文指出,这项技术可以让AI模型的运行规模达到iPhone可用内存的两倍。这意味着标准处理器(CPU)的速度提高了4-5倍,图形处理器(GPU)的速度提高了20-25倍。“这一突破对于在资源有限的环境中部署先进的LLM至关重要,极大地扩展了它们的适用性和可访问性,”研究人员写道。
更快更强的iPhoneAI
人工智能效率的突破为未来的iPhone开辟了新的可能性,例如更先进的Siri功能、实时语言翻译以及摄影和增强现实中复杂的AI驱动功能。该技术还为iPhone在设备上运行复杂的人工智能助手和聊天机器人奠定了基础,据悉苹果已经开始着手这项工作。
苹果开发的生成式AI最终可能被整合到其Siri语音助手中。2023年2月,苹果举办了人工智能峰会,并向员工介绍了其大型语言模型工作。据彭博社报道,苹果的目标是打造一个更智能的Siri,与AI深度集成。苹果计划更新Siri与信息应用程序的交互方式,让用户能够更有效地处理复杂问题和自动完成句子。除此之外,传闻苹果还计划将AI添加到尽可能多的苹果应用程序中。
AppleGPT:口袋里的超级大脑
据报道,苹果正在研发自己的生成式AI模型,代号为“Ajax”,旨在与OpenAI的GPT-3和GPT-4竞争,拥有2000亿个参数,暗示其在语言理解和生成方面具有高度复杂性和强大的能力。Ajax在内部被称为“AppleGPT”,旨在统一苹果机器学习开发,这表明苹果将AI更深入地整合到其生态系统中。
据最新报道,Ajax被认为比早期的ChatGPT3.5更加强大。然而,一些消息人士也指出,OpenAI的新模型可能已经超越了Ajax的能力。
TheInformation和分析师JeffPu均声称,苹果将在2024年底左右,也就是iOS18发布之时,在iPhone和iPad上提供某种形式的生成式AI功能。Pu在10月份表示,苹果将在2023年建设数百台AI服务器,2024年还将建设更多服务器。据报道,苹果将提供云端AI和设备端处理AI相结合的解决方案。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-12-22 06:45:22
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: