我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
2月26日消息,2024年世界移动通信大会已经拉开序幕,今年的MWC,5G和AI仍然是最受关注的话题。比如高通就在今天的MWC发布活动中正式推出了全新的高通AIHub,为开发者打造获取开发资源的中心,从而可以基于骁龙或高通平台打造AI应用。
具体来说,高通AIHub可以为开发者提供全面优化的AI模型库,包括传统AI模型和生成式AI模型,能够支持在骁龙和高通平台上进行部署。开发者只需选择应用所需的模型以及其开发应用所使用的框架,然后确定目标平台,例如一款特定型号的手机、或者一款特定型号的高通平台,完成这些后,高通AIHub就可以为开发者提供面向其指定应用、指定平台进行优化的模型,开发者只需要几行代码就可以获取模型,并将模型集成进应用程序。
高通AIHub将支持超过75个AI模型,包括传统AI模型和生成式AI模型。通过对这些模型进行优化,开发者运行AI推理的速度将提升高达4倍。
不仅是速度提升,优化后的模型占用的内存带宽和存储空间也将减少,从而实现更高的能效和更持久的电池续航。
这些优化模型将在高通AIHub、以及HuggingFace和GitHub上提供,让开发者能够将AI模型便捷地集成到工作流中。
除了全新的AIHub,高通还在活动中展示了全球首个在搭载第三代骁龙8的安卓手机上运行的多模态大模型(LMM)。在这一演示中,高通展示了一个超过70亿参数的LMM,其支持文本、语音和图像输入,并能够基于输入的内容进行多轮对话。
同时高通还在搭载全新骁龙XElite平台的WindowsPC上,带来了另一个多模态AI的演示。这是全球首个在WindowsPC上运行的音频推理多模态大模型,它能理解鸟鸣、音乐或家中的不同声音,并且能够基于这些信息进行对话,为用户提供帮助。
例如,多模态大语言模型能够理解用户输入的音乐类型和风格,为用户提供音乐的历史以及相似的音乐推荐,或通过对话的方式为用户调节周围的音乐。
这些模型都经过优化,能够实现出色的性能和能效,并完全在终端侧运行,增强隐私性、可靠性、个性化以及成本优势。
还有就是,高通还展示了他们首个在安卓手机上运行的LoRA模型。LoRA能够在不改变底层模型的前提之下,调整或定制模型的生成内容。通过使用很小的适配器(大小仅为模型的2%,便于下载),就能够个性化定制整个生成式AI模型的行为。
例如在演示中,模型能够根据不同个人或艺术偏好创建高质量自定义图像。高通表示这一技术不仅能够运用于图像生成,也可以应用于大语言模型等多种生成式AI模型,是实现个性化生成式AI的高效方式。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-02-27 09:45:24
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: