我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
6月28日消息,谷歌公司昨日发布新闻稿,面向全球研究人员和开发人员发布Gemma2大语言模型,共有90亿参数(9B)和270亿参数(27B)两种大小。
Gemma2大语言模型相比较第一代,推理性能更高、效率更高,并在安全性方面取得了重大进步。
谷歌在新闻稿中表示,Gemma2-27B模型的性能媲美两倍规模的主流模型,而且只需要一片英伟达H100ensorCoreGPU或TPU主机就能实现这种性能,从而大大降低了部署成本。
Gemma2-9B模型优于Llama38B和其他类似规模的开源模型。谷歌还计划在未来几个月发布参数为26亿的Gemma2模型,更适合智能手机的人工智能应用场景。
谷歌表示为Gemma2重新设计了整体架构,实现卓越的性能和推理效率。IT之家附上Gemma2主要特点如下:
性能优异:
27B版本在同规模级别中性能最佳,甚至比两倍于其尺寸的机型更具竞争力。9B版本的性能在同类产品中也处于领先地位,超过了Llama38B和其他同规模的开放模型。
效率和成本:
27BGemma2模型可在单个谷歌云TPU主机、英伟达A10080GBTensorCoreGPU或英伟达H100TensorCoreGPU上以全精度高效运行推理,在保持高性能的同时大幅降低成本。这使得人工智能部署更容易实现,预算也更合理。
跨硬件快速推理
Gemma2经过优化,可在各种硬件(从功能强大的游戏笔记本电脑和高端台式机到基于云的设置)上以惊人的速度运行。
在GoogleAIStudio中尝试全精度的Gemma2,在CPU上使用 Gemma.cpp的量化版本解锁本地性能,或通过HuggingFaceTransformers在配备NVIDIARTX或GeForceRTX的家用电脑上进行尝试。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-06-28 16:45:04
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: