我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
4月18日,2024中国生成式AI大会上李未可科技正式发布为眼镜等未来终端定向优化等自研WAKE-AI多模态大模型,具备文本生成、语言理解、图像识别及视频生成等多模态交互能力。
该大模型围绕GPS轨迹+视觉+语音打造新一代LLM-Based的自然交互,同时多模态问答技术的加持,能实现所见即所问、所问即所得的精准服务。此外,融合了人类意图理解、长期记忆机制、情感大模型及TTS克隆,可以为用户提供超拟人的情感陪伴服务。
为保证实时交互场景的智能性及响应速度,WAKE-AI使用MOE架构,FlashAttention混合精度训练、知识蒸馏等技术大幅降低算力需求跟计算时间。该大模型针对眼镜端用户的使用方式、场景等进行了优化。在语音返回速度上能做到<500ms以内,语音唤醒的准确度>90%,ASR字错率低于2%。同时为用户提供在室外多个场景,如户外运动、文化旅行、日程管理及实时翻译的多模态AI服务。
据悉,李未可将于近期正式发布搭载WAKE-AI能力的新终端,从室外场景切入为用户提供更智能、更全面的AI+服务。
会上,李未可科技合伙人&AI负责人古鉴表示WAKE-AI将逐步开放平台能力,便于更多企业及开发者调用WAKE-AI能力,共建AI+硬件生态。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-04-19 21:45:13
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: