• 我的订阅
  • 科技

爱尔眼科数字人“爱科(Eyecho) ”正式发布,支持视频、文本和语音等多模态交互

类别:科技 发布时间:2024-10-26 22:43:00 来源:人民资讯

本文转自:人民网-湖南频道

10月26日,由爱尔眼科研发的爱尔数字人“爱科(Eyecho)”在东北大学附属辽宁爱尔眼科医院区域眼科医学中心开诊仪式上正式发布。

作为一款行业领先的科技创新成果,爱尔数字人“爱科(Eyecho)”集合了当今生成式人工智能和计算机图形学领域目前最为前沿的技术——基于AIGC与神经渲染的高真实感数字人合成,通过神经渲染技术刻画高真实感数字人形象;基于检索增强技术RAG,构建了蕴含眼科领域知识的垂类大语言模型AierGPT;基于自注意力网络架构,实时根据文本合成个性化声音;模仿海量自然人体运动的视频序列,通过文本指引合成自然真实人体运动实现亲近互动。

会上发布了可用于多个场景的爱尔数字人,分别是:面向患者术前教育的实时可交互数字人——“爱尔名医患教数字人”,可以转换各医院各科室医生的形象,以专业的爱尔眼科垂类大模型为底座,部署在医院各科室,面向患者提问,实时回复包括白内障、屈光、视光、眼底、青光眼、角膜及眼表等全眼科问题。另一款是用于总部大楼、医院大厅及各类形象展示的虚拟双语数字人。还有一款可部署在手机端、用于患者术后服务的——“爱尔名医陪伴数字人”,可支持视频、文本和语音等多模态交互,也即将投入应用。

“爱科(Eyecho)”的名字既体现爱尔“创新驱动,科技爱尔”的发展战略,也起英文Echo“回音”之意,蕴含爱尔运用最新的人工智能技术,提升临床效率,提高服务质量,给予患者更好服务回报的理念。

爱尔眼科率先提出“数字眼科”行业发展新模式。联合中国科学院计算技术研究所等优质科技创新力量,充分挖掘千万级数据价值,以眼科学及视觉科学融合计算技术与人工智能等交叉学科,布局兼顾前沿性和应用性的关键核心课题,联动遍布全球的眼科医疗场景展开示范应用,形成创新资源聚集、产学研协同、数字化赋能的新型科技创新平台。今日面世发布的爱尔数字人就是数字眼科的重点科技攻关项目。(茜颖)

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-10-26 23:45:04

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

爱尔眼科正在联合研发基于大语言模型ChatGPT的爱尔数字人
近日,爱尔眼科在互动平台回复称,公司与中国科学院计算技术研究所正在联合研发基于大语言模型ChatGPT的爱尔数字人——EYEGPT,建立一个具有超写实风格的数字人模型,具有实时语
2023-05-22 11:30:00
爱尔眼科数字人“爱科(Eyecho)”驱动智慧医疗实现新突破 2025-02-28
中国消费者报北京讯(记者孙蔚)近日,由爱尔眼科研发的爱尔数字人“爱科(Eyecho)”完成多项技术升级,正式接入DeepSeek R1推理模型,系统优化提升了并发处理速度,将联动
2025-02-28 16:16:00
DeepSeek R1赋能爱尔眼科“爱科(Eyecho)”数字人 驱动智慧医疗新突破
近期,爱尔眼科数字人“爱科(Eyecho)”完成多项技术升级,正式接入DeepSeek R1推理模型,系统优化提升了并发处理速度,将联动爱尔眼科遍布全球的各医疗服务机构,广泛运用
2025-02-28 19:50:00
爱尔眼科:与中国科学院计算技术研究所正在联合研发基于大语言模型ChatGPT的爱尔数字人 【爱尔眼科:与中国科学院计算技术研究所正在联合研发基于大语言模型ChatGPT的爱尔数字
2023-05-19 17:18:00
未来医院变形记:生成式AI将病历书写从8小时缩短至25分钟
...与智能手机等工具的交互存在数字鸿沟。AI陪诊师利用多模态交互技术,老年患者通过文本或语音与AI陪诊师互动,就能获得清晰的语音版和文本版就医指导,缩短数字鸿沟。第二,服务流程复
2024-07-09 09:30:00
趣丸科技副总裁兼CTO谢睿:多模态智能激发应用新场景 | 新质生产力·AI Partner大会
...能够受邀参加36氪AI Partner大会。今天我的演讲主题是《多模态智能激发应用新场景》,借这个场合与各位新老朋友分享趣丸科技在人工智能方面的最新探索成果,以及赋能智能音频
2024-05-24 22:22:00
Sora再度颠覆AI视频行业,A股哪些公司有相关布局?
...实现AGI(通用人工智能)的重要里程碑。券商建议关注多模态技术Sora视频一出,立刻震惊业界。360集团创始人、董事长周鸿祎2月16日在微博发文表示
2024-02-19 08:10:00
首个VR端3D角色扮演AI发布!南洋理工公开SOLAMI技术报告,端到端VLA模型驱动,唱跳都能陪你玩
...或者语音的交互。这促使我们思考:如何构建具有更丰富模态的3D自主角色呢?要实现这个目标,主要面临两个挑战:1. 3D角色需要准确观察和理解用户行为信息,并基于上下文和角色设定
2024-12-10 09:53:00
首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务
【新智元导读】Meta最近开源了一个7B尺寸的Spirit LM的多模态语言模型,能够理解和生成语音及文本,可以非常自然地在两种模式间转换,不仅能处理基本的语音转文本和文本转语音
2024-11-23 09:43:00
更多关于科技的资讯: