我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
快科技5月5日消息,NVIDIA的研究人员们开发出了一种新的纹理压缩算法,分辨率更高,显存占用更低。
GPU图形渲染中,纹理是重要的一环,而随着游戏技术的进步,纹理也越发精细、庞大,对于系统资源消耗越来越大,更加依赖高效的压缩算法。
NVIDIA的新算法名为“神经纹理压缩”(Neural Texture Compression/NTC),技术原理比较深澳,简单来说就是将纹理视作具有三个维度的张量进行处理,并对多个通道、Mipmaps一起进行压缩,最终获得的压缩质量大大超过JPEG XL或者AVIF格式。
此外,NTC算法不需要特定硬件,而是利用矩阵乘法的方式,可以在任何现代GPU上获得加速(不知道自带Tensor单元的RTX系列上会否有额外加成),对于硬盘、内存的占用也更低。
NVIDIA宣称,相比于传统的GPU纹理压缩算法BC(区块压缩),新的NTC算法可以带来4倍的分辨率提升,从1024x1024来到4096×4096,纹理规模扩大了16倍之多,质量自然不可同日而语。
使用RTX 4090压缩9个通道、4K分辨率的纹理,BC算法体积3.33MB,NTC算法稍大一些为3.6MB,而渲染时间只是从0.49ms增加到1.15ms。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-05-06 11:45:14
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: