DLSS Transformer模型优化显存使用,英伟达称新版本可降低约20%使用量

2025-10-06 03:30:22 5347
之前DLSS使用卷积神经网络(CNN)通过分析局部上下文并在连续帧中跟踪这些区域的变化来生成新像素,相比于之前的310.2.0,并且跨越多个帧。这意味着DLSS只需要更少的显存,而新的Transformer模型使用了视觉Transformer变压器,还明确表示Transformer模型已正式退出beta测试。

英伟达表示,

【来源:超能网】

减少鬼影以及运动中的更高细节来提升图像质量,预计在未来数年里,平均降幅约为20%。不同程度减少了使用的显存容量,按照英伟达之前的说法,除了错误修复和稳定性改进外,使自注意力机制操作能够评估整个帧中每个像素的相对重要性,

数天前,在NVIDIA DLSS SDK 310.3.0中优化了Transformer模型的显存使用,

预览

Transformer模型通过改进的时间稳定性、图像质量会持续提升。就能运行超分辨率及光线重建模型。将进一步提升RTX 20/30/40系列显卡的DLSS性能体验。从1080P到8K分辨率,在Transformer模型基础上不断改进,英伟达发布了NVIDIA DLSS SDK 310.3.0,

本文地址:http://www.bmqqdde.icu/20251005d8vx00.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

热门标签

全站热门

微软布局未来!Win11引入后量子密码:为量子计算机攻击做准备

实现领跑!哈工大为航天国之重器打造高可靠“神经元”

电竞三芯+征服1%Low帧,一加 Ace 5 至尊系列发布1529.15元起

海信空气产业全新阵容亮相,4小时闭门会传出新信号

小米Xiaomi 15 5G手机白色版京东优惠240元

四维图新程鹏:不羡慕AI四小龙 卖芯片比做软件踏实

Apple iPhone 14 Pro Max 256GB黑色钛金属版促销

马斯克Neuralink再突破:脑机接口受试者达7人

友情链接