会,如果量子计算机出现。
虽然实时光线追踪技术很早就产生(依稀记得那位开发者去了微软继续研究事业),迫于当年硬件发展水平没有在广大个人用户群体中产生革新。
而现在光线追踪已经成了图形引擎一项基本的功能,玩家也可以是用rtx on体验渲染效果更加好看的游戏场景。
但是,光线追踪是一项硬件资源层面不计成本的渲染算法,永远有更多的光线或光束,更符合物理的反射散射,更加平滑真实的光强衰减,更加美化的渲染效果算法,还有复杂的大分辨率背景下噪点抑制算法等。这点很多老牌的影视公司比如迪士尼就有自己掌握迭代几十年的渲染算法技术。
如果说个人顶级pc机刚好达到了rt的初级入门,也就是能用,那以后影视产业就是更加复杂的rt离线渲染(当然现在高成本科幻电影本身rt离线渲染已经属于高级别的),所以目前看来实时渲染永远追不上离线渲染,只能效果无限接近。
就跟光栅渲染效果无限追赶rt入门渲染一样。
回到目前,因为我本身干了几年图形开发,虽然是个咸鱼,不过对于一些发展趋势有所了解,我们目前图形渲染朝着两个方向发展。
一.光线追踪的算法优化,其实也优化不到哪里去,这技术都是公开几十年的,只能做到全局/局部rt去权衡硬件资源利用率,然后编写适配rt的着色器,和光栅渲染不太一样,完善开发工具和流程等,做到从生产消费上适普化。
二.继续光栅渲染,利用已经提高了的硬件资源做更广更沉浸的体验感,比如mr眼镜,可以将看到的真实场景和制作的虚拟场景做融合渲染,360度环视,当然要优化遮蔽剔除等场景批处理算法。这样可以将本身入门rt的硬件资源完成很复杂的光栅渲染场景应用。
我个人的话觉得,鉴于光栅渲染质量很高的情况下,和rt入门渲染差距不大,特别是在npr渲染领域未见需要用rt渲染,所以当前包括未来可见的发展下,光栅渲染都还是主流,只不过会利用更加强大的硬件资源做更加复杂且压榨性能的渲染环境,甚至压榨到前向渲染的着色计算都必须优化成延时渲染处理这种。
不过,如果量子计算机民用,硬件资源不是瓶颈,那离线渲染就被实时渲染取代了。各种离线渲染的优化算法特效算法等全都改一个参数bool isoffline=false摇身一变rtx on!
修改下答案:老牌离线渲染大厂比如迪士尼、双重否定等,不会被ue4干掉,而是自己把离线渲染引擎改成实时渲染引擎的,至于ue4 u3d ce5 red2 fb haughtydog等还不能和他们叫板。
339

被折叠的 条评论
为什么被折叠?



