unityshader写的shader为什么unityshader老会奔溃

Unity Shader-死亡溶解效果 - CSDN博客
Unity Shader-死亡溶解效果
游戏里面角色死亡的时候,有很多方式可以表现人物死亡效果。最简单粗暴的,播放完死亡动画直接删除或者直接Y轴逐渐降低,沉到地下;比较好的死亡效果就是今天要研究的这种效果-死亡溶解。个人印象比较深刻的就是《生化危机6》里面的克里斯篇,里面的功夫丧尸挂掉之后都是会有一个类似的死亡溶解效果。不过《生化危机6》这种3A大作的效果肯定不仅仅是一个shader能做出来的,还配合了粒子做出了消散以及着火的效果。
赶脚一般学习shader的童鞋,都会研究一下这个东东....毕竟这个效果灰常常用。今天,我也来研究一下死亡溶解效果的实现。
基本溶解效果
溶解,也就是让这个模型逐渐消失。那么,最简单的,直接让这个像素的Fragment Shader操作discard,这个像素就消失了。然后,我们要做的就是让这个溶解的对象一部分消失,另一部分存在,所以,这个时候我们就需要一个Mask图进行控制,我们采样这张Mask图,就可以得到这个像素点当前的Mask值,然后用这个Mask值与我们设定的一个阈值来进行比较,小于阈值的部分discard,大于的部分正常计算。最终,我们将这个阈值从0逐渐增加到1,就可以实现模型的一部分像素先消失,直至整个模型完全消失的效果。
简单的原理解释完了,先来一发基本的溶解效果:
//溶解效果
//by:puppet_master
Shader &ApcShader/DissolveEffect&
Properties{
_Diffuse(&Diffuse&, Color) = (1,1,1,1)
_MainTex(&Base 2D&, 2D) = &white&{}
_DissolveMap(&DissolveMap&, 2D) = &white&{}
_DissolveThreshold(&DissolveThreshold&, Range(0,1)) = 0
#include &Lighting.cginc&
uniform fixed4 _D
uniform sampler2D _MainT
uniform float4 _MainTex_ST;
uniform sampler2D _DissolveM
uniform float _DissolveT
struct v2f
float4 pos : SV_POSITION;
float3 worldNormal : TEXCOORD0;
float2 uv : TEXCOORD1;
v2f vert(appdata_base v)
o.pos = mul(UNITY_MATRIX_MVP, v.vertex);
o.uv = TRANSFORM_TEX(v.texcoord, _MainTex);
o.worldNormal = mul(v.normal, (float3x3)unity_WorldToObject);
fixed4 frag(v2f i) : SV_Target
//采样Dissolve Map
fixed4 dissolveValue = tex2D(_DissolveMap, i.uv);
//小于阈值的部分直接discard
if (dissolveValue.r & _DissolveThreshold)
//Diffuse + Ambient光照计算
fixed3 worldNormal = normalize(i.worldNormal);
fixed3 worldLightDir = normalize(_WorldSpaceLightPos0.xyz);
fixed3 lambert = saturate(dot(worldNormal, worldLightDir));
fixed3 albedo = lambert * _Diffuse.xyz * _LightColor0.xyz + UNITY_LIGHTMODEL_AMBIENT.
fixed3 color = tex2D(_MainTex, i.uv).rgb *
return fixed4(color, 1);
Tags{ &RenderType& = &Opaque& }
#pragma vertex vert
#pragma fragment frag
FallBack &Diffuse&
最近找了个比较帅气的模型,先爆个照(开启了和):
然后,让偶们把它溶解掉,这里我们直接使用了一张噪声图,最简单的雪花点的那种就可以啦,逐渐调大Dissolve Threshold,就可以了:
增加过渡的溶解效果
上面的溶解效果感觉就像被打成筛子一样...木有明显的过渡,感觉效果不是很好。下面写一个增加了过渡的溶解效果,让被溶解的部分边缘变成我们设置的颜色,为了增加丰富性,我们可以增加两个过渡颜色。分别设置两个阈值。首先是当阈值小于颜色A阈值的时候,返回颜色A,阈值小于颜色B的时候,返回颜色B,否则返回原始颜色。shader代码如下:
//溶解效果
//by:puppet_master
Shader &ApcShader/DissolveEffect&
Properties{
_Diffuse(&Diffuse&, Color) = (1,1,1,1)
_DissolveColorA(&Dissolve Color A&, Color) = (0,0,0,0)
_DissolveColorB(&Dissolve Color B&, Color) = (1,1,1,1)
_MainTex(&Base 2D&, 2D) = &white&{}
_DissolveMap(&DissolveMap&, 2D) = &white&{}
_DissolveThreshold(&DissolveThreshold&, Range(0,1)) = 0
_ColorFactorA(&ColorFactorA&, Range(0,1)) = 0.7
_ColorFactorB(&ColorFactorB&, Range(0,1)) = 0.8
#include &Lighting.cginc&
uniform fixed4 _D
uniform fixed4 _DissolveColorA;
uniform fixed4 _DissolveColorB;
uniform sampler2D _MainT
uniform float4 _MainTex_ST;
uniform sampler2D _DissolveM
uniform float _DissolveT
uniform float _ColorFactorA;
uniform float _ColorFactorB;
struct v2f
float4 pos : SV_POSITION;
float3 worldNormal : TEXCOORD0;
float2 uv : TEXCOORD1;
v2f vert(appdata_base v)
o.pos = mul(UNITY_MATRIX_MVP, v.vertex);
o.uv = TRANSFORM_TEX(v.texcoord, _MainTex);
o.worldNormal = mul(v.normal, (float3x3)unity_WorldToObject);
fixed4 frag(v2f i) : SV_Target
//采样Dissolve Map
fixed4 dissolveValue = tex2D(_DissolveMap, i.uv);
//小于阈值的部分直接discard
if (dissolveValue.r & _DissolveThreshold)
//Diffuse + Ambient光照计算
fixed3 worldNormal = normalize(i.worldNormal);
fixed3 worldLightDir = normalize(_WorldSpaceLightPos0.xyz);
fixed3 lambert = saturate(dot(worldNormal, worldLightDir));
fixed3 albedo = lambert * _Diffuse.xyz * _LightColor0.xyz + UNITY_LIGHTMODEL_AMBIENT.
fixed3 color = tex2D(_MainTex, i.uv).rgb *
//这里为了比较方便,直接用color和最终的边缘lerp了
float lerpValue = _DissolveThreshold / dissolveValue.r;
if (lerpValue & _ColorFactorA)
if (lerpValue & _ColorFactorB)
return _DissolveColorB;
return _DissolveColorA;
return fixed4(color, 1);
Tags{ &RenderType& = &Opaque& }
#pragma vertex vert
#pragma fragment frag
FallBack &Diffuse&
上面的模型,我们配置一个雷电类型的溶解效果,两个颜色值分别给白色和蓝色。然后噪声图给一张过渡更加柔和一些的,如下图:
来一张动图,先逐渐增大溶解阈值,就是溶解效果;然后再减小阈值,就是闪亮登场的效果:
上面的shader虽然比较容易理解,我们直接用了两个if进行判断的。不过感觉shader里面的分支还是尽量少,毕竟如果有动态分支(编译期的有些是可以自动优化掉的,比如我们写的固定次数的循环,这种应该是会直接在编译期展开了),运行时的shader有动态分支的话,是会先执行一遍A分支,然后再去执行B分支,效率就下去了,可以参考。so...我们还是老老实实地写一发用值来判断的(除了discard):
//溶解效果
//by:puppet_master
Shader &ApcShader/DissolveEffect&
Properties{
_Diffuse(&Diffuse&, Color) = (1,1,1,1)
_DissolveColor(&Dissolve Color&, Color) = (0,0,0,0)
_DissolveEdgeColor(&Dissolve Edge Color&, Color) = (1,1,1,1)
_MainTex(&Base 2D&, 2D) = &white&{}
_DissolveMap(&DissolveMap&, 2D) = &white&{}
_DissolveThreshold(&DissolveThreshold&, Range(0,1)) = 0
_ColorFactor(&ColorFactor&, Range(0,1)) = 0.7
_DissolveEdge(&DissolveEdge&, Range(0,1)) = 0.8
#include &Lighting.cginc&
uniform fixed4 _D
uniform fixed4 _DissolveC
uniform fixed4 _DissolveEdgeC
uniform sampler2D _MainT
uniform float4 _MainTex_ST;
uniform sampler2D _DissolveM
uniform float _DissolveT
uniform float _ColorF
uniform float _DissolveE
struct v2f
float4 pos : SV_POSITION;
float3 worldNormal : TEXCOORD0;
float2 uv : TEXCOORD1;
v2f vert(appdata_base v)
o.pos = mul(UNITY_MATRIX_MVP, v.vertex);
o.uv = TRANSFORM_TEX(v.texcoord, _MainTex);
o.worldNormal = mul(v.normal, (float3x3)unity_WorldToObject);
fixed4 frag(v2f i) : SV_Target
//采样Dissolve Map
fixed4 dissolveValue = tex2D(_DissolveMap, i.uv);
//小于阈值的部分直接discard
if (dissolveValue.r & _DissolveThreshold)
//Diffuse + Ambient光照计算
fixed3 worldNormal = normalize(i.worldNormal);
fixed3 worldLightDir = normalize(_WorldSpaceLightPos0.xyz);
fixed3 lambert = saturate(dot(worldNormal, worldLightDir));
fixed3 albedo = lambert * _Diffuse.xyz * _LightColor0.xyz + UNITY_LIGHTMODEL_AMBIENT.
fixed3 color = tex2D(_MainTex, i.uv).rgb *
//优化版本,尽量不在shader中用分支判断的版本,但是代码很难理解啊....
float percentage = _DissolveThreshold / dissolveValue.r;
//如果当前百分比 - 颜色权重 - 边缘颜色
float lerpEdge = sign(percentage - _ColorFactor - _DissolveEdge);
//貌似sign返回的值还得saturate一下,否则是一个很奇怪的值
fixed3 edgeColor = lerp(_DissolveEdgeColor.rgb, _DissolveColor.rgb, saturate(lerpEdge));
//最终输出颜色的lerp值
float lerpOut = sign(percentage - _ColorFactor);
//最终颜色在原颜色和上一步计算的颜色之间差值(其实经过saturate(sign(..))的lerpOut应该只能是0或1)
fixed3 colorOut = lerp(color, edgeColor, saturate(lerpOut));
return fixed4(colorOut, 1);
Tags{ &RenderType& = &Opaque& }
#pragma vertex vert
#pragma fragment frag
FallBack &Diffuse&
效果与上面基本一致,所以这次我们换个颜色再来一发燃烧溶解效果,把颜色调整成黄色和红色:
再来一发动图:
不仅仅是溶解,还要灰飞烟灭
我们的模型溶解了,本来已经够惨了。如果我们让它更惨一点,那就让它灰飞烟灭吧。《生化危机6》中的消散效果感觉应该是粒子特效制作的,其实我们直接用shader应该也可以做出类似的效果,但是肯定没有专门再做一个特效的效果好,只能模拟一个类似的效果。首先,我们要想让模型溶解后的碎片飞出去,那么就要让光栅化之前的像素点位置有偏移,所以这个操作是要在vertex shader中做的。我们让模型的顶点坐标按照一定的规则做一些偏移,就可以达到飞出去的效果了。
比如,我们试一下让模型按照法线方向外拓一下,再极小的范围下,可以实现模型的大小的扩张,不过这个扩张并不是多大都可以,如果太大了,就会出现“三角形爆炸”的情况,可以参考一下本篇文章最后的图片。我们只是轻轻的让它扩张一下就可以了。比如下面这句,当大于一定阈值的时候,才开始扩张效果:
v.vertex.xyz += v.normal * saturate(_DissolveThreshold - _FlyThreshold) * _FlyF这次我们换一个雪花点类型的噪声图,效果如下:
关于沿着某个方向消散的效果的一点讨论
感觉沿着法线方向飞出来感觉效果不好控制,尤其是容易看到三角形穿帮的情况。我们也可以让模型在溶解超过一定阈值之后向上飞,大概是这样的一个效果,还是那个帅帅哒模型,不过我们换了个角度:
下面一段纯属废话,感兴趣的可以看一下本人的内心独白:
要让模型向上运动,分为几种情况。第一种是模型空间的向上,这种最简单,直接在appdata_base传入的vertex的y轴坐标修改一下就可以了,不过这种情况下模型只会沿着所谓模型的Y轴进行偏移,如果运气好,Y轴正好在头顶,那么效果是正常的,但是如果Y轴不是头顶,我们所谓的向上就不一定向哪里了;第二种是在屏幕空间的向上,比如我们上面实验的角度上,我们可以直接在计算完MVP之后得到的坐标的y方向进行偏移,相对也比较简单,但是这种情况也会有一定的问题,比如我们相机换了个角度看的话,模型的偏移方向仍然是在屏幕上向上移动,这种效果也是不对的;第三种是在世界坐标向上,世界空间只有一个,而且所有的模型都共享这个世界空间,我们在这个空间上进行偏移操作的话,所有的模型不管自身坐标系是怎样的,也不管相机观察角度是怎样的,都会在世界空间的y方向进行偏移,这种最为符合我们现实世界,正所谓世界就在那,如果观察的角度不同,那么得到的结果也不同(恩恩,写个shader竟然还上升到哲学层面了=
。=)。那就看一下在世界空间上进行模型偏移的操作。这个就没有直接在模型空间或者屏幕空间进行操作方便了,因为这个操作是穿插在MVP变换中间的,我们需要先.........(等等,我好像想到了点什么),让模型从世界空间上向一个方向运动的话,不就是改Transform的Y轴方向吗(我是不是写shader写傻了=。=)!!!如果我在shader里面进行这步操作的话,模型有N个顶点,那么这个是个O(N)复杂度的运算,而如果我直接在脚本层面让模型朝Y方向位移一段的话,这个时间复杂度就是O(1)的(类似变换矩阵之类的都是在每帧针对每个物体计算好再传递给shader中进行运算,也就是shader中的uniform类型的变量)。所以,个人感觉实现这个的最好方法就是直接挂个脚本,按照时间大于某个值直接把模型在Y方向上向上平移一下就好了。
总之,shader虽然强大,可以做出很多很有意思的效果,但是,并不是所有的效果都适合在shader中做。毕竟如果我们在脚本里面计算的话,对于一个模型来说,只需要计算一次。但是如果放到vertex shader中就需要模型顶点数次运算,放到fragment shader的话就需要光栅化后可见像素数次运算,性能还是不一样的。
溶解效果副产品
写个shader经常会写出一些副产品,虽然说效果和目前想要的不太一样(更直白的来说就是实验失败的版本....),但是效果有时候却挺好玩的,打算把shader的副产品也记录一下,万一以后用得上呢,2333。
第一弹,直接在溶解效果后面计算一个叠加的颜色值,根据Noise采样叠加到原始模型上的效果:float lerpValue = (dissolveValue.r - _DissolveThreshold) * _DissolveE
fixed3 final = color + _DissolveColor * lerpV
脑补一下使用的场景:从左到右分别是病毒感染了,闪瞎眼了(其实只是过暴,因为加上bloom比较出效果罢了),秽土转生要结束了(火影迷暴露无遗....)
第二弹,爆炸效果...这个是调溶解残片飞出去的时候,权值给的太高,直接三角形炸开了....感觉好惨,其实主要就是沿着模型法线方向偏移:
v.vertex.xyz += v.normal * _DissolveThreshold * 0.5;
本文已收录于以下专栏:
相关文章推荐
plyGame 是一款Unity游戏引擎的视觉游戏开发工具。它可以让开发者不必编程就可以创建游戏原型,同时仍然允许以脚本方式来与系统API进行交互。plyGame 出于易用性的考虑,提供了用来创建砍杀...
http://www.chromium.org/developers/design-documents/gpu-command-buffer。
This are mostly just ...
原文地址:/infodetail-655318.html
刚开始接触Unity3D Shader编程时,你会发现有关shader的文档相当散...
实现呢,alex大神已经给出了,公司可以用谷歌,但是不好意思写博客,家里只能用百度,链接就不给出了。取搜一下对应的关键词就可以找到了。
原理也有现成的论文解释清楚了。我就是用中文,把整个过程详细复述一...
我们知道游戏中对于3D物体表面细节的表现最重要的还是靠贴图来实现的,那么越是高分辨率越是真彩色的贴图自然表现力也是越强,但是同时带来的问题是所需占用的内存会成倍的上升,而节省内存这一点在目前的游戏中还...
控件、窗体的构造方法和加载方法的比较
因为窗体Form也是从Control类继承而来,所以实质上窗体也是一种控件。为了方便叙述,下面都只提到窗体,但是下面讲的内容对窗体和控件都适用。
游戏的换装,一般分为3种.换材质,骨骼挂接,共享骨骼.用的比较多的是骨骼挂接和共享骨骼.
1.骨骼挂接
没有动作的骨骼挂接,适合武器.
有动作的骨骼挂接,适合坐骑.
2.共享骨骼
共享骨骼,适合身体部...
IOCP(I/O Completion Port,I/O完成端口)是性能最好的一种I/O模型。它是应用程序使用线程池处理异步I/O请求的一种机制。在处理多个并发的异步I/O请求时,以往的模型都是在接收...
一、OGL显卡中的帧缓存区(非输入的原始顶点和像素数据)
1) 颜色缓存,
左前,右前,左后,右后和任意数量的辅助颜色缓存; OGL 3.1辅助颜色缓存没有,不支持立体观察(VR), 是使用左颜色缓...
他的最新文章
讲师:何宇健
讲师:董岩
您举报文章:
举报原因:
原文地址:
原因补充:
(最多只允许输入30个字)【浅墨Unity3D Shader编程】之九 深入理解Unity5中的Standard Shader (一)&屏幕水幕特效的实现
本系列文章由&出品,转载请注明出处。&&
文章链接:
作者:毛星云(浅墨)&&
本文工程使用的Unity3D版本:&5.2.1&
概要:本文主要介绍了Unity5中的标准着色器,并且也涉及到了基于物理的着色、延迟渲染等高级着色技术,而在文章后半部分,也对屏幕水幕特效的实现方法进行了讲解与分析。
依然是附上一组本文配套工程的运行截图之后,便开始我们的正文。如下图。
打开水幕特效的效果图:
原始的城镇场景:
需要说明,这里的水幕特效是动态的水流效果。本来准备传GIF上来展示动态的效果,但受图片尺寸2M的限制,无法出色地表现出动态效果(帧数有限,图片清晰度也会大打折扣)。建议感兴趣的朋友们下载这里提供的游戏场景的exe,自己在机器上体验水幕效果,比看博文中贴出的图片效果好太多。
提示:在此游戏场景中按F键可以开关屏幕特效。
在文章末尾有更多的运行截图,并提供了源工程的下载。
好的,正文开始。
一、认识Unity5中的Standard Shader
Unity5中重点推出了一套基于物理的着色(Physically Based Shading,PBS)的多功能Shader,叫做标准着色器(Standard Shader)。这套Shader的设计初衷是化繁为简。想用这样的一个多功能Shader,来代替之前多种多样的Shader各司其职,对于不同的材质效果,需要不同的Shader的局面。
&Unity 5中目前有两个标准着色器,一个名为Standard,我们称它为标准着色器的标准版,另一个名为Standard(Specular Setup),我们称它为标准着色器的高光版,它们共同组成了一个完整的PBS光照明模型,且非常易于使用。其实这两个Shader基本差不多,只是有细微的属性参数上的区别。标准版这边的_Metallic(金属性)、_MetallicGlossMap(金属光泽贴图),被高光版的_SpecColor(高光颜色)、_SpecGlossMap(高光颜色法线贴图)所代替。
标准着色器主要是针对硬质表面(也就是建筑材质)而设计的,可以处理大多数现实世界的材质,例如石头、陶瓷、铜器、银器或橡胶等。同时,它也可以非常出色地处理一些非硬质表面的材质,例如皮肤、头发或布料等。
如下的一个Unity官方放出的名为VikingVillage的场景中,所有的物体材质都是使用的标准着色器,标准着色器的广泛适用性可见一斑。
而在Unity5的官方放出的演示demo视频中,也是用一个标准着色器,Standard(Specular Setup),就完成了游戏场景中绝大多数物体的材质显示。
Unity5 Standard Shader的演示Demo可以看这里:
&Unity5 PBS技术的演示Demo截图:
下面稍微对Standard shader中核心的概念——基于物理的着色做一个大概的了解。
1.1 基于物理的着色(Physically Based Shading)技术概览
基于物理的着色(Physically Based Shading,简称PBS)就是以某种方式模拟现实中材质和光照的相互作用的一种着色方法。这种方法在需要光照和材质更加直观和逼真地协同工作的场合下优势非常明显。基于物理的着色模拟了光线在现实中的行为,实现了在不同的光照条件下的逼真效果。为实现这种效果需要遵循各种物理原理,包括能量守恒(也就是物体反射出去的光量不可能超过所接收的光量),Fresnel反射(所有表面反射在掠射角(grazing
angles)处更加强烈),以及物体表面是如何自我遮挡等原理。
其实,PBS技术在多年前于虚幻三游戏引擎中就已经被广泛使用,而Unity直到最近刚发布的第五代,才将此特性作为官方的特性实现出来。而在Unity5发布之前,Unity的Asset Store中,已经有不少的第三方插件,在Unity中实现了PBS技术。
关于PBS技术,知乎上有一个专栏,专门介绍PBS技术的一些相关原理,在这里推荐一下:
这边贴一张专栏中的配套渲染图,效果非常出色:
1.2 如何使用标准着色器
可以在Unity5中任意材质的Shader选项中的最前面看到两个Standard Shader字样的选项。其中第一个是普通版,第二个带Specularsetup是高光版。
标准着色器标准版材质界面:
标准着色器的高光版材质界面:
不难得知,标准着色器引入了新的材质编辑器,它使PBS的材质编辑工作比以前的非PBS材质更简单。新的编辑器不但简洁,还提供了材质的所有可能用到的选项。在新编辑器中,我们不需要选用不同的着色器来改变纹理通道;不会再出现 “texture unused, please choose another shader” 这样的提示;也不再需要通过切换着色器来改变混合模式。
所有的纹理通道都是备选的,无需强制使用,任何一个闲置通道的相关代码都会在编译时被优化掉,因此完全不用担心效率方面的问题。unity会根据我们输入到编辑器中的数据来生成正确的代码,并使整个过程保持高效。
另外,我们可以用ctrl+点击纹理的方式预览大图,并且还可以分别查看颜色和Alpha通道。
ctrl+点击纹理,得到的纹理放大的预览:
OK,关于Unity5中的StandardShader的概念,大概先就讲这么多。更多细节可以参考Unity官方文档:
以及这里Unity5 Standard Shader的官方文档论坛翻译版:
1.3 理解标准着色器的组成
上面说了很多标准着色器的强大之处,其实,作为一个着色器,它也没有什么神秘的地方,无非就是两个Shader源文件,加上一堆CG头文件组成的两个功能稍微复杂全面一些的Shader而已。其中,两个Shader源文件里,又按渲染路径分为了很多的SubShader,每个SubShader里面又分为了很多Pass。而CG文件中,主要包含了Shader的支持函数,相关的宏等为Shader源文件提供支持的代码。
Unity5中标准着色器的组成,归纳概括如下:
两个Shader源文件七个CG头文件一个脚本文件(用于自定义材质编辑器UI)
下面分别对每个文件进行一个简单的介绍。
1)两个Shader源文件
Stardard.shader着色器源文件 - 标准着色器的标准版StardardSpecular.shader着色器源文件 - 标准着色器的高光版
2)七个CG头文件
UnityStandardBRDF.cginc头文件-用于存放标准着色器处理BRDF材质属性相关的函数与宏UnityStandardConfig.cginc头文件-用于存放标准着色器配置相关的代码(其实里面就几个宏)UnityStandardCore.cginc头文件-用于存放标准着色器的主要代码(如顶点着色函数、片段着色函数等相关函数)UnityStandardInput.cginc头文件-用于存放标准着色器输入结构相关的工具函数与宏UnityStandardMeta.cginc头文件-用于存放标准着色器meta通道中会用到的工具函数与宏UnityStandardShadow.cginc头文件-用于存放标准着色器阴影贴图采样相关的工具函数与宏UnityStandardUtils.cginc头文件-用于存放标准着色器共用的一些工具函数
在包括本文在内的接下来的几次更新中,本系列文章将试着花篇幅来剖析这两个Shader源文件,和依附的几个CG头文件的源码,从而一窥Unity5中新版Shader书写体系的究竟。
3)一个脚本文件
StandardShaderGUI.cs脚本文件——定义了特定的自定义编辑器UI界面
标准着色器对应材质的编辑器外观不同于一般的Shader,就是因为在Shader末尾书写了如下的代码:&
[csharp]&&
标准着色器对应材质的编辑器外观如下:
一般的着色器对应材质的编辑器外观如下:
二、Unity5标准着色器源代码剖析之一:架构分析篇
上文已经提到过,标准着色器源代码的剖析是一个小小的马拉松,完全解析起来篇幅会很长,所以本系列文章将对剖析的过程进行连载,此节为连载的第一部分。
在这里先贴出经过浅墨详细注释的标准着色器标准版的源代码,并对架构进行简单的分析,而对每个通道的剖析在稍后的更新中会进行。
标准着色器的源代码部分相对于着色器的体量来说,算是有点长的,加上注释后有近500行。先稍微把它的架构稍微理一下。
标准着色器由两个SubShader组成。第一个SubShader用于处理Shader Model 3.0,有5个通道,第二个SubShader用于处理Shader Model 2.0, 有4个通道,
详细的架构如下图:
OK,标准着色器的架构大致如上。今天就先讲这么多,上面代码的稍微有些看不懂没关系,从下次更新开始,就将深入到每个Pass的顶点和片段着色器函数之中,逐行注释与分析他们的指令细节。
而不难发现,标准着色器代码的第一个SubShader比第二个SubShader多出了一个延迟渲染通道(Deferred Render Pass),下面稍微提一下延迟渲染的基本概念。
三、关于延迟渲染(Deferred Render)
看过《GPU Gems2》的朋友们应该都有所了解,延迟渲染(Deferred Render,又称Deferred Shading)是次时代引擎必备的渲染方式之一。
需要注意,Deferred Render和Deferred Shading有一点细微的差别。
Deferred Shading:将所有的Shading全部转到Deferred阶段进行。Deferred Render:只是有选择地将Lighting转到Deferred阶段进行。
Unity中默认使用的是Deferred Shading。
而延迟渲染,一言以蔽之,就是将光照/渲染的计算延迟到第二步进行,避免多次渲染同一个像素,从而减少多余的计算操作,以提高渲染效率的一种先进的渲染方式。
延迟渲染最大的优势是可以实现同屏中数量众多的动态光源(十几到几十个),这在传统的渲染管线中是很难实现的。
更多延迟渲染的细节,这边不细说,只是提供一些链接,以作进一步了解延迟渲染的导论之用:
四、屏幕水幕特效的实现
在上一篇文章中有提到过,Unity中的屏幕特效通常分为两部分来实现:
Shader实现部分脚本实现部分
下面依然是从这两个方面对本次的特效进行实现。
而在这之前,需要准备好一张水滴(水滴太多了也就成了水幕了)的效果图片(google“water drop”一下,稍微筛选一下就有了,最好是能找到或者自己加工成无缝衔接的),放置于我们特效的脚本实现文件目录附加的一个Resources的文件夹中,那么我们在脚本中适当的地方写上一句:
Texture2 = Resources.Load(&ScreenWaterDrop&)as Texture2D;
就可以读取到这张图片了。
浅墨准备的图片如下(无水印本图片的可以在中找到,或者直接下文章末尾的项目工程)。
ScreenWaterDrop.png:
4.1 Shader实现部分
老规矩,先上详细注释的代码。
屏幕特效Shader中真正有营养的核心代码,一般都是位于像素着色器中。也就是这里的frag函数中,稍微聊一聊。
第一步,先从顶点着色器输出结构体中获取顶点的坐标:
第二步,因为需要水幕纹理在屏幕中从上向下滚动,而不同平台的原点位置是不同的,Direct3D原点在左上角,OpenGL原点在左下角。所以在这边需要对情况进行统一。
统一的方法里用到了UNITY_UV_STARTS_AT_TOP宏,它是Unity中内置的宏,其值 取为1 或0 ; 在纹理 V 坐标在“纹理顶部”为零的平台上值取 1。如Direct3D;而OpenGL 平台上取 0。
另外,这边还用到了MainTex_TexelSize变量。
float2型的MainTex_TexelSize(其实是_TexelSize后缀,前面的名称会根据定义纹理变量的改变而改变)也是Unity中内置的一个变量,存放了纹理中单个像素的尺寸,也就是说,如果有一张2048 x 2048的纹理,那么x和y的取值都为1.0/2048.0。而且需要注意,当该纹理被Direct3D的抗锯齿操作垂直反转过后,xxx_TexelSize的值将为负数。
所以,第二步的代码就是如下:
第三步,定义三层水流的纹理,按照不同的参数取值,进行采样:
第四步,整合一下三层水流效果的颜色信息,用一个float2型的变量存放下来:
第五步,自然是在屏幕所在的纹理_MainTex中进行一次最终的采样,算出最终结果颜色值,存放于float3型的finalColor中。
第六步,因为返回的是一个fixed4型的变量,rgba。所以需要给float3型的finalColor配上一个alpha分量,并返回:
//【6】返回加上alpha分量的最终颜色值
OK,关于此Shader的实现细节,差不多就需要讲到这些。下面再看一下C#脚本文件的实现。
4.2 C#脚本实现部分
C#脚本文件的实现并没有什么好讲的,唯一的地方,水滴纹理的载入,上面已经提到过了,实现代码如下:
[csharp]&&
下面就直接贴出详细注释的实现此特效的C#脚本:
[csharp]&&
OK,水幕屏幕特效实现部分大致就是这样,下面看一下运行效果的对比。
五、最终的效果展示
贴几张场景的效果图和使用了屏幕特效后的效果图。在试玩场景时,除了类似CS/CF的FPS游戏控制系统以外,还可以使用键盘上的按键【F】,开启或者屏幕特效。
本次的场景还是使用上次更新中放出的城镇,只是出生地点有所改变。为了有更多的时间专注于Shader书写本身,以后的博文配套场景采取不定期大更新的形式(两次、三次一换)。
城镇野外(with 屏幕水幕特效):
城镇野外(原始图):
山坡上(with&屏幕水幕特效):
山坡上(原始图):
城镇中(with&屏幕水幕特效):
城镇中(原始图)
石桥上(with&屏幕水幕特效):
石桥上(原始图):
本次的更新大致如此,感谢各位捧场,我们下周再见。
附: 本博文相关下载链接清单
另附:若遇到导入unitypackage过程中进度条卡住的情况,不用慌,这是Unity5的一个bug。我也经常在导入工程时遇到。其实这个时候已经导入成功了,用资源管理器杀掉当前这个Unity的进程,再打开就行了。
本系列文章由&出品,转载请注明出处。&&
文章链接:
作者:毛星云(浅墨)&&
本文工程使用的Unity3D版本:&5.2.1&
概要:本文主要介绍了Unity5中的标准着色器,并且也涉及到了基于物理的着色、延迟渲染等高级着色技术,而在文章后半部分,也对屏幕水幕特效的实现方法进行了讲解与分析。
依然是附上一组本文配套工程的运行截图之后,便开始我们的正文。如下图。
打开水幕特效的效果图:
原始的城镇场景:
需要说明,这里的水幕特效是动态的水流效果。本来准备传GIF上来展示动态的效果,但受图片尺寸2M的限制,无法出色地表现出动态效果(帧数有限,图片清晰度也会大打折扣)。建议感兴趣的朋友们下载这里提供的游戏场景的exe,自己在机器上体验水幕效果,比看博文中贴出的图片效果好太多。
提示:在此游戏场景中按F键可以开关屏幕特效。
在文章末尾有更多的运行截图,并提供了源工程的下载。
好的,正文开始。
一、认识Unity5中的Standard Shader
Unity5中重点推出了一套基于物理的着色(Physically Based Shading,PBS)的多功能Shader,叫做标准着色器(Standard Shader)。这套Shader的设计初衷是化繁为简。想用这样的一个多功能Shader,来代替之前多种多样的Shader各司其职,对于不同的材质效果,需要不同的Shader的局面。
&Unity 5中目前有两个标准着色器,一个名为Standard,我们称它为标准着色器的标准版,另一个名为Standard(Specular Setup),我们称它为标准着色器的高光版,它们共同组成了一个完整的PBS光照明模型,且非常易于使用。其实这两个Shader基本差不多,只是有细微的属性参数上的区别。标准版这边的_Metallic(金属性)、_MetallicGlossMap(金属光泽贴图),被高光版的_SpecColor(高光颜色)、_SpecGlossMap(高光颜色法线贴图)所代替。
标准着色器主要是针对硬质表面(也就是建筑材质)而设计的,可以处理大多数现实世界的材质,例如石头、陶瓷、铜器、银器或橡胶等。同时,它也可以非常出色地处理一些非硬质表面的材质,例如皮肤、头发或布料等。
如下的一个Unity官方放出的名为VikingVillage的场景中,所有的物体材质都是使用的标准着色器,标准着色器的广泛适用性可见一斑。
而在Unity5的官方放出的演示demo视频中,也是用一个标准着色器,Standard(Specular Setup),就完成了游戏场景中绝大多数物体的材质显示。
Unity5 Standard Shader的演示Demo可以看这里:
&Unity5 PBS技术的演示Demo截图:
下面稍微对Standard shader中核心的概念——基于物理的着色做一个大概的了解。
1.1 基于物理的着色(Physically Based Shading)技术概览
基于物理的着色(Physically Based Shading,简称PBS)就是以某种方式模拟现实中材质和光照的相互作用的一种着色方法。这种方法在需要光照和材质更加直观和逼真地协同工作的场合下优势非常明显。基于物理的着色模拟了光线在现实中的行为,实现了在不同的光照条件下的逼真效果。为实现这种效果需要遵循各种物理原理,包括能量守恒(也就是物体反射出去的光量不可能超过所接收的光量),Fresnel反射(所有表面反射在掠射角(grazing
angles)处更加强烈),以及物体表面是如何自我遮挡等原理。
其实,PBS技术在多年前于虚幻三游戏引擎中就已经被广泛使用,而Unity直到最近刚发布的第五代,才将此特性作为官方的特性实现出来。而在Unity5发布之前,Unity的Asset Store中,已经有不少的第三方插件,在Unity中实现了PBS技术。
关于PBS技术,知乎上有一个专栏,专门介绍PBS技术的一些相关原理,在这里推荐一下:
这边贴一张专栏中的配套渲染图,效果非常出色:
1.2 如何使用标准着色器
可以在Unity5中任意材质的Shader选项中的最前面看到两个Standard Shader字样的选项。其中第一个是普通版,第二个带Specularsetup是高光版。
标准着色器标准版材质界面:
标准着色器的高光版材质界面:
不难得知,标准着色器引入了新的材质编辑器,它使PBS的材质编辑工作比以前的非PBS材质更简单。新的编辑器不但简洁,还提供了材质的所有可能用到的选项。在新编辑器中,我们不需要选用不同的着色器来改变纹理通道;不会再出现 “texture unused, please choose another shader” 这样的提示;也不再需要通过切换着色器来改变混合模式。
所有的纹理通道都是备选的,无需强制使用,任何一个闲置通道的相关代码都会在编译时被优化掉,因此完全不用担心效率方面的问题。unity会根据我们输入到编辑器中的数据来生成正确的代码,并使整个过程保持高效。
另外,我们可以用ctrl+点击纹理的方式预览大图,并且还可以分别查看颜色和Alpha通道。
ctrl+点击纹理,得到的纹理放大的预览:
OK,关于Unity5中的StandardShader的概念,大概先就讲这么多。更多细节可以参考Unity官方文档:
以及这里Unity5 Standard Shader的官方文档论坛翻译版:
1.3 理解标准着色器的组成
上面说了很多标准着色器的强大之处,其实,作为一个着色器,它也没有什么神秘的地方,无非就是两个Shader源文件,加上一堆CG头文件组成的两个功能稍微复杂全面一些的Shader而已。其中,两个Shader源文件里,又按渲染路径分为了很多的SubShader,每个SubShader里面又分为了很多Pass。而CG文件中,主要包含了Shader的支持函数,相关的宏等为Shader源文件提供支持的代码。
Unity5中标准着色器的组成,归纳概括如下:
两个Shader源文件七个CG头文件一个脚本文件(用于自定义材质编辑器UI)
下面分别对每个文件进行一个简单的介绍。
1)两个Shader源文件
Stardard.shader着色器源文件 - 标准着色器的标准版StardardSpecular.shader着色器源文件 - 标准着色器的高光版
2)七个CG头文件
UnityStandardBRDF.cginc头文件-用于存放标准着色器处理BRDF材质属性相关的函数与宏UnityStandardConfig.cginc头文件-用于存放标准着色器配置相关的代码(其实里面就几个宏)UnityStandardCore.cginc头文件-用于存放标准着色器的主要代码(如顶点着色函数、片段着色函数等相关函数)UnityStandardInput.cginc头文件-用于存放标准着色器输入结构相关的工具函数与宏UnityStandardMeta.cginc头文件-用于存放标准着色器meta通道中会用到的工具函数与宏UnityStandardShadow.cginc头文件-用于存放标准着色器阴影贴图采样相关的工具函数与宏UnityStandardUtils.cginc头文件-用于存放标准着色器共用的一些工具函数
在包括本文在内的接下来的几次更新中,本系列文章将试着花篇幅来剖析这两个Shader源文件,和依附的几个CG头文件的源码,从而一窥Unity5中新版Shader书写体系的究竟。
3)一个脚本文件
StandardShaderGUI.cs脚本文件——定义了特定的自定义编辑器UI界面
标准着色器对应材质的编辑器外观不同于一般的Shader,就是因为在Shader末尾书写了如下的代码:&
[csharp]&&
标准着色器对应材质的编辑器外观如下:
一般的着色器对应材质的编辑器外观如下:
二、Unity5标准着色器源代码剖析之一:架构分析篇
上文已经提到过,标准着色器源代码的剖析是一个小小的马拉松,完全解析起来篇幅会很长,所以本系列文章将对剖析的过程进行连载,此节为连载的第一部分。
在这里先贴出经过浅墨详细注释的标准着色器标准版的源代码,并对架构进行简单的分析,而对每个通道的剖析在稍后的更新中会进行。
标准着色器的源代码部分相对于着色器的体量来说,算是有点长的,加上注释后有近500行。先稍微把它的架构稍微理一下。
标准着色器由两个SubShader组成。第一个SubShader用于处理Shader Model 3.0,有5个通道,第二个SubShader用于处理Shader Model 2.0, 有4个通道,
详细的架构如下图:
OK,标准着色器的架构大致如上。今天就先讲这么多,上面代码的稍微有些看不懂没关系,从下次更新开始,就将深入到每个Pass的顶点和片段着色器函数之中,逐行注释与分析他们的指令细节。
而不难发现,标准着色器代码的第一个SubShader比第二个SubShader多出了一个延迟渲染通道(Deferred Render Pass),下面稍微提一下延迟渲染的基本概念。
三、关于延迟渲染(Deferred Render)
看过《GPU Gems2》的朋友们应该都有所了解,延迟渲染(Deferred Render,又称Deferred Shading)是次时代引擎必备的渲染方式之一。
需要注意,Deferred Render和Deferred Shading有一点细微的差别。
Deferred Shading:将所有的Shading全部转到Deferred阶段进行。Deferred Render:只是有选择地将Lighting转到Deferred阶段进行。
Unity中默认使用的是Deferred Shading。
而延迟渲染,一言以蔽之,就是将光照/渲染的计算延迟到第二步进行,避免多次渲染同一个像素,从而减少多余的计算操作,以提高渲染效率的一种先进的渲染方式。
延迟渲染最大的优势是可以实现同屏中数量众多的动态光源(十几到几十个),这在传统的渲染管线中是很难实现的。
更多延迟渲染的细节,这边不细说,只是提供一些链接,以作进一步了解延迟渲染的导论之用:
四、屏幕水幕特效的实现
在上一篇文章中有提到过,Unity中的屏幕特效通常分为两部分来实现:
Shader实现部分脚本实现部分
下面依然是从这两个方面对本次的特效进行实现。
而在这之前,需要准备好一张水滴(水滴太多了也就成了水幕了)的效果图片(google“water drop”一下,稍微筛选一下就有了,最好是能找到或者自己加工成无缝衔接的),放置于我们特效的脚本实现文件目录附加的一个Resources的文件夹中,那么我们在脚本中适当的地方写上一句:
Texture2 = Resources.Load(&ScreenWaterDrop&)as Texture2D;
就可以读取到这张图片了。
浅墨准备的图片如下(无水印本图片的可以在中找到,或者直接下文章末尾的项目工程)。
ScreenWaterDrop.png:
4.1 Shader实现部分
老规矩,先上详细注释的代码。
屏幕特效Shader中真正有营养的核心代码,一般都是位于像素着色器中。也就是这里的frag函数中,稍微聊一聊。
第一步,先从顶点着色器输出结构体中获取顶点的坐标:
第二步,因为需要水幕纹理在屏幕中从上向下滚动,而不同平台的原点位置是不同的,Direct3D原点在左上角,OpenGL原点在左下角。所以在这边需要对情况进行统一。
统一的方法里用到了UNITY_UV_STARTS_AT_TOP宏,它是Unity中内置的宏,其值 取为1 或0 ; 在纹理 V 坐标在“纹理顶部”为零的平台上值取 1。如Direct3D;而OpenGL 平台上取 0。
另外,这边还用到了MainTex_TexelSize变量。
float2型的MainTex_TexelSize(其实是_TexelSize后缀,前面的名称会根据定义纹理变量的改变而改变)也是Unity中内置的一个变量,存放了纹理中单个像素的尺寸,也就是说,如果有一张2048 x 2048的纹理,那么x和y的取值都为1.0/2048.0。而且需要注意,当该纹理被Direct3D的抗锯齿操作垂直反转过后,xxx_TexelSize的值将为负数。
所以,第二步的代码就是如下:
第三步,定义三层水流的纹理,按照不同的参数取值,进行采样:
第四步,整合一下三层水流效果的颜色信息,用一个float2型的变量存放下来:
第五步,自然是在屏幕所在的纹理_MainTex中进行一次最终的采样,算出最终结果颜色值,存放于float3型的finalColor中。
第六步,因为返回的是一个fixed4型的变量,rgba。所以需要给float3型的finalColor配上一个alpha分量,并返回:
//【6】返回加上alpha分量的最终颜色值
OK,关于此Shader的实现细节,差不多就需要讲到这些。下面再看一下C#脚本文件的实现。
4.2 C#脚本实现部分
C#脚本文件的实现并没有什么好讲的,唯一的地方,水滴纹理的载入,上面已经提到过了,实现代码如下:
[csharp]&&
下面就直接贴出详细注释的实现此特效的C#脚本:
[csharp]&&
OK,水幕屏幕特效实现部分大致就是这样,下面看一下运行效果的对比。
五、最终的效果展示
贴几张场景的效果图和使用了屏幕特效后的效果图。在试玩场景时,除了类似CS/CF的FPS游戏控制系统以外,还可以使用键盘上的按键【F】,开启或者屏幕特效。
本次的场景还是使用上次更新中放出的城镇,只是出生地点有所改变。为了有更多的时间专注于Shader书写本身,以后的博文配套场景采取不定期大更新的形式(两次、三次一换)。
城镇野外(with 屏幕水幕特效):
城镇野外(原始图):
山坡上(with&屏幕水幕特效):
山坡上(原始图):
城镇中(with&屏幕水幕特效):
城镇中(原始图)
石桥上(with&屏幕水幕特效):
石桥上(原始图):
本次的更新大致如此,感谢各位捧场,我们下周再见。
附: 本博文相关下载链接清单
另附:若遇到导入unitypackage过程中进度条卡住的情况,不用慌,这是Unity5的一个bug。我也经常在导入工程时遇到。其实这个时候已经导入成功了,用资源管理器杀掉当前这个Unity的进程,再打开就行了。
看过本文的人也看了:
我要留言技术领域:
取消收藏确定要取消收藏吗?
删除图谱提示你保存在该图谱下的知识内容也会被删除,建议你先将内容移到其他图谱中。你确定要删除知识图谱及其内容吗?
删除节点提示无法删除该知识节点,因该节点下仍保存有相关知识内容!
删除节点提示你确定要删除该知识节点吗?}

我要回帖

更多关于 unity shader time 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信