婚姻出现问题怎么办FB atchmanager怎么办

Sina Visitor System&figure&&img src=&https://pic1.zhimg.com/v2-4b14fa6141896eeebdd1537c8baaf4d2_b.jpg& data-rawwidth=&1300& data-rawheight=&1300& class=&origin_image zh-lightbox-thumb& width=&1300& data-original=&https://pic1.zhimg.com/v2-4b14fa6141896eeebdd1537c8baaf4d2_r.jpg&&&/figure&&p&前段时间做的一个 VR 项目告一段落,小哈在其中做了 &b&UI 及设计规范&/b&相关的工作,希望能用一篇文章来记录梳理一下当时的思考。∠( ? 」∠)&/p&&figure&&img src=&https://pic1.zhimg.com/v2-7b60fe11e55a116d25ec8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1200& data-rawheight=&1748& class=&origin_image zh-lightbox-thumb& width=&1200& data-original=&https://pic1.zhimg.com/v2-7b60fe11e55a116d25ec8_r.jpg&&&/figure&&p&&br&&/p&&p&&b&嗯,所以...这是来一篇很正经的工作总结!&/b&&/p&&p&&b&( 来自于一枚死理性派的认真脸 )&/b& &/p&&p&&br&&/p&&p&PS:阅读这篇文章需要了解 &b&UI 交互&/b&相关知识&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&为什么要做这个设计规范?&/b&&/h2&&p&&br&&/p&&p&没有设计规范时,每次设计师将界面素材给技术后,只能由设计师,产品经理在虚拟世界里&b&凭着感觉对界面进行缩放&/b&(界面元素太大会不舒适,太小会看不清)。&/p&&p&&br&&/p&&p&&b&这样做会带来几个问题:&/b&&/p&&p&(1) 超浪费时间&/p&&p&(2) 临时的缩放会导致界面素材的尺寸不一致&/p&&p&(3) 不同设计师在协作时,界面元素无法统一&/p&&figure&&img src=&https://pic1.zhimg.com/v2-b6ef0bc876fa3bc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-b6ef0bc876fa3bc_r.jpg&&&/figure&&p&&br&&/p&&p&设计规范可以很好的解决这几个问题,这和非 VR 端的互联网产品是一个道理。&/p&&p&&br&&/p&&p&无论是 iOS,安卓还是网页端的互联网产品,设计规范都已比较完善。&b&而 VR 端产品因为硬件条件不同,其他厂家的设计规范无法套用,只能通过测试,针对具体的硬件做一套设计规范。&/b&&/p&&p&&br&&/p&&p&( o? .? o? )? 知道了为什么要做这件事,接下来就是确定根据所需要的设计规范内容来确定测试目标了。&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&确定设计规范内容及测试目标&/b&&/h2&&p&&br&&/p&&p&我总结了规范里所需要包含的的几个内容:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-2e8b7c016d10d4ea2cc3a956deea6744_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-2e8b7c016d10d4ea2cc3a956deea6744_r.jpg&&&/figure&&hr&&p&现在的问题是,如何获得以上的四部分内容呢?&/p&&p&&br&&/p&&p&&b&1 空间和布局&/b&&/p&&p&空间和布局又分为“人视野的角度”和 “距离”,这一部分可以通过资料和经验获得。&/p&&p&&br&&/p&&p&&b&(1) 人视野的角度&/b&&/p&&p&在非 VR 端产品里,可放置界面的范围通常&b&由硬件 ( 手机,电脑 ) 的尺寸来决定&/b&。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-03dd352f89d474fed7abb5d810acb7b7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-03dd352f89d474fed7abb5d810acb7b7_r.jpg&&&/figure&&p&&br&&/p&&p&&b&而在虚拟世界中,任何一个地方都可以放置界面,&/b&为了保证用户在看界面时尽量舒适 (不会因为字太小而看不清,太大而有压迫感,位置太偏而让脖子特别累),最好对放置界面的位置做下限定。下面是我根据人体工学资料获得的信息~&/p&&p&&br&&/p&&p&&b&水平方向上&/b&,脖子转动 / 脖子不转动时的舒适视野范围:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e82cc8b455a5abeea42547_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-e82cc8b455a5abeea42547_r.jpg&&&/figure&&p&&br&&/p&&p&&b&垂直方向上&/b&,脖子转动 / 脖子不转动时的舒适视野范围:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-525bda62aa0a82d18c4afd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic2.zhimg.com/v2-525bda62aa0a82d18c4afd_r.jpg&&&/figure&&p&&br&&/p&&p&我们把上面两张图里的数据结合起来,就可以得到&b&脖子转动&/b&时,舒适情况下的极限视野 (最大范围):&/p&&figure&&img src=&https://pic4.zhimg.com/v2-52aeb77a36f71a073e75f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-52aeb77a36f71a073e75f_r.jpg&&&/figure&&p&&br&&/p&&p&和&b&脖子不转动&/b&的极限视野。(为了保证测试的严谨性,在四个方向各 +5° 的安全区,即图里桔色的部分)&/p&&figure&&img src=&https://pic2.zhimg.com/v2-e0c08b221_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic2.zhimg.com/v2-e0c08b221_r.jpg&&&/figure&&p&&br&&/p&&p&整理出来会得到这样一张图,图里的信息决定了 VR 界面的空间和布局。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-88c3cfcf4_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&496& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-88c3cfcf4_r.jpg&&&/figure&&p&&br&&/p&&p&数据整理在这里:&/p&&p&上 20(+5)= 25°&/p&&p&下 12(+5)= 17°&/p&&p&左 47(+5)= 52&/p&&p&右 47(+5)= 52&/p&&p&&br&&/p&&p&&br&&/p&&p&&b&(1) 根据交互方式,确定界面距离人的距离&/b&&/p&&p&&br&&/p&&p&在非VR端产品中,&b&由于现实世界的限制,距离通常是在一定范围内的&/b&(比如我们不会把手机放在10m的距离去看,因为没有人长10m的胳膊)。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-0de0a130a75564e4dcafd310a9f253d2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic3.zhimg.com/v2-0de0a130a75564e4dcafd310a9f253d2_r.jpg&&&/figure&&p&&br&&/p&&p&&b&在虚拟世界里,交互方式大致分为两种:&/b&&/p&&p&近距离:用&b&手柄&/b&直接与界面进行交互&/p&&p&远距离:用&b&射线&/b&与远处的界面进行交互&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ce10eee364ff170ebc2c7e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic3.zhimg.com/v2-ce10eee364ff170ebc2c7e_r.jpg&&&/figure&&p&&br&&/p&&p&&b&我们可以把这两种交互方式分成两个区:近和远&/b&&/p&&p&&br&&/p&&p&&b&近&/b&:0.5m—1m 手部操纵区&/p&&p&&b&远&/b&:1m—10m 视线 / 射线操纵区&/p&&p&&br&&/p&&p&在&b&近和远两个区域&/b&里,会有不同的界面元素,放在不同的距离上。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-301dd11bd30b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-301dd11bd30b_r.jpg&&&/figure&&p&这一部分数据是根据人体工学的参考资料 ( Google提供的舒适距离是0.5-10m )获得的。&/p&&p&&br&&/p&&p&数据整理在这里:&/p&&p&手部操纵区:50cm 60cm 70cm 80cm 100cm&/p&&p&射线操纵区:100cm-1000cm&/p&&p&&br&&/p&&hr&&p&&b&2 字符样式 ( 即常用字号 )&/b&&/p&&p&&br&&/p&&p&这点和&b&非 VR 端的互联网产品就比较类似&/b&啦,比如Web端的正文常用自号是14px,VR端也需要一个常用的基准字号。&/p&&p&&br&&/p&&p&为了尽量简化测试过程,我把字号分为了三个层级:&b&标题,正文按钮,注释&/b&。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-eba86e03eed8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-eba86e03eed8_r.jpg&&&/figure&&p&&b&字符样式这一部分,就只能通过测试来获得结果。&/b&&/p&&hr&&p&&b&3 交互区域 ( 由字 + ICON的尺寸共同决定 )&/b&&/p&&p&&br&&/p&&p&&b&移动端&/b&:最小可交互区域44px,取决于手指粗细。&/p&&p&&b&Web端&/b&:最小可交互区域,取决于最小字和icon的尺寸。&/p&&p&&br&&/p&&p&&b&同理,在虚拟世界里的可交互区域,也取决于最小字和icon的尺寸。&/b&&/p&&p&&br&&/p&&p&所以,我们需要测试icon的尺寸 ( 保证icon看得清,尺寸又能和字进行搭配使用 ),结合字和icon的尺寸,我们就能&b&推导出可交互区域的尺寸&/b&了。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f35d1aadedb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-f35d1aadedb_r.jpg&&&/figure&&p&&br&&/p&&hr&&p&&b&4 参考组件&/b&&/p&&p&&br&&/p&&p&有了前面的三部分内容: 空间布局,字符样式,可交互区域,我们就能自然而然的&b&推导出参考组件&/b&的样式了。&/p&&p&&br&&/p&&hr&&p&所以,我们可以得到这样的工作流:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-613d738cc8d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&771& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-613d738cc8d_r.jpg&&&/figure&&p&&br&&/p&&p&&b&综上,测试内容就这么愉快的决定了:字和icon的尺寸&/b&&/p&&p&&br&&/p&&p&因为人对舒适度的体验是很不精确的,所以我把测试条件量化到了 &b&4 个具体的场景上&/b&,这时前面 [空间和布局] 部分整理的内容就可以派上用场了!&/p&&figure&&img src=&https://pic4.zhimg.com/v2-73fe691dbc8ac2fe4d65e7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&2150& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic4.zhimg.com/v2-73fe691dbc8ac2fe4d65e7_r.jpg&&&/figure&&p&规范包含的内容,需要测试的内容都已经确定,接下来就要开始测试了!&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&如何进行测试?&/b&&/h2&&p&&b&这时,机智的程序员同事出现了&/b&&/p&&p&&b&?( ?ω? ?):“我们可以用Unity 做一个测试工具,专门用来测试呀。” &/b&&/p&&p&&br&&/p&&p&现在万事俱备,就差程序员小哥帮忙做的测试工具了。(下图是我给他的界面原型)&/p&&figure&&img src=&https://pic3.zhimg.com/v2-81d8463a4acf86807fcc36be0d03a846_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&992& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic3.zhimg.com/v2-81d8463a4acf86807fcc36be0d03a846_r.jpg&&&/figure&&p&&br&&/p&&p&技术小哥 (非常靠谱) 很快就把这个测试工具做了出来,&b&有了测试工具,就可以在 Unity 里随意调节距离,界面尺寸,角度!&/b&而且不但可以用来测试,还可以当作UI的原型工具。&/p&&p&简直太赞!?(?????????)?”&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&测试准备&/b&&/h2&&p&&br&&/p&&p&&b&1 字和icon所对应场景的示意图&/b&&/p&&p&&b&示意图可以让测试人员更好的理解不同尺寸的字和icon 所对应的场景&/b&,各找了一些 VR 软件里的案例。PS : 因为篇幅有限,这里每种情况就只放一个案例了~&/p&&p&&br&&/p&&p&&b&字所对应的场景:&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-23a3ee204bba5fbe30b9108_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1400& data-rawheight=&1088& class=&origin_image zh-lightbox-thumb& width=&1400& data-original=&https://pic1.zhimg.com/v2-23a3ee204bba5fbe30b9108_r.jpg&&&/figure&&p&&br&&/p&&p&&b&ICON所对应的场景:&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-dfe5e1b5d3fae527f0f068_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1400& data-rawheight=&1088& class=&origin_image zh-lightbox-thumb& width=&1400& data-original=&https://pic1.zhimg.com/v2-dfe5e1b5d3fae527f0f068_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&b&2 用来测试的 icon 和文字素材&/b&&/p&&p&icon:两个复杂程度差不多&/p&&p&文字:中文英文都试试&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ee7c0d8312dafea_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1400& data-rawheight=&888& class=&origin_image zh-lightbox-thumb& width=&1400& data-original=&https://pic3.zhimg.com/v2-ee7c0d8312dafea_r.jpg&&&/figure&&p&&br&&/p&&p&&b&3 测试人员&/b&&/p&&p&小哈邀请了 6 位盆友来帮忙进行测试。&/p&&p&&br&&/p&&p&&b&4 一个单位换算的小工具&/b&&/p&&p&其实还有一个困扰蛮久的问题:在软件里做设计稿,在ue里写代码时,单位都是px。而在虚拟世界里的单位是cm。单位不统一怎么解决呢?&/p&&p&(?_?)&/p&&p&&br&&/p&&p&&b&还是那个机智的程序员,用excel做了一个单位换算工具,&/b&可以很方便的将cm和px这两个单位互相转换。&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&测试结果&/b&&/h2&&p&因为篇幅有限,这里仅展示3位测试人员的数据~用excel把数据用图表现出来。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-40e5c885ffb8ad113c989f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1400& data-rawheight=&1057& class=&origin_image zh-lightbox-thumb& width=&1400& data-original=&https://pic4.zhimg.com/v2-40e5c885ffb8ad113c989f_r.jpg&&&/figure&&p&&br&&/p&&p&&b&在不同距离的条件下,icon和字的尺寸基本上是呈线性变化的,&/b&所以我们只要得出一个距离上的数值就好。取大家的平均值获得最终结果。&/p&&p&&br&&/p&&p&&br&&/p&&h2&成果展示&/h2&&p&规范的制作上,我参考了 &b&Google Daydream&/b& 平台的规范。&/p&&p&在这里展示一下它的设计规范 ( 主要是针对远距离的界面 ) 。&/p&&p&&br&&/p&&p&&b&1 空间和布局&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-439a36bbacec45a2760b2c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1848& data-rawheight=&1164& class=&origin_image zh-lightbox-thumb& width=&1848& data-original=&https://pic1.zhimg.com/v2-439a36bbacec45a2760b2c_r.jpg&&&/figure&&p&&br&&/p&&p&&b&2 字符样式&/b&&/p&&p&&b&3 交互区域&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ac9e5c1c64d1b4815368_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1722& data-rawheight=&848& class=&origin_image zh-lightbox-thumb& width=&1722& data-original=&https://pic1.zhimg.com/v2-ac9e5c1c64d1b4815368_r.jpg&&&/figure&&p&&br&&/p&&p&&b&4 参考组件&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-28b4fd2eeb28f7d63285_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1894& data-rawheight=&1192& class=&origin_image zh-lightbox-thumb& width=&1894& data-original=&https://pic2.zhimg.com/v2-28b4fd2eeb28f7d63285_r.jpg&&&/figure&&p&&br&&/p&&p&&b&5 Daydream 还给出了十几种 layout 示意&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-4d4fed50ea9ead20df504f13d02e9931_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1776& data-rawheight=&994& class=&origin_image zh-lightbox-thumb& width=&1776& data-original=&https://pic2.zhimg.com/v2-4d4fed50ea9ead20df504f13d02e9931_r.jpg&&&/figure&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-b069a0f9e5da09f2d7bb0d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1876& data-rawheight=&1052& class=&origin_image zh-lightbox-thumb& width=&1876& data-original=&https://pic2.zhimg.com/v2-b069a0f9e5da09f2d7bb0d_r.jpg&&&/figure&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-f2e2cfa0c514ed6d3c9d6bbf1ea4c656_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1774& data-rawheight=&996& class=&origin_image zh-lightbox-thumb& width=&1774& data-original=&https://pic3.zhimg.com/v2-f2e2cfa0c514ed6d3c9d6bbf1ea4c656_r.jpg&&&/figure&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-3a18ad224e777fb1e48a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1836& data-rawheight=&1030& class=&origin_image zh-lightbox-thumb& width=&1836& data-original=&https://pic3.zhimg.com/v2-3a18ad224e777fb1e48a_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&h2&尾声&/h2&&p&?(
?o?o )?感谢你看到了这里( 抓住一枚死理性派 ),第一次做 VR 端的设计规范,很多思路也在摸索中,难免会有疏漏的地方,欢迎交流。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-98ca1c696efe898da68c5a9e1da7b8c8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&527& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-98ca1c696efe898da68c5a9e1da7b8c8_r.jpg&&&/figure&&p&&br&&/p&&p&最后,如果你想看看 Google Daydream 的 VR 设计规范 (sketch版本) ,在“啊哈时刻”公众号后台回复“白日梦”,就可以获得下载链接。&/p&&p&&br&&/p&&p&&br&&/p&&p&_____________________________________________&/p&&p&插画及文章由 &a href=&https://www.zhihu.com/people/fa70daaceb30& class=&internal&&@张小哈&/a& 原创,更多内容可以去我的知乎专栏:&/p&&p&&a href=&https://zhuanlan.zhihu.com/c_& class=&internal&&知乎专栏-啊哈时刻(在设计里邂逅美好,找到属于你的啊哈时刻)&/a&&/p&
前段时间做的一个 VR 项目告一段落,小哈在其中做了 UI 及设计规范相关的工作,希望能用一篇文章来记录梳理一下当时的思考。∠( ? 」∠) 嗯,所以...这是来一篇很正经的工作总结!( 来自于一枚死理性派的认真脸 ) PS:阅读这篇文章需要了解 UI 交互相关…
&p&经过近一周的奋战,我们工作室终于把一款结合水洞沟景区的VR类游戏上架到了HTC Viveport平台和Steam VR类平台。期间的辛酸史简直是开(tong)心(ku)的不要不要的,但是其实当你成功把游戏上线到这两个主流的平台上,你才会发现上传游戏的过程仅仅只是一个小小的山坡坡,后面有关游戏推广、宣传、布置线下店、开发布会、游戏直播、网红体验游戏等等内容,才是一座座富士山、阿尔卑斯山、喜马拉雅山~~~&/p&&p&我们游戏大概内测了大约1个月,之后大约在10.24.2017开始准备上架的资料。关于Steam VR平台和HTC Viveport平台建议大家都上架,因为Steam用户量确实大,而且它对VR硬件类的支持很好,后期推广的讨论组,社群建设也很不错。但是缺点就是审核慢,但是steamworks的客服会把问题给你邮箱发过去,让你把游戏做到完美再上架。HTC Viveport平台是HTC VR自己的平台,他的好处是审核快,缺点呢就是游戏玩家比较少。&/p&&p&首先呢,在这两个平台上架游戏,都需要注册开发者Developer的账号,Steam的是在Steam官网最下方的Steamworks里注册,注册时需要填写个人或者企业的信息(PS:注意是全英文哦~~~),公司地址,公司纳税号,开户银行等内容(因为如果游戏是付费的,游戏收入是要和Steam公司分成的,这个就涉及到已依法纳税的信息,因为美国管理这些比较严格,记得博主当时在美国工作的时候,每年报税季就是相当严格,如果没有报税被查到,会对个人的SSN社会安全号码的征信信息造成很大影响。所以建议各位开发者好好填写!!!)。同理呢,在HTC Vive官网,也是要注册成为开发者,填写相关的公司税号,开户行等信息来完成注册。这两个审核时间大约都是4-5天,Steam可能会稍慢个2-3天(因为Steamworks之后可能还需要你提供自己的护照扫描件,或者驾照,等个人信息。在这里,开发者一定要及时并且经常查看自己注册时候的邮箱,比如spam mail,广告邮箱等~ 以防被系统误认为垃圾邮件)。&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-e8e0befdf154fe7a2d026f_b.jpg& data-rawwidth=&640& data-rawheight=&141& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/50/v2-e8e0befdf154fe7a2d026f_r.jpg&&&figcaption&如何找到Steamworks的申请链接&/figcaption&&/figure&&p&&br&&/p&&p&下面这个就是在steamworks审核征税信息的邮件样式。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-e3aefc5d658d1eab5c6b7335_b.jpg& data-rawwidth=&640& data-rawheight=&318& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-e3aefc5d658d1eab5c6b7335_r.jpg&&&figcaption&steam审核税号信息的email&/figcaption&&/figure&&p&&br&&/p&&p&在完成了Developer的注册之后,就是需要你准备游戏的文件夹了,在这里,HTC Viveport平台会要求游戏的Zip文件,而Steam VR会要求你提供游戏的文件夹就行(包含游戏运行程序,内容文件,素材文件的集合文件夹)。接着就是准备游戏上架的是一个小的宣传游戏的短视频,6-7张游戏截图,游戏logo,游戏介绍,特点等内容。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-bdf06df9f64cd4a_b.jpg& data-rawwidth=&640& data-rawheight=&440& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-bdf06df9f64cd4a_r.jpg&&&figcaption&上传游戏的基本信息&/figcaption&&/figure&&p&&br&&/p&&p&Steam VR的上传步骤一般都是先利用Technical Tools上传文件,鉴于开发者对技术都不陌生,所以Steamworks给开发者准备的上传文档也是和各种coding语言的API文档类似。&/p&&p&具体信息可以参考下方这个链接:&/p&&p&&a href=&//link.zhihu.com/?target=https%3A//partner.steamgames.com/doc/gettingstarted& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&partner.steamgames.com/&/span&&span class=&invisible&&doc/gettingstarted&/span&&span class=&ellipsis&&&/span&&/a&&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-2b8cef1c70cd_b.jpg& data-rawwidth=&640& data-rawheight=&293& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/50/v2-2b8cef1c70cd_r.jpg&&&figcaption&Steamworks的官方API文档&/figcaption&&/figure&&p&&br&&/p&&p&下载Steamworks的SDK开发者工具后,你就可以按照上面给的步骤一步一步上传游戏的文件夹,以及在steamworks的后台勾选游戏开发的引擎(UE4还是U3D),需要不需要DirectX,支持哪个头显(HTC VIVE还是Oculus)等问题。&/p&&p&在文档中有很详细的演示视频......但是抱歉,是在Youtube上的,你需要翻墙,不过森魄小伙伴呢,也在bilibili俗称b站的地方,找到了有人搬运来的视频资料。&/p&&p&&br&&/p&&p&这个链接是完全把Steamworks里的Youtube搬运来的,但是需要开发者有稍微不错的英文听力水品,就可以看得懂了。&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/av9558431/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&bilibili.com/video/av95&/span&&span class=&invisible&&58431/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&还有一个是中国的开发者,他Po了一个自己上传Mac版的小游戏(非VR类)的步骤,大家也可以参考。&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//www.bilibili.com/video/av/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&bilibili.com/video/av14&/span&&span class=&invisible&&144360/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&博主呢,参考了上面两个开发者的视频,然后用了Steam Pipe GUI Tool来进行了较为简单的配置,也成功上传了游戏(博主网络在50MB带宽,游戏大约在7GB,反正是上传了一个晚上......大家可以按照这个速度给自己的游戏估计个时间,不要对着屏幕的cmd界面干等着,小心眼镜和心脏受不了~~~)。&/p&&p&&br&&/p&&p&再上传游戏后,你需要填写一些游戏的基本信息,比如需要的电脑配置,图片视频等资料就可以设置游戏的预发行日期和定价等信息了。&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-352ca2d3c68b1b7ee06c03_b.jpg& data-rawwidth=&640& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/50/v2-352ca2d3c68b1b7ee06c03_r.jpg&&&figcaption&上架prerelease的信息&/figcaption&&/figure&&figure&&img src=&https://pic1.zhimg.com/50/v2-c5b54be8f2df230ac865_b.jpg& data-rawwidth=&640& data-rawheight=&53& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/50/v2-c5b54be8f2df230ac865_r.jpg&&&figcaption&状态栏&/figcaption&&/figure&&p&&br&&/p&&p&当然,Steam还建立了很好的社区文化和游戏奖励文化,比如你可以设置玩家到达哪一处,玩家会获得什么荣誉胸章,Medal之类的,是否能联机,有没有游戏内自动保存,是否有游戏内购买等内容都需要填写。当然,因为博主游戏没有这些内容,所以就没有填写,Steam也是给你通过的,因为这些都算是附加的信息。&/p&&p&&br&&/p&&p&总之,整体流程就是这么个流程,HTC Viveport审核完也会出现类似的界面,有关于游戏下载的情况。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-452eda660fa174cc61cbd55d879db960_b.jpg& data-rawwidth=&640& data-rawheight=&199& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-452eda660fa174cc61cbd55d879db960_r.jpg&&&figcaption&HTC Viveport平台上架&/figcaption&&/figure&&p&&br&&/p&&p&&br&&/p&&p&但是,当你上传完游戏长吁一口气后,你会发现完成游戏只是刚刚开始,游戏推广的问题才是你是否能盈利的关键。&/p&&p&&br&&/p&&p&下面打个软广:&/p&&p&博主的游戏名叫《天降神石》&《Mystery Stone from Heaven》,它是一个解密、探险类的游戏,游戏中玩家将扮演一位史前考古学家。游戏源于玩家在2008年的水洞沟考古挖掘出的一块闪光的石头碎片。在查阅历史文献后得知神石是由三块石头碎片组成并且名叫“魄”,玩家在梦中穿越到四万年前的水洞沟大峡谷,但是眼前这个大峡谷是由一个巨大的迷宫组成,你会遇到各种史前动物、学习很多史前文明的技能,收集公主的尸骨并且了解这块神石背后的秘密。在复活公主拿到第二块后,玩家又将穿越到五百年前的明朝,去追寻最后一块的下落。&/p&&p&&br&&/p&&p&话不多少了,游戏的解密性和画面绝对让你重新了解史前文化,感受那时候的震撼场景。给大家贴几张图片。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-512a2a5fbedacd710f3e7_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-512a2a5fbedacd710f3e7_r.jpg&&&figcaption&天降神石 大迷宫 大恐龙&/figcaption&&/figure&&figure&&img src=&https://pic3.zhimg.com/50/v2-fbaf8a6f1c2b70336e49fcd_b.jpg& data-rawwidth=&640& data-rawheight=&359& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/50/v2-fbaf8a6f1c2b70336e49fcd_r.jpg&&&figcaption&水洞沟左边蒙古草原 右边明朝红山堡的场景&/figcaption&&/figure&&p&游戏呢,需要配合HTC VIVE头显来使用,现在在HTC Vive平台已经可以下载了,Steam平台预计是11.17.2017上线,也欢迎大家的关注和使用。&/p&&p&&br&&/p&&p&有什么问题可以扫描右下角森魄(水洞沟)工作室的微信公众号,给我们留言。&/p&&p&也可以关注我们的新浪微博:森魄文创来了解关于游戏的最新动态。&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//weixin.qq.com/r/LnXdxQvE4ladrU_m9yA8& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&weixin.qq.com/r/LnXdxQv&/span&&span class=&invisible&&E4ladrU_m9yA8&/span&&span class=&ellipsis&&&/span&&/a& (二维码自动识别)&/p&&p&&/p&
经过近一周的奋战,我们工作室终于把一款结合水洞沟景区的VR类游戏上架到了HTC Viveport平台和Steam VR类平台。期间的辛酸史简直是开(tong)心(ku)的不要不要的,但是其实当你成功把游戏上线到这两个主流的平台上,你才会发现上传游戏的过程仅仅只是一个…
&figure&&img src=&https://pic2.zhimg.com/v2-5cebb1f5b3f30ee135cca26_b.jpg& data-rawwidth=&1000& data-rawheight=&563& class=&origin_image zh-lightbox-thumb& width=&1000& data-original=&https://pic2.zhimg.com/v2-5cebb1f5b3f30ee135cca26_r.jpg&&&/figure&&p&界面是人机互动的窗口,它的呈现依附于显示设备。在过去到现在我们的显示设备,诸如电视、电脑、手机都是平面化的,因此在其上的界面依然是二维的。在二维的界面排版上,我们是以平面设计规范为准则,在网格、空间、比例、配色、图形图像等这些设计基础上下功夫。精心选择色彩、图像、合乎比例的字体、注重留白,力求构建出视觉层次清晰、美观实用的用户界面,帮助用户愉悦的完成其目标和任务。在 VR 中,平面化变成三维化,设计多了一个维度,这时应该如何发挥和把握呢?没有显示边界,内容应该如何排版与布局?今天我们来探讨下这个问题。&/p&&p&界面的设计根据输入的交互方式和交互流程的不同会有较大的不同。但基本可分为两大类:&b&信息集中式&/b&和&b&信息分散式&/b&。前者是目前 VR 系统界面设计的通用形式,信息集中在某一区域范围内,排版方式和现在的平面设计布局相似。常见的有以下几种:&/p&&h2&&b&宫格式&/b&&/h2&&p&宫格式是 VR 界面常用的方式,它将各功能的入口放在一起,排成宫格,组织结构稳定,也方便用户的查找。但它不能显示内页内容,因此指示性不太明确。并且各功能页的切换必须回到此宫格页,交互灵活性降低。在功能数量不多,且功能名很直观的情况下,可考虑使用此布局。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-d5bb42b0f8b9a5bf6b42eaf_b.jpg& data-rawwidth=&1270& data-rawheight=&757& class=&origin_image zh-lightbox-thumb& width=&1270& data-original=&https://pic4.zhimg.com/v2-d5bb42b0f8b9a5bf6b42eaf_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&Coverflow 式&/b&&/h2&&p&Coverflow 式也被称为旋转木马式,一次只显示一个重要信息,内容聚焦度高。同时,线性的浏览方式具有很强的方向感。视觉上容易营造出纵深空间感,布局美观。Mac OS 上的 finder 到目前依然保留着这一布局选项。Oculus OS 上的 Library 早期版本也是采用的这种方式。但它的缺点也很明显,内容一屏显示数量较少,需求用户频繁操作,且只能按顺序查看各内容。因此,它适合于内容数量在 5 到 10 个之间,聚集度高的场景。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-252ae10e384dfdd_b.jpg& data-rawwidth=&1097& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1097& data-original=&https://pic2.zhimg.com/v2-252ae10e384dfdd_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&陈列馆式&/b&&/h2&&p&此布局方式算是在宫格式上的进化,布局更灵活。同时,扩展了宫格的信息承载量,可更直观的展示各项内容。但需要注意一屏页面内容的显示数量,过多的内容变化,可能会让页面显得杂乱。现在电视的系统主页面大多采用此种,Oculus OS 上的 Library 也是采用的这种方式。它适合带有精美封面的浏览性展示。由于 VR 提供了全景的视角,因此,360 度的陈列馆式排布,也常见于 VR 界面设计之中。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4aef6def899f6bc_b.jpg& data-rawwidth=&1097& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1097& data-original=&https://pic4.zhimg.com/v2-4aef6def899f6bc_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&列表式&/b&&/h2&&p&广义的列表式其实包含了陈列馆式的布局方式,这里的列表式主要针对文字性的排布。比如,常见的 wifi 选择列表。列表内容层次清晰,视觉流从上往下,浏览便捷,并且可展示较长内容。但由于排版单一,内容多,容易产生视觉疲劳。因此,它适合用来显示平级菜单,且拥有较长或次级文字内容的标题。一般在设置页面的二级设置选项中使用较多。如 Oculus 的 Contact。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-509dcdbe571cab536e2be9_b.jpg& data-rawwidth=&1097& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1097& data-original=&https://pic1.zhimg.com/v2-509dcdbe571cab536e2be9_r.jpg&&&/figure&&p&&br&&/p&&h2&&b&抽屉式&/b&&/h2&&p&抽屉式能在一个区域显示更多的信息内容,用户也清楚整体的结构分类,易于聚焦内容,且无需页面的跳转。因此,它适合于具有分类信息的内容,在 VR 中常做为目录树型菜单的形式出现。抽屉式分为上下展开和左右层进式展开。在 VR 中横向的浏览可视角更大,同时层进结构清晰,所以左右展开的抽屉用得更多。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-0c1ba5a180c16d812f8ee0_b.jpg& data-rawwidth=&1097& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1097& data-original=&https://pic2.zhimg.com/v2-0c1ba5a180c16d812f8ee0_r.jpg&&&/figure&&p&信息集中式将内容聚集在一块区域内,方便了用户的操作。但由于 VR 视场角( FOV ) 的限制,过多过宽的内容呈现就会迫使用户不断的转头去看,易导致用户疲劳。就如同在平面版式设计中每行文字的宽度不能过长。不然,会影响阅读的舒适性。因此,在 VR 中,内容的宽度成了信息集中式界面设计的一个要点。即不管采用哪种布局方式,内容的宽度都应尽量控制在视场角以内。&/p&&p&另外,界面的布局一般会采用弧形,内容沿着以用户视角为圆心的圆周排布,特别是内容量大的界面。为什么呢?因为用户在 VR 中具有 360 度的环形视野,以弧形的排布方式才会让各个信息与用户视线距离一致,不致于放在边缘的内容就看不清。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-dd249a3da0cb5d9cd42ab4eaa1f65a4e_b.jpg& data-rawwidth=&2362& data-rawheight=&1200& class=&origin_image zh-lightbox-thumb& width=&2362& data-original=&https://pic2.zhimg.com/v2-dd249a3da0cb5d9cd42ab4eaa1f65a4e_r.jpg&&&/figure&&p&信息集中式在信息的获取上更便捷,也符合我们使用传统电子设备的操作规律。但我们又说&br&VR 以及AR,MR 是又一个技术的革新。既然是革新,那么必然和传统的电子设备有不同之处。其中很大的一点不同,便是它虚拟了另一个世界。人们戴上 VR 设备,相当于沉浸到了另外一个世界,那么,在这样一个世界中,可操作的信息还会是集中在一块儿的吗?在 VR 设备更加成熟,具有更多可以准确采集用户各类信息的技术后,如精准手势,空间定位,语音等。VR 的界面会出现更多的信息分散式排布的设计。&/p&&h2&分散式排布设计&/h2&&p&信息分散式的界面设计排布灵活,常常结合环境放置,如同我们真实的世界一般,你若要查看时间,你会看看手上的手表,或者墙上的钟。它们在你需要的时候出现。所以可以看出,信息基本都是通过用户的某些行为呼出的。比如,用户伸出五指,可以像钢铁侠一般呼出操作菜单,抑或利用语音来搜索某一影片,同时,还可以拖拽、扔掉悬在空中的影片。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-1208143fade_b.jpg& data-rawwidth=&1013& data-rawheight=&709& class=&origin_image zh-lightbox-thumb& width=&1013& data-original=&https://pic3.zhimg.com/v2-1208143fade_r.jpg&&&/figure&&p&不管是信息集中式还是分散式,在界面设计时,都需要让界面要有层次感。在进行二维平面设计的时候,好的设计师都会充分考量界面的层次感,哪些内容在最后,哪些在中间,哪些在最前。有时还会故意营造景深效果或伪 3D 来突出界面的层次感。那么到了 VR 中,这种效果变得更易实现,通过调整不同物件的 Z 轴位置和视距来获得。视距的选择直接影响了界面层次感和 3D 效果。优秀的 VR 的界面排布设计可以让用户便捷操作的同时,增加体验的沉浸感。&/p&&p&&br&&/p&&p&最后的最后,我和小伙伴写的书,终于出版啦~ 这是在实际工作中,趟坑趟出来的经验,希望对有这方面兴趣的童鞋有帮助。书名叫《设计未来-VR虚拟现实设计指南》,京东/当当网搜索书名即可。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-54fd5b480a8ba_b.jpg& data-rawwidth=&900& data-rawheight=&507& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-54fd5b480a8ba_r.jpg&&&/figure&&p&&/p&
界面是人机互动的窗口,它的呈现依附于显示设备。在过去到现在我们的显示设备,诸如电视、电脑、手机都是平面化的,因此在其上的界面依然是二维的。在二维的界面排版上,我们是以平面设计规范为准则,在网格、空间、比例、配色、图形图像等这些设计基础上下…
&figure&&img src=&https://pic1.zhimg.com/v2-c4e8ad342b100d44476e_b.jpg& data-rawwidth=&1152& data-rawheight=&648& class=&origin_image zh-lightbox-thumb& width=&1152& data-original=&https://pic1.zhimg.com/v2-c4e8ad342b100d44476e_r.jpg&&&/figure&我们GDC17 VRWorks Talk的视频已经可以在线观看了。Talk的内容包括了对VRWorks全面的介绍,我则着重详细介绍了VRWorks最新最有意思的一个Feature,Lens Matched Shading。&p&视频地址:&a href=&https://link.zhihu.com/?target=http%3A//www.gdcvault.com/play/1024356/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Accelerating Your VR Games with VRWorks (Presented by NVIDIA)&/a&,讲义PDF: &a href=&https://link.zhihu.com/?target=https%3A//developer.nvidia.com/vrworks-gdc-2017& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&developer.nvidia.com/vr&/span&&span class=&invisible&&works-gdc-2017&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&其实这个Talk在Lens Matched Shading部分的介绍都节选与之前发表过的一系列文章:&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&Lens Matched Shading and Unreal Engine 4 Integration (Part 1)&/a&,&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&Lens Matched Shading and Unreal Engine 4 Integration (Part 2)&/a&。一直偷懒没有把第三篇搬到知乎的博客上来,现在把第三篇也转发过来。原文地址:&a href=&https://link.zhihu.com/?target=https%3A//developer.nvidia.com/lens-matched-shading-and-unreal-engine-4-integration-part-3& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Lens Matched Shading and Unreal Engine 4 Integration Part 3&/a&&/p&&p&在前两篇介绍了什么是Lens Matched Shading(LMS)以及在引擎集成的方法以后,第三篇则介绍了LMS相关的性能优化。懒得读文章的可以直接点上面的链接听我的Talk。&/p&&h2&Optimizations&/h2&&h3&Boundary Masks&/h3&&p&One important thing that we have left out until now is that the w modification alone will not reduce any shading because it only affects the way geometries are projected to the screen. So it would still render a full rectangle, even though the four corners will be outside of the render target after resampling the image from LMS space to linear space. Therefore we also have to avoid rendering to pixels that fall outside of the LMS octagon for drawcalls that render geometric promitives.&/p&&p&For this purpose we render a boundary mask to the depth buffer, even before the Z pre-pass, setting the depth value outside of the octagon to the near plane, so no subsequent passes will render to those pixels. For detailed implementation details please refer to the source code in ModifiedWBoundaryMask.cpp and ModifiedBoundaryMask.usf.&/p&&h3&Deferred Light Stencil Culling&/h3&&p&One of the things that the boundary mask in the depth buffer couldn’t help with is deferred lighting. When rendering a stenciled light geometry such as a sphere or a cone, the engine determines whether the camera is inside the light geometry or not. If the camera is inside the geometry, we will have to set the depth test to always pass. So the boundary mask will be trivially passed as well. We could choose to do the octagon inside-outside test in the lighting shader, however this solution is less than optimal, because of the expensive per-pixel LMS remapping&/p&&p&Instead we can populate a stencil buffer with the same octagonal boundary and ust it to cull cull away those regions out of the octagon during the lighting pass.&/p&&h3&Super-sampling During Linear Resampling&/h3&&p&As we have shown, LMS reduces the sampling rate in the peripheral area, but can also increase it around the fovea. before applying the final lens distortion to our final frame, we have to convert render target from LMS back into linear space. However, if we were to convert the LMS octagon to the original viewport size, we would lose the benefits of having super-sampled the central area. Ideally, we’d like to fuse our resampling to linear step together with the HMD lens distortion function, although it is difficult because the latter is typically locked inside the HMD run-time compositor software and it performs other optimizations like time warp for us.&/p&&figure&&img src=&https://pic4.zhimg.com/v2-95bd46ffe1cbe0f71c925e_b.jpg& data-rawwidth=&1173& data-rawheight=&721& class=&origin_image zh-lightbox-thumb& width=&1173& data-original=&https://pic4.zhimg.com/v2-95bd46ffe1cbe0f71c925e_r.jpg&&&/figure&&p&Instead, we work around this limitation by resampling the LMS buffer into a target that is larger than the original buffer size. We have added another console variable, vr.LensMatchedShadingUnwarpScale, to scale the resolution of the buffer. Typically, values between 1.3 to 1.5 would maintain the center sharpness reasonably well, while not impacting performance too much.&/p&&h2&Miscellaneous Things&/h2&&h3&Viewport Size Quantization&/h3&&p&When calculating the viewport sizes, the UE4 always quantizes it to make both the width and height divisible by 4. However, because LMS calculates a new viewport based on the quantized viewport size, the result will not be divisible by 4. For this reason, we will have to quantize the size of the LMS viewport to multiples of 4, otherwise we will have lots of artifacts like bloom not being aligned with the image, decals being offset slightly and so on.&/p&&p&However, we can’t simply adjust the viewport width and height, since doing that will make the LMS configuration inconsistent with the actual calculated viewport. So we will have to adjust the corresponding fields in the LMS configuration as well. Please refer to implementation in FSceneView::SetupVRProjection for details.&/p&&h3&Viewport Gap&/h3&&p&Some HMD headsets like the Oculus Rift put a gap of a certain number of pixels between the left and right views, which UE4 takes into account when calculating the viewports for both the left and right view. LMS obviously needs to be aware of this too when calculating its viewport.&/p&&p&In the current integrations of LMS in UE4, we always run the PostProcessUpscale pass to perform linear resampling. Therefore, we completely ignore the viewport gap during viewport calculation, and rely solely on the resampling pass to position the two views slightly away from each other. This tremendously reduces the complexity and chances of error of mixing viewport gap, quantization as well as LMS viewport calculation conflating issues, while providing us with the same result in performance.&/p&&h1&Performance&/h1&&p&The following chart demonstrates some performance statistics of running LMS on a number of UE4 scenes. All the data below was collected using GTX1080, rendering at
resolution as recommended by Vive. We can clearly see that LMS provide a big shrink in terms of frame time, while subjectively also increasing perceived rendering quality. We also compare the most aggressive setting between LMS and MRS, and demonstrate that LMS produces better performance and perceived quality.&/p&&figure&&img src=&https://pic2.zhimg.com/v2-85dd0cd7aa55fea0c58c50db286345bc_b.jpg& data-rawwidth=&1129& data-rawheight=&702& class=&origin_image zh-lightbox-thumb& width=&1129& data-original=&https://pic2.zhimg.com/v2-85dd0cd7aa55fea0c58c50db286345bc_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-ef8b9a4efa88a8c4f496389_b.jpg& data-rawwidth=&707& data-rawheight=&394& class=&origin_image zh-lightbox-thumb& width=&707& data-original=&https://pic4.zhimg.com/v2-ef8b9a4efa88a8c4f496389_r.jpg&&&/figure&&p&Of note, reduced frame time isn’t as much as the amount of pixels shaded. There are many reasons for this:&/p&&ul&&li&&p&Pixel shading is only part of the frame. If your pipeline is geometry bound or even CPU bound, Lens Matched Shading isn’t likely to help.&/p&&/li&&li&&p&The coordinate remap between linear space and LMS space definitely isn’t free, and we have to do it quite a few times in passes like SSR and SSAO.&/p&&/li&&li&&p&The additional pass for resampling to linear space, especially when done at a much higher resolution in order to maintain center sharpness can impact performance too.&/p&&/li&&/ul&&p&Nonetheless, we believe that in most circumstances LMS will deliver faster rendering and higher quality at the same time.&/p&&h1&Future Work and Conclusion&/h1&&p&We believe that with the trend of higher and higher resolution displays and virtual reality, uniform shading rate across the image will become too expensive and unnecessary. Lens Matched Shading with clip space w modification is one way to manipulate the shading rate distribution to match what the viewer
is actually looking at. As future work, we are actively exploring other potentially more effective ways to redistribute shading rate, such as foveated rendering also can potentially be combined with LMS.&/p&
我们GDC17 VRWorks Talk的视频已经可以在线观看了。Talk的内容包括了对VRWorks全面的介绍,我则着重详细介绍了VRWorks最新最有意思的一个Feature,Lens Matched Shading。视频地址:,讲义PD…
&figure&&img src=&https://pic4.zhimg.com/v2-3b79fd72772c41ddf0b4b_b.jpg& data-rawwidth=&1647& data-rawheight=&873& class=&origin_image zh-lightbox-thumb& width=&1647& data-original=&https://pic4.zhimg.com/v2-3b79fd72772c41ddf0b4b_r.jpg&&&/figure&&p&记得之前每看到特别好的建筑渲染图(比如mir家的)时,最后总是会感叹说光感气氛表达的真牛掰。在任何视觉表达里,光都是起到绝对重要作用的存在。而在自己捣鼓摸索Unity的过程中,Lighting也是耗费时间精力最多的部分。&/p&&br&&p&我们看到渲染最终得到的效果通常其实是由若干部分叠加而成,比如Direct Light,Indirect Light,Specular等。直观上看似乎Direct Light贡献最多,Indirect Light和Specular添加的只是一些细节的完善,但恰恰就是这些细节的完善才使得最终的效果更加真实。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-53ebb2f975df250bd99bdee9f4f9318a_b.png& data-rawwidth=&901& data-rawheight=&454& class=&origin_image zh-lightbox-thumb& width=&901& data-original=&https://pic3.zhimg.com/v2-53ebb2f975df250bd99bdee9f4f9318a_r.jpg&&&/figure&&p&在具体聊Unity里各种参数前,我们需要了解一个完整光环境里的三个部分:如何来模拟运作这些光线的系统(全局照明/GI),光源,以及接受到光照的场景中的物体。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-beba248a0fa5_b.png& data-rawwidth=&708& data-rawheight=&268& class=&origin_image zh-lightbox-thumb& width=&708& data-original=&https://pic2.zhimg.com/v2-beba248a0fa5_r.jpg&&&/figure&&p&Unity里的GI大致分为两类:Baked GI,Precomputed realtime GI。&/p&&p&当选择Baked GI时,光影的等信息将被预先计算好并且写入到相对于场景中的贴图上,这样在实际运行的过程中,将不再需要再次计算这些光影。这些光可以是来自于Direct Light,也可以是来自于Indirect Light。因为能够预先渲染,所以即使将效果参数调到极高,只要有足够强大的电脑和足够长的时间,就能达到很不错的效果。但同时作为Baked GI的代价则是在实时运行中光影都将保持静止不能改变。比如如果已经将阳光进行了Lightmap Bake,那么在运行中即使改变阳光的位置,房屋地面上的影子也是不会动的。&br&&/p&&p&为了解决这样的问题,Precomputed realtime GI选择了一种混合的模式,将一些可以预处理的部分先行渲染储存起来(这里主要是Indirect Light),而把对计算量要求小很多的部分(比如Direct Light)留到实时渲染中再处理,这样就既能够得到漫反射的一些细节,同时也能达到在runtime中实时更新光影的要求。Precomputed realtime GI也可以同Baked GI结合使用,当然渲染/预处理的时间也会几乎double。&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-e986a0171_b.png& data-rawwidth=&883& data-rawheight=&264& class=&origin_image zh-lightbox-thumb& width=&883& data-original=&https://pic2.zhimg.com/v2-e986a0171_r.jpg&&&/figure&&p&Precomputed realtime GI对于游戏开发来说是一个非常重要的解决方案,因为没有哪个游戏里场景人物都是一直静止不动的。但对于建筑VR表达来说,这就不一定了。首先建筑里大部分的场景可能确实都是静止的,而更加重要的是,对于VR表达来说帧数是一个非常重要的指标。从头戴显示器(HMD)移动,到sensor捕捉到移动,把新的位置信息传递给电脑,到根据新的位置渲染出两张场景图(双眼)并反馈给头显,整个过程要在20ms内完成,而每秒钟,这个过程要在每秒60~90次左右才能保证体验的顺畅。如果不能够满足这样的帧率,轻则可能会容易晕,重则眼睛都要被晃瞎,一秒钟都看不下去。所以在建筑VR表达里大部分的时间,都是只采用Baked GI策略。&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1ea4e5bc25f91feda6f253bdba79d363_b.png& data-rawwidth=&1016& data-rawheight=&240& class=&origin_image zh-lightbox-thumb& width=&1016& data-original=&https://pic4.zhimg.com/v2-1ea4e5bc25f91feda6f253bdba79d363_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-e942afd9e3b3e15ae096_b.png& data-rawwidth=&733& data-rawheight=&548& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&https://pic3.zhimg.com/v2-e942afd9e3b3e15ae096_r.jpg&&&/figure&&p&在Unity中,光源有三种模式可选:realtime,baked,mixed。默认情况下都是realtime,即意味着这些光都仅仅对场景中物体贡献Direct Light (Indirect的部分可以由Precomputed GI来控制),也就是通常我们把物体直接拽入场景中立即看到的样子:有很基本的光影,但看起来很扁平。相对的,baked模式将对场景中(Lightbake Static的)物体贡献Direct Light以及Indirect Light,这些效果将会被”Bake”到模型的Texture中,于是在运行过程中也都是静态不可调整的(前提是采用了Baked GI)。&/p&&p&相应的,对于场景中的物体,也有两种模式可选:Lightmap Static,or not。(&a href=&https://zhuanlan.zhihu.com/p/?group_id=114880& class=&internal&&VR Workflow (建筑篇,二):Unity基本设置 - 知乎专栏&/a& )简单来说,这个参数就是告诉Unity这个物体对于渲染来讲是不是静态的,Baked light只会作用于Lightmap Static的物体。因为如果这个物体是运动的(比如一辆汽车),这样提前bake lightmap就会导致实际场景中车都已经跑远了但影子还留在原地的情况。&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-abfeb66d69ff_b.png& data-rawwidth=&1111& data-rawheight=&474& class=&origin_image zh-lightbox-thumb& width=&1111& data-original=&https://pic4.zhimg.com/v2-abfeb66d69ff_r.jpg&&&/figure&&p&在Unity里关于光照渲染方面的调节,大致就是需要考虑这三个方面:GI,光影,场景中的物体。今天的这一篇大概cover了这些设置里的选择题部分,比如应该选什么(Precomputed realtime GI v.s. Baked GI,Realtime v.s. Baked, Lightmap Static v.s. Non-Static),都指的是什么意思之类。在这些Lighting的面板最下方还有一个Build的按钮和一个Auto的Checkbox,这是一个Global的开关,用来控制Lightmap Bake是自动进行还是有需要时手动开始。我一般会关掉Auto,因为不希望每做一次更改都在随时的更新。有的更新可能很快,有的则是会完全重新开始,以后还会具体说说这个事儿,至于什么时候Auto什么时候关掉,到时可能会有你自己的判断。&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-42b5c6e3a4b5a2bae3ce_b.png& data-rawwidth=&1047& data-rawheight=&750& class=&origin_image zh-lightbox-thumb& width=&1047& data-original=&https://pic3.zhimg.com/v2-42b5c6e3a4b5a2bae3ce_r.jpg&&&/figure&&p&当然还有很多数字类的参数,不同的场景也会有不同的设置,这里先说几个自己平时常会调整的地方(其中1、2、4、5会至少把渲染的时间从若干小时缩短至几十分钟。这里主要针对单体建筑外加周围局部街区环境的尺度,欢迎讨论和建议):&/p&&ol&&li&&p&Baked Resolution:默认是40,这个会消耗掉大量的时间。一般10其实就还好,再低的做测试1也用过;&/p&&/li&&li&&p&Realtime Resolution/Indirect Resolution: 这俩是一个东西,在Precomputed realtime GI打开时显示为前者,关闭后就跑到了Baked Resolution面板里。一般是Baked Resolution的1/10左右;&/p&&/li&&li&&p&几个Intensity的地方基本一般都是围绕着1来转,到了1.8再往上就很大了;&/p&&/li&&li&&p&Auto UV Max Distance:默认是0.5,也就是0.5米。一般我都会改成1到10米的样子,越重要的地方数字越小(但一般不要小过0.5),大的城市尺度或者远处有些看不到的地方50米也OK。&/p&&/li&&li&&p&针对不同的物体选择需要的Lightmap Parameter。默认的Medium、Low以及Verylow还不错,当然也可以自己来设定更加符合场景的参数。&/p&&/li&&/ol&&p&因为涉及光照渲染的东西实在太多,Unity也并不是自己独立来完成这些所有的工作(自5.0版本后Unity开始使用Enlighten提供的全局照明解决方案,偏向更加底层的算法等)。所以接下来的一到两篇可能还是会围绕着这个主题,结合着具体渲染流程,聊聊怎样的参数调整才是最合适的,以及怎样来优化整个的渲染流程。&/p&
记得之前每看到特别好的建筑渲染图(比如mir家的)时,最后总是会感叹说光感气氛表达的真牛掰。在任何视觉表达里,光都是起到绝对重要作用的存在。而在自己捣鼓摸索Unity的过程中,Lighting也是耗费时间精力最多的部分。 我们看到渲染最终得到的效果通常其…
&figure&&img src=&https://pic2.zhimg.com/v2-7c74afe8e1eeb2cf6ad164c0d05a6f0a_b.jpg& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic2.zhimg.com/v2-7c74afe8e1eeb2cf6ad164c0d05a6f0a_r.jpg&&&/figure&&p&&b&前言:&/b&之前在知乎为各位曝光了游戏的原画,不少业内人士和好奇者私信了官博君,如何从美术方面做好一个游戏。为此官博君特地找到了组内的美术大大,因此今天的这篇内容会非常枯燥,但是官博君能够保证,是干货满满哦。&/p&&p&事实上VR游戏中的概念设计,跟其他类型游戏的概念设计并无太大差别。要说差别,大概是在VR游戏中,玩家可以几乎全方位无死角地观察任何物体,因此除了在3D建模过程中需要把模型打磨完善以外,在概念设计阶段也要尽量让物件在任何角度都有观赏价值和真实性。先抽象,后2D,最后再加入体积和维度设计,基本上是我们做概念设计的流程。&/p&&p&众所周知概念设计囊括诸多内容,比如场景氛围、角色设计、道具设计等等,把每一个内容单独提出来,都可以独立成一个课题。但是设计和绘画的根本不会改变,艺术的根本不会改变。好的设计,并不是天马行空、拼凑图形、排列组合。好的设计,是在各种条条框框的限制之下,做出新颖的、好看的、合理的设计,这也正是我们对自己游戏美术设计品质的要求。&/p&&p&我们需要在玩家能够分辨其功能性的前提下,把每一个内容设计的可信和美观,并富有特色,当然,要做到这样很难,这对我们自己也是一件非常具有挑战性的事。好的设计并不是凭空出现的,好的设计必须符合人类的基本视觉认知,说简单点,就是人类根本无法想象出一个你从没见过的东西、无法想象出一个前所未有的颜色、形状,所以设计要有所依据,也要有规律可循,那么规律和依据的来源,就是参考。找好参考是做好设计的第一步,团队必须要为接下来的设计制定方向,方向确定以后,再根据策划需求继续探讨细节的方向,然后才能开始进行设计。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cd030aeefcde7a11d4c0997_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic4.zhimg.com/v2-cd030aeefcde7a11d4c0997_r.jpg&&&/figure&&p&对于游戏开发者而言,别人的游戏是最直接的参考。在我们游戏美术设计中,也参考了很多市面上的3A级大作。除了现实中存在的物体(工业设计),我们还需要对别人的设计规律进行分析,学习。尤其我们做科幻风格,科幻美术本身已经是一个单独的视觉体系,人们在科幻设计的道路上已经走了很多年,开辟出了很多不同的科幻体系,而科幻体系的确定,是跟整体游戏故事背景联系在一起的。故事三要素,时间,地点,人物。当这些都确定好以后,我们选用哪种科幻体系就变得清晰明了了。体系确定好了以后在根据现实世界寻找参考,再根据科幻体系所决定的风格框架进行设计。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-d8d8e5d7953f6eaf9a602_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic3.zhimg.com/v2-d8d8e5d7953f6eaf9a602_r.jpg&&&/figure&&p&对于任何一个游戏团队来说,效率和质量的并存是第一位的。我们用了很多非常前沿的概念设计流程来缩短时间并强化质量,在设计中注意黑白灰的层次构成,在转化成有体积的设计的时候也要注意合理的安排黑白灰层次所具象化成的材质层次分布,也就是说,在2D平面图的设计阶段,一切层次和分割都是抽象的,而把它立体化的时候,要保留平面时所设计的层次和分割,在各种维度上进行设计,保证其在每个角度都是美观的,因此在我们的概念设计流程中,纯手绘只是一部分,还有另一部分会结合3D软件来辅助设计,这样会使设计时间缩短,并且保持质量。&/p&&p&现在的3D美术流程已经是次世代的PBR流程,模型具有非常逼真的材质,以至于现在或者未来的科幻设计中,可以更多的利用简洁和多样性的材质来进行层次的表达和分割的表达,这样可以在用明度和颜色来区分层次和分割的基础上,来实现更美观更具有视觉冲冲击力的设计。&/p&&p&综上所述,我们在做概念设计的时候,注意以下事项,1,确定科幻体系。2,决定设计方向,3,找参考。4尽量让设计完善,能够让设计的物品在各个角度下都具有美感,5,利用各种手段加快工作效率。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-10cb5cf8e85dbc906d2f65c9f680886a_b.png& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic3.zhimg.com/v2-10cb5cf8e85dbc906d2f65c9f680886a_r.jpg&&&/figure&&p&看完之后,不懂的人想必已经和官博君一样,如阅天书,而懂得人必然已经点赞收藏了。如果你对于我们的游戏有什么意见或者建议,或者有什么想问的可以直接关注我们的微信公众号:MultiverseVR 我们将在微信上不定期的分享披露一些干货哦。&/p&
前言:之前在知乎为各位曝光了游戏的原画,不少业内人士和好奇者私信了官博君,如何从美术方面做好一个游戏。为此官博君特地找到了组内的美术大大,因此今天的这篇内容会非常枯燥,但是官博君能够保证,是干货满满哦。事实上VR游戏中的概念设计,跟其他类型…
&b&结论&/b&:TLD是目前市面上最好的生存类游戏之一,其设计理念几乎可以用「侘寂」来形容。&br&&br&最近两三年,呼噜呼噜冒出一大片生存类游戏,除了The Long Dark外,还有ARK,Rust,DayZ,H1Z1,以及因为扩展性红遍半边天的MineCraft和因为叙事红遍半边天的This War of Mine。在说TLD之前我们不妨看看生存类游戏的共性。抛开操作方式和世界观的部分,生存游戏大致有如下特征:&br&&ol&&li&Role Play,角色扮演。&/li&&li&Resource Management,资源管理&/li&&li&Explorer,探索&/li&&li&Crafting,制造&/li&&/ol&其中,角色扮演是玩法成立的必要条件。把玩家代入角色,让角色的死活与玩家的情感息息相关是生存玩法成立的前提。如果主角就像一个人族农民一样,死了就死了,这也就没得生存可言。&br&&br&设计「求生」则先要考虑「求死」,为了加速角色的死亡,让玩家疲于奔命,设计师在这里会加入繁复的资源管理机制,而且&b&每一种资源都是玩家生存的必要不充分条件&/b&。比如饥荒使用了三种资源,饥饿、血量和SAN;漫漫长夜使用了四种资源,体温,体力,饥饿,口渴。&br&&br&在这里,生存类玩法的hook出现了:&b&玩家的每一个行为都是有效,并且及时反馈的&/b&。饿了就要吃东西,天黑了就要点火/找遮蔽物,遇见大怪就要跑。几乎玩家的每一次选择都会简单粗暴的带来两个结果,要么活下来,准备苟延残喘的新一天,这是对玩家行为极大的奖励;要么GG思密达,开下一局。&br&&br&如果玩过三国志11的朋友应该对「211公孙恭」不陌生。211公孙恭就可以说是一个三国志版的生存游戏,城少,武将傻逼(没有一项数值过60),回旋余地小,邻居异常强大。而这个剧本吸引人的地方恰好也就是对于玩家选择的及时反馈。在这种极端劣势下,每多活一年,每多占一城,都是对玩家精准计算的奖励。&br&&br&我再重复一遍:&b&这种奖励反馈很及时,次数多,有代价,不廉价&/b&。&br&&br&探索和制作是玩家行为的载体。不同游戏略有差别,但是基本可以归纳为如下几点:&br&&ul&&li&探索为基本生存提供保障&/li&&li&制作增强抗风险能力,提升生活品质&/li&&li&探索为制作提供原料&/li&&li&制作提升探索效率&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/50/36a54ffadcf7839_b.jpg& data-rawwidth=&863& data-rawheight=&534& class=&origin_image zh-lightbox-thumb& width=&863& data-original=&https://pic4.zhimg.com/50/36a54ffadcf7839_r.jpg&&&/figure&&br&当玩家获得的资源已经远远超过生存的必须,那这个游戏的吸引力就会大打折扣,因为这时候玩家的行为已经不能获得及时的奖励了,或者说这时候玩家做什么已经不重要了。玩家要么开始尝试新的难度,要么从游戏中流失。&br&&br&----------------------------------------------------------------------------------------------&br&说完了共性,我们开始分析TLD。我评价这游戏就是一个字,「斋」。&br&&br&目前市面上的很多生存类游戏,在我看来都是面向脑门开发,拍到哪里做哪里,想到什么加什么。导致游戏系统异常庞杂,但是真正与核心玩法强耦合的系统并不多。这里特别要点名批评的是ARK,虽然我面试ARK的时候违心地夸赞了他们的设计,但是鉴于他们不提供H1B,我要再次表达一下我的愤怒。看看你们的恐龙,这都是什么J8玩意儿!!!丑不说,跟玩家生不生存有半毛钱关系么?&br&&br&TLD的斋,首先就体现在系统上,一套卡路里系统构成了游戏的主干。&br&&br&这套系统其实颇有国产数值网游的风范。策划会进行一些卡路里固定投放,就是游戏中的工业食品比如士力架啊、牛肉干啊、狗粮啊之类的,主要是保证玩家可以撑到开始基本玩法循环,不会在初始阶段被直接卡死。此外还有随机投放,就是野外可以吃的动植物。玩家&b&觅食,获取燃料,烹饪,进食&/b&这个过程就是游戏的基本循环。&br&&br&这个基本循环同时也伴随着卡路里的回收,角色的每个行为都意味着卡路里的消耗。&b&由于觅食的对象是随机投放的野生动植物,所以玩家的收益并不可控。&/b&如果玩家一天收获的卡路里大于消耗的卡路里,那玩家就赚了,最后结余的卡路里可以积攒起来,用于探索,迁徙,制作或&b&作死&/b&。想象一下自己装了一包鹿肉,准备长途远征、探索未知领域时候的豪情壮志,是不是非常豪迈?如果玩家一天收获的卡路里小于获得的卡路里,那只能消耗工业食品。长此以往,慢性死亡。除此之外还有一个非常庞大的回收就是食物腐败的设定,基本上玩家猎杀的动物有超过三分之一的热量是因为腐败而流失。 &br&&br&//这个游戏钓鱼是纯坑爹的,吃鱼获得的热量比钓鱼消耗得少,一天下来卡路里反倒是净损失。以前我在网易当策划的时候,就总听前辈说“做数值的,手一定要紧”,当我玩了TLD之后才真正见识到什么叫策划手紧。以后谁在跟我说老外做不好数值,我一定糊他一脸狗粮。&br&&br&在卡路里的主干上,还有两个枝叶,一个叫随机事件,一个叫工具。随机事件很容易理解,增加挑战性和复杂度。比如脚崴了,被狼扑了,需要绷带抗生素,都是在对玩家进行消耗,本质上还是增加卡路里回收。而工具则是为游戏提供短期目标。在这个游戏里,很多事情没有趁手的工具其实也能干,但是要消耗更多能量。为了减小不必要的消耗,获得一套工具(开罐器、小刀、斧子)是玩家前期最重要的事情。对于工具的追求给了玩家一个短期目标,在一定程度上减小了初入沙盒给人带来的迷茫感。后期的弓箭、猎枪其实也都是一样的路数。&br&&br&第二个斋,体现在游戏题材上。&br&&br&生存游戏为了突出生存感,往往都会提供一些比较极端的环境。因为僵尸的设定天然契合生存题材,还有大热的行尸走肉背书。但是僵尸的设定有一个致命伤就是当你有了一把趁手的武器,这时候还往往是游戏的前中期,屏幕上就开始血肉横飞。这反而极大的破坏了游戏的氛围。&br&&br&而TLD的设计很简单,就是人与极端恶劣的自然环境的较量。有时候不用什么妖魔鬼怪,连刮三天大风就能让你饿得前心后背。简单的题材配上Low-poly的美术风格,把玩家扔在一眼望不到边的茫茫雪原,足够你念天地之悠悠,独怆然而泣下。&br&&br&The Long Dark,让我们看到了这个制作团队独特的审美,谨慎的开发风格和对于纯粹游戏性的坚持。如果你懂什么是侘寂 &a href=&https://www.zhihu.com/question/& class=&internal&&如何理解「侘寂」(wabi sabi)? - 设计&/a&,我相信你也会跟我一样不会吝啬用这个词来形容这雪地里的独一份孤单与坚韧。&br&&br&这才是独立游戏的魅力。
结论:TLD是目前市面上最好的生存类游戏之一,其设计理念几乎可以用「侘寂」来形容。 最近两三年,呼噜呼噜冒出一大片生存类游戏,除了The Long Dark外,还有ARK,Rust,DayZ,H1Z1,以及因为扩展性红遍半边天的MineCraft和因为叙事红遍半边天的This War of…
&figure&&img src=&https://pic1.zhimg.com/v2-baaf38b294ae01f03daca_b.jpg& data-rawwidth=&929& data-rawheight=&615& class=&origin_image zh-lightbox-thumb& width=&929& data-original=&https://pic1.zhimg.com/v2-baaf38b294ae01f03daca_r.jpg&&&/figure&我在很多年前就对三维扫描建模很有兴趣,尝试过很多方法、软件、以及设备,道理很简单,彼时我希望把更多的精力放到游戏或者程序本身的交互上面去,同时又希望自己对模型动画有着尽量强的掌控能力,所以压缩建模贴图动画等等asset制作方面的工作势在必行,所以我自己本身就整理了数据量颇惊人的模型贴图动画资源库。&p&&figure&&img src=&https://pic3.zhimg.com/v2-484fe3cb3f39baad8e4740a_b.png& data-rawwidth=&852& data-rawheight=&1008& class=&origin_image zh-lightbox-thumb& width=&852& data-original=&https://pic3.zhimg.com/v2-484fe3cb3f39baad8e4740a_r.jpg&&&/figure&我的模型库(都批量生成了四个角度缩略图)&br&&/p&&p&但是资源库主要还是比较通用的素材,如果遇到特定要求,还是得重新建模,不论费用,在时间成本上也是不低的,质量控制更是问题。&/p&&p&所以寻求三维扫描进行模型重建上面的突破,是顺理成章的想法,当然过程并不顺利,早期三维扫描仪价格昂贵,精度低下,软件配套也并不完备,对于如何处理破面、重叠等等方面非常的不理想。(我印象当中从meshmixer出来之后,这方面的技术才有了整体进步,几乎所有的三维软件在这方面都有了比较实用的解决方案)&/p&&p&早期的光学扫描,对大尺寸物件基本无解,只能扫描扫描昆虫之类的,而且对于多角度扫描的拼接非常费事,效果不佳。&/p&&p&后来手持扫描出现确实大大提高精度,不过需要贴点,而且价格也是比较高昂,对不同类型的物件最好适配不同型号。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-53df349c155d14e89bceb_b.png& data-rawwidth=&570& data-rawheight=&382& class=&origin_image zh-lightbox-thumb& width=&570& data-original=&https://pic4.zhimg.com/v2-53df349c155d14e89bceb_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-a69d814ffd29060fedf07ab_b.png& data-rawwidth=&836& data-rawheight=&699& class=&origin_image zh-lightbox-thumb& width=&836& data-original=&https://pic4.zhimg.com/v2-a69d814ffd29060fedf07ab_r.jpg&&&/figure&&br&&br&&p&软件建模是另外一条路子,早期尝试过3DSOM Pro,Strata Foto,效果尚可,但是需要投入精力不少,需要绿屏拍摄,生成速度也慢,就断了这个念头。&/p&&p&又过几年,发现这类软件又多了起来,起初都是用来做航拍的照片重建,&strong&pix4d,&/strong&&strong&Autodesk ReMake,&/strong&&strong&RealityCapture,&/strong&&strong&Acute3D&/strong&之类拉拉杂杂出来一堆,还有各种通过平台旋转激光点采集的,立体摄像头的,通过投影打结构光的,路数众多,当然我还是看看就过了,觉得大概不实用。&/p&&p&不过去年开始,我注意到日系厂商开始大规模的采用照片重建进行游戏人物和物品的建立,《如龙》《生化危机》等等的最新版本,几乎是海量的采用照片重建,让我意识到照片重建已经彻底成熟,日系厂商往往建立了拍摄平台,进行模型的转换工作,效果真的非常好。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-becf0dd5a_b.png& data-rawwidth=&1169& data-rawheight=&604& class=&origin_image zh-lightbox-thumb& width=&1169& data-original=&https://pic3.zhimg.com/v2-becf0dd5a_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-fc9bb529_b.png& data-rawwidth=&1128& data-rawheight=&738& class=&origin_image zh-lightbox-thumb& width=&1128& data-original=&https://pic2.zhimg.com/v2-fc9bb529_r.jpg&&&/figure&&br&&p&比较让我惊讶的(其实也不应该惊讶),他们没有采用in-stuido的软件,基本百分百的使用的photoscan, 不过确实photoscan效果非常好,只要拍摄本身符合标准,基于实体物件的三维模型完全可以量产,甚至像日本人那样以特效化妆替代建模,获得极高的基础模型精度和贴图精度。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-381a31f80ae7fdef297c03ea15b93279_b.png& data-rawwidth=&768& data-rawheight=&711& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic2.zhimg.com/v2-381a31f80ae7fdef297c03ea15b93279_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-37db836add67_b.png& data-rawwidth=&1327& data-rawheight=&660& class=&origin_image zh-lightbox-thumb& width=&1327& data-original=&https://pic4.zhimg.com/v2-37db836add67_r.jpg&&&/figure&&br&&p&从PBR流程的兴起,三维扫描的建议平民化,动作捕捉设备的小型化低价化可以看到趋势,底层工种的工作量将被持续削减,开发者会有能力控制更加复杂和精致的游戏内容。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-91698bade8fe71fb0b02f_b.png& data-rawwidth=&416& data-rawheight=&738& class=&content_image& width=&416&&&/figure&
我在很多年前就对三维扫描建模很有兴趣,尝试过很多方法、软件、以及设备,道理很简单,彼时我希望把更多的精力放到游戏或者程序本身的交互上面去,同时又希望自己对模型动画有着尽量强的掌控能力,所以压缩建模贴图动画等等asset制作方面的工作势在必行,…
&figure&&img src=&https://pic1.zhimg.com/v2-36fb9d6bed57d4eefe9c_b.jpg& data-rawwidth=&885& data-rawheight=&490& class=&origin_image zh-lightbox-thumb& width=&885& data-original=&https://pic1.zhimg.com/v2-36fb9d6bed57d4eefe9c_r.jpg&&&/figure&&p&&b&重要通知:此处内容暂停更新,请移步&/b&&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&新的项目地址&/a&&b&,获得更好的浏览效果。&/b&&/p&&p&&b&重要通知:此处内容暂停更新,请移步&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&新的项目地址&/a&,获得更好的浏览效果。&br&&/b&&/p&&p&&b&重要通知:此处内容暂停更新,请移步&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&新的项目地址&/a&,获得更好的浏览效果。&/b&&br&&/p&&br&&br&&p&这些兔斯霁在设计工作当中查阅整理的 AR 设计学习资料,后续将在这里不定期更新,希望能对大家有所帮助。&/p&&p&阅读提示:&/p&&ul&&li&大量内容都是英文,可使用 Google 翻译辅助阅读&br&&/li&&li&部分内容可能需要&b&科学上网&/b&才能访问&br&&/li&&/ul&&br&&ul&&li&本文以 AR 为主,也会涉及 VR、语音、人机交互等内容&/li&&/ul&&br&&h2&开始学习&/h2&&p&内容结构&/p&&blockquote&&ol&&li&文章、Slides、书籍与视频&br&&/li&&li&AR 硬件产品&br&&/li&&li&游戏与影视&br&&/li&&li&AR 应用开发工具&br&&/li&&li&其他资源与工具&br&&/li&&li&人物与团队&br&&/li&&li&会议与组织&br&&/li&&/ol&&/blockquote&&br&&h2&文章、Slides、书籍与视频&/h2&&br&&p&HoloLens 设计文档(推荐)&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//developer.microsoft.com/en-us/windows/holographic/designing_for_mixed_reality& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Designing for mixed reality&/a&&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//developer.microsoft.com/en-us/windows/holographic/documentation& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Documentation&/a&&/p&&p&PS:兔斯霁对 HoloLens 的文档进行过简单的总结,&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&点这里查看&/a&。&/p&&br&&br&&p&HoloLens Design Patterns by 8ninths(推荐)&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//8ninths.com/hololens-design-patterns/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&HoloLens Design Patterns - 8ninths&/a&&/p&&br&&br&&p&The UX Workflow for
Hololens & Mixed Reality&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//hackernoon.com/the-ux-workflow-for-hololens-mixed-reality-3bf.oe468shbn& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&hackernoon.com/the-ux-w&/span&&span class=&invisible&&orkflow-for-hololens-mixed-reality-3bf#.oe468shbn&/span&&span class=&ellipsis&&&/span&&/a&&/p&&br&&br&&p&Prototyping for
Augmented Reality&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//medium.com/momentary-exploration/prototyping-for-augmented-reality-ffc724a679b2%23.4zo1kjahy& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&medium.com/momentary-ex&/span&&span class=&invisible&&ploration/prototyping-for-augmented-reality-ffc724a679b2#.4zo1kjahy&/span&&span class=&ellipsis&&&/span&&/a&&/p&&br&&br&&p&Designing
for Hololens&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//blog.prototypr.io/designing-for-hololens-b7b.27t9vn4ku& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&blog.prototypr.io/desig&/span&&span class=&invisible&&ning-for-hololens-b7b7899cf59b#.27t9vn4ku&/span&&span class=&ellipsis&&&/span&&/a&&/p&&br&&br&&p&Break Out Your
Scissors: The Secret of Rapid 3D Prototyping for AR/VR & IoT&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.leapmotion.com/break-scissors-secret-rapid-3d-prototyping-arvr-iot/& class=& wrap external& target=&_blank& rel=&nofollow no}

我要回帖

更多关于 刷新时出现白条怎么办 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信