tensorflow 金融预测中flappy bird怎么进行预测的

我爱公开课
提一个问题:
最近提问和回复
2016年 11月 30日
(19,210 基本)
2016年 11月 30日
(19,210 基本)
2016年 11月 30日
(19,210 基本)
2016年 11月 30日
(19,210 基本)
2016年 11月 30日
(19,210 基本)
2016年 10月 24日
(19,210 基本)
2016年 10月 3日
(19,210 基本)
2016年 10月 3日
(19,210 基本)
2016年 10月 3日
(19,210 基本)
2016年 10月 3日
(19,210 基本)
2016年 10月 3日
(19,210 基本)
2016年 8月 1日
(19,210 基本)
2016年 8月 1日
(19,210 基本)
2016年 8月 1日
(19,210 基本)
2016年 8月 1日
(19,210 基本)
2016年 8月 1日
(19,210 基本)
2016年 7月 21日
(19,210 基本)
2016年 7月 21日
(19,210 基本)
2016年 7月 21日
(19,210 基本)
2016年 7月 21日
(19,210 基本)
点击 或 ,查看更多内容。
Powered by
本站架设在
上, 采用创作共用版权协议, 要求署名、非商业用途和保持一致. 转载本站内容必须也遵循“署名-非商业用途-保持一致”的创作共用协议.中国领先的IT技术网站
51CTO旗下网站
解读Flappy Bird神话的背后:弱智游戏因何如此火爆?
为什么就这么一款又粗糙、又弱智、又无聊的游戏,能掀起轩然大波?为什么在如日中天的档口作者却执意将其下架?为什么一款装载该游戏的iPhone可以卖到百万美元的天价?请看老湿说法
作者:老湿来源:51CTO| 17:31
最近关于Flappy Bird这款游戏的讨论非常激烈。所有业内认识都在困惑一个问题:为什么这款游戏能突然火成这样?
自从作者宣布将该应用从App Store上下架以来,大量山寨版应用纷纷借着东风也是水涨船高,下载量攀升。甚至有人在eBay上拍卖装有该游戏的手机,卖到2万-3万人民币的比比皆是。由于有些竞拍太过离谱,eBay甚至亲自介入进行封杀,将一款价格高达近100万美元的iPhone下架。
智能手机发展到现在,说起来也算是有一个比较成熟的市场机制了。一个应用是不是具备「火」的潜质,通常来说是能够大体判断出来的。Flappy Bird就是属于具备「火」的潜质的游戏:简单、2B、莫名其妙。不过光是有潜质还不行,还得能够在短期内制造出一个高下载量,这样才能被更多的人发现。
很多人把Flappy Bird的火爆归结为「易沉迷」,实际上这就好像跟潘克怠赶氲玫脚窬鸵欢系挠米约旱墓匦娜ジ谢埂N抑幌胨担汉呛恰
有人看到Flappy Bird不寻常的下载记录认为作者刷榜了,当然作者对此也表达了反对。我们暂且认为一个越南的穷小伙买Mac和iPhone做开发已经倾家荡产了,没有多余资金去找刷榜公司,而且苹果也没有对此表示异议,这个应用是良性发展的。那么,短期内突然出现的下载量暴增原因又是什么呢?
还有人认为是因为「诱导评价」机制。稍微留意一下就会发现,每次新打开应用的时候,在游戏中指示你点击开始的区域,是一个看起来非常相似的「评价」按钮,而且据说该游戏早期版本甚至在每关结束后,相关位置都会出现评价按钮。如果用户不仔细看,由于游戏的惯性,很可能会直接点上去,这样就跳转到了App Store的评价页面。
单从统计数据来看,确实给了这个假说非常有力的佐证:在该应用冲上榜首之际,就已经有了400/天 个评价,之后更是增加到600/天,而到今年一月份的时候,这个数字增加了20多倍。当年火爆成那样的Crash Candy,用了一年半时间在美国区才积攒了40多万评价,而Flappy Bird用了不到1一个月时间,就积攒了70多万。是不是有种当头一棒的感觉?
作者已经被这个游戏的突然走红搞得苦闷不已,多次表达了艰难的情绪并最终将游戏下架。有的人挤破头想完成的事情,到了某些人头上反而成为负担,简直呵呵。
截止目前位置,App Store免费榜Top 5的游戏中,3个是山寨Flappy Bird:
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
关注热点原创原创聚焦
24H热文一周话题本月最赞
讲师:738341人学习过
讲师:133506人学习过
讲师:83013人学习过
精选博文论坛热帖下载排行
J2EE是目前企业级软件开发的首选平台。本书从架构的角度讲解了一个完整的J2EE系统的搭建。内容包括:正则表达式、JSP、Swing、XML等技术在...
订阅51CTO邮刊个人觉得如果是纯python,不加任何外部的库,那你就需要做好准备半年时间去自己开发深度学习框架了。不过好在有很多大牛人或者机构已经给你开发好了很多可以拿来直接用的库,模块。这些都是大大的好啊。真心感谢他们的贡献。&br&&br&具体来说说用python开发或学习机器学习,深度学习的重要模块!应该说是必不可少的模块!&br&&br&1. 前期准备, 你多多少少需要懂python科学运算,数据整理还有出图像结果的模块,这三个必不可少:numpy, pandas, matplotlib.&br&&br&2. 进阶准备,在机器学习方面,scikit learn 是汇集了众多机器学习方法的模块,它支持各种各样的机器学习方法。你总能找到适合你项目的。&br&&br&3. 同样是进阶的,在神经网络方面有着巨大贡献的tensorflow,这个是Google开发,而且挖了挺多theano的开发人员。我觉得神经网络的开发没有比tensorflow更牛的了。而且你想Google这大公司,更新推进的速度肯定也不会慢。看好它。&br&&br&4. 如果想方便快捷地搭建神经网络, Keras 这个模块很不错, 他的底层是 Tensorflow 和 Theano, 所以在 Windows, MacOS, Linux上都能用得到.&br&&br&5. 的确是还有很多其他的模块可以运用,不过在我个人的机器学习生涯中,主要就是运用这些了。&br&&br&为了方便大家的学习,推广华人在机器学习领域的力量,我有自己做一套的scikit learn,Theano,
Keras, 还有tensorflow的中文教学视频, 机器学习的简介系列。国内的反响还不怎么样,不过在YouTube上已经很多人观看了。希望大家支持华人的力量。&br&&br&最近也在学习并制作网页, 汇总所有内容: &a href=&///?target=http%3A//morvanzhou.github.io/tutorials/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&莫烦Python by MorvanZhou&i class=&icon-external&&&/i&&/a&&br&&br&网易云课堂也能找到这些 : &a href=&///?target=http%3A///u/%23/center/lectorCenterCourse& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Morvan个人主页&i class=&icon-external&&&/i&&/a&
个人觉得如果是纯python,不加任何外部的库,那你就需要做好准备半年时间去自己开发深度学习框架了。不过好在有很多大牛人或者机构已经给你开发好了很多可以拿来直接用的库,模块。这些都是大大的好啊。真心感谢他们的贡献。 具体来说说用python开发或学习…
&p&被TPU论文引用过的人顶着赶论文的压力强行来答一波。&/p&&p&先说一句题外话。。。这个世界是一个罗生门,每个人都在自说自话。学术圈的一小部分人也不能完全免俗,而科技圈 99% 的人都不免俗。每一套话语背后都有一个隐含的框框,只有掌握全部事实,才有可能跳出框框,获得真相。&/p&&p&-----------------------我是分割线----------------------&/p&&p&我是属于体系结构圈子里第一波(大约是年之间)开始做神经网络加速器的。同一时间我知道的工作还有中科院陈云霁老师和清华的汪玉老师。&/p&&p&总的来说,TPU这次论文有很多有趣的信息,但性能并没有什么好惊艳的。&/p&&p&我拎出一些值得注意的地方说一说。&/p&&p&-----------------------我是分割线----------------------&/p&&p&&b&1. 关于TPU和GPU的对比,以及一些争吵。吵来吵去,其实就是两点,性能和功能。&/b&&/p&&p&性能是说 Performance 和 Performance/Watt,功能是说 Training 和 Inference 。&/p&&p&TPU宣称自己 Performance / Watt 远高于GPU(大约25倍)。N家掌门人老黄立刻说你们用K80 比是不厚道的;你们的性能仅仅是 P40 的两倍而已,Performance / Watt 仅仅是 6倍。而且还不支持浮点和训练。媒体圈加科技圈就开始热闹非凡,资本圈早就暗流涌动抢着投钱做ASIC。&/p&&p&&b&总的来说,TPU和GPU不是谁取代谁的问题&/b&(敲黑板!)而是各自都有生存的空间,谁也不能取代谁。比一比性能只是互相学习和参照罢了。&/p&&p&&b&---- 吐槽人家只做 Inference 是不对的!&/b&大部分的训练算法都在后台运行,快速的部署和训练迭代是最关心的问题。N家的生态环境和性能都已经做得很好了,我怀疑Google 有没有动力非要自己做一个训练的加速器。而用于在线服务/终端的 inference 的重要性我就不多说了,90%的设备都用来做 inference 以提供实际服务了。P40的GPU是不可能插在在线服务端的,数据中心的功耗限制大多数都在 100 w 以下,有的甚至只有50w,比如 MS 和 FB。嵌入式端就更是这样了,手机和无人机,在应用需求真正起来之后,我们是可以展望另一种形式的TPU被集成的。当然,这一天也不会来的太快。毕竟TPU太专用了,目前只有Google这样体量的公司,会有应用这种专用加速的动力。&/p&&p&&b&---- 只比较性能(Tera Operations / Sec)是不全面的!只比较 Performance / Watt 也是不对的!&/b&刚才说了。不能单纯做除法,50 Watt,5Watt,3Watt,都是云端/嵌入式终端的硬性限制。满足这个限制基础上,再来谈 Performance / Watt 才有意义。另一方面,TPU一片才几百刀,老黄家GPU动辄几千上万刀。难怪大体量的数据中心会选择自己做芯片。太划算了 !数据中心的功耗密度已经是一个非常严峻的问题了。微软采用了FPGA的路子是另一条有趣的技术路线。成功与困难并存。大家可以移步李博杰大神的文章(&a href=&/question/& class=&internal&&如何评价微软在数据中心使用FPGA代替传统CPU的做法? - 知乎&/a&)讲的很透彻。&/p&&p&所以,我很好奇。老黄为何用 P40 做比较。P4 不是更好么?22 TOPs(INT8)的性能,50 Watt。跟 Google TPU 的
Performance / Watt 的比较,只有 4x 的差距。&/p&&br&&p&&b&2. 关于TPU的一些有趣的观察。&/b&&/p&&p&&b&----- a) 正确分析处理器带宽很重要。&/b&号称 90 TOPS 的性能。在 MLP 上只有 10 TOPs 的实际性能。而Google又号称 MLP 占据了 60%的应用。&b&这才是真正的槽点。&/b&敢情只有 1/9 的性能被用上了。其实原因也简单,主要是被带宽限制住了,34GB/s 还有很大改进空间。改到 340GB/s就能用上剩下 8/9了。&/p&&p&&i&因为带宽问题,文中大量出现 &b&Roofline Model&/b&,但却被大家忽略了。我们在北京大学的工作,是世界上第一个提出使用 Roofline Model 对神经网络加速器进行设计优化的&/i&( 最初的Roofline Model 由David Patterson老爷子提出,他也是TPU作者之一)。可惜这个概念目前还没有被大家很好地使用,目前只有TPU和我们的工作使用了Roofline Model。&/p&&p&&b&------ b) 8 Bit 的做法在当时很激进。&/b&算上论文发表的时间,算上ASIC设计与迭代周期等等,Google在秘密开始TPU项目可能是在2015年以前(个人猜测)。那个时间段做 8 Bit 真的是非常激进了。学术圈(计算机视觉)里的低定点化研究大约在2016 年才出现。(更新:以下猜测并不准确,请大家移步贾扬清大神的评论)猜测TPU也有可能以浮点设计开始,到2016年才开始改成定点的。如果是这样,那么从学术圈研究到工业界的应用,只用了一年不到的时间。而且还是代价巨大的ASIC,Google这么做确实吓人一跳。当然,这一跳不是在看到论文时吓的。圈里早就传说TPU是 8-Bit了。&/p&&p&&b&更新一下贾扬清大神的评论:&/b&&/p&&blockquote&Google是在2013年左右开始研发TPU,而且当时就确定了8bit计算的方法,当时敢上8bit的缘故是speech证明了8bit可行(可以参见Vanhoucke的论文),所以的确还是很先进的。
(都是公开信息,没有内幕)&/blockquote&&p&&b&----- c) TPU文中许多应用的存储量都很小。&/b&5M-100MB的参数,片上再挤一挤其实也能放下了。一方面,模型的压缩和稀疏化能够派上用场了。另一方面,可以使用有两块/多块芯片,各自处理神经网络的一部分。这样即使有很大的权重,也可以通过分配到多个芯片的缓存上,来解决这个问题。这样就没有带宽的后顾之忧了。这也将是很有意思的研究方向。当然这件事工程上并不容易,我们在多FPGA上进行了一些探索,但是ASIC上暂时还没有看到公开发表的研究。&/p&&p&&b&----- d) TPU不是终点,而只是开始。&/b&神经网络算法一直在演变和发展,这套方法的理论还不成熟,应用场景也会在未来几年发生巨大的变化。大家可以想象一下安防、无人机、智慧大楼、无人驾驶,等等等等。每一个子领域都有 系统/功耗/性能 一系列问题和各种权衡。一方面,是算法多变的情况下,&i&如何发掘计算的内在并行性,又给上层程序员提供一个高效的编程接口,是一个很重要很实际的问题。另一方面,也有可能会做得极其定制化。牺牲大量编程性以求极低的功耗和性能,比如手机上专门做一个只识别人脸的芯片。&/i&&/p&&p&&b&未来很精彩,让我们拭目以待。&/b&&/p&&p&----------------&/p&&p&没想到一下这么多人关注这个回答,还有师弟问我工作的事情。&b&那我厚颜无耻地打个小广告吧。&/b&最近 &a class=&member_mention& href=&///people/d197d28f1f63b30ce422ed& data-hash=&d197d28f1f63b30ce422ed& data-hovercard=&p$b$d197d28f1f63b30ce422ed&&@谢小龙&/a& 师弟邀请我一起开一场Live(&a href=&/lives/987392& class=&internal&&知乎 Live - 全新的实时问答&/a&),时间是5月3号晚上8点,主题是计算机专业学生如何在校招中脱颖而出。因为也是第一次开live,希望大家轻喷,主要是和大家聊聊我们的求职经历,希望能给大家带来一丢丢启发。&/p&
被TPU论文引用过的人顶着赶论文的压力强行来答一波。先说一句题外话。。。这个世界是一个罗生门,每个人都在自说自话。学术圈的一小部分人也不能完全免俗,而科技圈 99% 的人都不免俗。每一套话语背后都有一个隐含的框框,只有掌握全部事实,才有可能跳出框…
&p&这件事情感觉很多人还是有误解。俞凯这段话发在朋友圈主要是说给大厂听的,对于小公司和个人来说确实很难理解。&/p&&br&&p&其实美国的大厂从搞硬件的intel,nvidia到搞云的amazon,MS,还有facebook,大家对TF都是拒绝的或者至少是心存芥蒂的。比如facebook在自己造torch和caffe2,nvidia和amazon在扶植mxnet这样的中立项目。除了google以外的大厂都或多或少的在反TF。&/p&&br&&p&这里面原因很多。nvidia主要不爽google对供应商非常强势。g觉得nv就老实做芯片,当个小弟就好了。而nv肯定是不甘心做g的富士康的,人家自己要搞生态。再说g还在搞tpu,指不定那天小弟都当不成了。&/p&&br&&p&MS和Amazon恨的是google内部版的tensorflow和google cloud深度绑定优化,其他的云厂只能跑开源的tensorslow,速度差远了必然毫无竞争力。MS因为内斗严重很难发力,用cntk,torch,tf,mxnet,caffe的都有。但是至少azure组是有危机感的,最近刚发布了预装mxnet。而amazon管理层控制力强,从头开始搞DL推mxnet势头还不错。&/p&&br&&p&google虽然拳头大,但毕竟双拳对四手,想吃掉所有人的蛋糕未免胃口太大。国内的的大厂虽然还没有直接跟google竞争,但还是应该有一些长远的想法的。&/p&&br&&p&从技术层面来说,一个软件很难解决所有应用场景。&/p&&p&TF的定位是ML库(而不只是DL),要做一个大而全的平台吸引最多的用户。但带来的问题就是在最核心的应用上优化不足,速度和内存占用都不是最好的。另外代码量大,抽象层多,导致难以深度自定义。&/p&&p&mxnet的优势是高效小巧,更适合自定义需求高的公司和researcher。如果你需要的功能别人都实现好了,大而全的库用起来必然舒服。但是research的意义就是做别人没做过的事。如果你不只需要加两个op,而是要改框架时,改tf的工程量就会比改caffe和mxnet大的多。&/p&&p&Torch的定位是习惯matlab的researcher和对灵活性要求极高,必须要直接操作每个tensor的人。&/p&&br&&p&总的来说大家都有自己的需求,选package的时候还是需要要冷静和独立思考。TF用的不爽的时候不妨试试别的库,说不定更适合你。&/p&
这件事情感觉很多人还是有误解。俞凯这段话发在朋友圈主要是说给大厂听的,对于小公司和个人来说确实很难理解。 其实美国的大厂从搞硬件的intel,nvidia到搞云的amazon,MS,还有facebook,大家对TF都是拒绝的或者至少是心存芥蒂的。比如facebook在自己造to…
&p&上来给TF说句公道话:TF是目前唯一一个在核心设计层面上支持dynamic control flow的框架,也是极少几个经历大规模多应用部署考验的的框架之一。&/p&&p&很多人感觉其他框架好的理由,是它们绕开了实际应用中的限制条件。比如说imperative mode做control flow,很多框架其实并不是自己做control flow,而是利用python来做,框架自己只记录一个static graph。这样的缺点是你没法部署到真正核心的产品里面,一旦要部署,就必须回到static graph去 - 很多产品,比如大规模推荐系统和移动端,是不可能用python的,overhead太大。&/p&&p&所以&a class=&member_mention& href=&///people/5c2b06e8ddca64fb72bbaf& data-hash=&5c2b06e8ddca64fb72bbaf& data-hovercard=&p$b$5c2b06e8ddca64fb72bbaf&&@吴育昕&/a&说得对,要写好的解决方案,哪个框架都要很小心才行。TF的确难,但是它给你提供了真正可以产品化的可能性。对了,当年谁说我是专业TF黑来着?&/p&&p&要相信Jeff Dean大神的眼光还是很不错的,很多问题只看见一棵树的时候简单,看见森林的时候,解决方法就不一样了。&/p&&p&(有同学说最后夹带广告了,所以这一部分我就删掉啦)&/p&
上来给TF说句公道话:TF是目前唯一一个在核心设计层面上支持dynamic control flow的框架,也是极少几个经历大规模多应用部署考验的的框架之一。很多人感觉其他框架好的理由,是它们绕开了实际应用中的限制条件。比如说imperative mode做control flow,很多…
&img src=&/f77f9e7d6be9996bb9ae_b.jpg& data-rawwidth=&1196& data-rawheight=&758& class=&origin_image zh-lightbox-thumb& width=&1196& data-original=&/f77f9e7d6be9996bb9ae_r.jpg&&谢邀。先发一图热身,CES 2016 &a href=&///?target=http%3A///object/ces2016.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/object/ces20&/span&&span class=&invisible&&16.html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&上nVidia的CEO
Jen-Hsun Huang在说到现代AI引擎的时候把MXNET放在幻灯片上当作代表,视频在19:00开始。&br&&br&&p&我先从技术角度客观评论一下MXNet和其他平台的对比,帮助楼主选择平台,兼回答一下楼上楼下对MXnet的一些疑问。&/p&&br&&p&讨论一个机器学习系统需要从两方面来讨论,骨骼和肉。骨骼代表一个框架的架构设计思想,,肉代表了比如operator实现了那些,外部样例的支持程度等。肉必须要长在骨头上,骨头的好坏决定了一个框架最终可以走多远和它的扩展性,肉长多少决定了在已有设计框架下面功能的全面性。&/p&&br&&p&&b&从骨骼上面,mxnet的设计思路优于TF&/b&&/p&&br&&p&包括TF在内的图计算框架都有一个限制,就是需要用户把所有的计算全部都表示成一张图来高效运行。这么做不论是在逻辑上,调试上以及和运行环境的交互(python)上面都是有一定劣势。这也是为什么torch采取了支持用户把计算拆分成多步来做,用户可以直接利用lua来选择下一步执行什么。用户可以比较简单地对计算进行模块分割,并且根据比如输入长度的不同来直接动态改变需要运行哪一个步骤。&/p&&p&简单来说,Torch为代表的过程式计算更加灵活。但是基于图计算的框架也提供了比如自动多卡并行调度,内存优化等便利条件。&/p&&br&&p&MXNet结合了这两种编程思路, 允许用户自由把图计算和过程计算混合起来, 并且可以对多步执行进行自动多卡调度, 使得程序在需要优化的部分可以非常优化,而必要的时候可以通过过程计算来实现一些更加灵活的操作, 并且所有的操作都可以自动并行(TF只能并行一个图的执行,但是不能并行像torch这样的多步执行的操作)。结果就是MX可以利用更短的代码来实现TF需要深度修改的东西才可以实现的哦东西,如支持变长LSTM的bucketing API需要大约10行python。&/p&&br&&p&为什么TF和Torch会成为这样不同的设计也有它们自己的原因。TF由G的优秀工程师设计,更加注重性能和优化。Torch本身是researcher设计的,更加注重灵活性。真正好的设计需要兼顾这两方面的需求,DMLC的同学因为同时有系统和机器学习的背景,才会做出结合两者优点的设计。这样的设计思路是深度学习框架的未来,也会影响包括TF和torch在内的框架的转变。&/p&&br&&p&&b&从肉上面来看&/b&&/p&&br&&p&TF具有更大的开发团体,在各个operator的支持程度上面相对会比MX来的快一些。因为TF的开发团体比较大,所以在可扩展性上面的考虑不需要那么多。其它社区如Theano和Torch的推进速度和MX差不多,不过积累时间比较久一些。&/p&&br&&p&MX本身采取的方法是更加开放,增加可扩展性。MXNet的operator不仅仅局限于MShadow。MShadow只是提供了一个方便的模板,完全可以使用C, C++, CUDA等去实现。同时支持直接采用numpy来写各种operator。另外,目前的mxnet已经做到完全和Torch兼容,以调用所有Torch的Module和Operator ( &a href=&///?target=https%3A///dmlc/mxnet/tree/master/example/torch& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&mxnet/example/torch at master · dmlc/mxnet · GitHub&i class=&icon-external&&&/i&&/a& ),所以Torch能做的MXNet就可以做。通过更加灵活地和整个深度学习开源社区整合,达到共同进步的局面。&/p&&p&在社区支持上&/p&&p&MXNet在上一个月里一共有超过1000个commit,从年初到现在,已经有了超过40个Op。在Kaggle里两个比赛使用MXNet取得第一和第三。例如在刚结束的National Data Science Bowl-II里,第三名使用单MXNet model,他是这样评价MXNet ( &a href=&///?target=http%3A//juliandewit.github.io/kaggle-ndsb/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&3rd place solution for the second national datascience bowl ?EUR“ Julian de Wit ?EUR“ Freelance software/machine learning engineer.&i class=&icon-external&&&/i&&/a& ):&/p&&blockquote&&p&Mxnet.&/p&&p&What can I say… great library when you also want to deploy your systems in real-world situations. Especially good windows support is something that is severely lacking from most other libraries.&/p&&/blockquote&&p&&b&选择什么东西,总结一下&/b&&/p&&br&&p&其实并不需要选择一个唯一的工具,很多工具之间的本质思想是相同的,武林高手也不会因为剑是什么而产生能力的差别。如果想要跑一跑已经有的深度学习代码,其实选择已经有的样例比较方便的就可以了。如果真的要走在前沿,你会发现任何一个工具都不能为完全满足需求,对于系统的深入理解和hacking,修改和不断优化是必须的。&/p&&br&&p&如果想要真正成为理解深度学习系统原理的cutting edge hacker,让自己有能力也可以重头搭建一个比TF还要优秀的深度学习系统,并且在某一些方面有所突破。不妨看一下MXNet,里面有详细的设计文档来解释TF在内的各种优化设计思路,也可以快速地实现现在深度学习框架做不到的功能。举一些例子&/p&&ul&&li&MX是目前唯一一个提供了单机四块980,用比标准Inception更复杂的模型跑完imagenet全集的框架。&br&&/li&&li&MX有最好的内存优化。训练Inception-V3, TensorFlow在K40 12GB显存上只能跑到batch size 32,在MXNet里GTX 980 4G显存就够了。语音上的例子也类似,速度和CNTK一样但是内存只用一半。最近MXNet release的mxnet-memonger进一步优化内存 (&a href=&///?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& github &a href=&///?target=https%3A///dmlc/mxnet-memonger& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub - dmlc/mxnet-memonger: Sublinear memory optimization for deep learning, reduce GPU memory cost to train deeper nets&i class=&icon-external&&&/i&&/a& ), 在一块4G显存的GTX 980上用batch size 128轻松训练一千层的ResNet还有剩余。&br&&/li&&li&MX是所有框架里面最早支持分布式的框架。&br&&/li&&li&因为其轻量级的设计,MX是目前唯一一个可以直接不修改代码移植到浏览器的框架。今年的GTC 2016的报告里也提到MXnet可以通过TX1部署到无人机上进行实时物体识别 (&a href=&///?target=http%3A//on-/gtc/2016/video/S6853.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GPU Technology Conference 2016&i class=&icon-external&&&/i&&/a& )。&br&&/li&&/ul&&p&这些例子都和MX的设计优势有关。虽然肉不一定长的很全,但是在需要的时候,可以往一个方向发力,快速到达已经有的框架做不到的效果。&/p&&br&&p&&b&技术之外,再说一下关于MXnet的维护和贡献&/b&&/p&&br&&p&MXNet的用户并不仅仅只是几个中国学生,它的主要贡献者列表长达100人 &a href=&///?target=https%3A///dmlc/mxnet/graphs/contributors& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Contributors to dmlc/mxnet · GitHub&i class=&icon-external&&&/i&&/a& 成员数超过了github能显示的长度 &a href=&///?target=https%3A///dmlc/mxnet/network/members& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Network Members · dmlc/mxnet · GitHub&i class=&icon-external&&&/i&&/a& 当中还包含了多个kaggle比赛的优胜者和机器学习专家。&/p&&p&实际上很多企业也在用mxnet,例如华为和阿里都有一些组在用,很多startup也在用mxnet。&/p&&p&顺便,MXNet的维护者大约一半在读一半已经毕业,大家都没有表示弃坑还在积极坚持维护不断推出新功能,已经毕业的小伙伴们还在他们的公司里积极推广mxnet,也请勿随意下结论。&/p&&br&&p&开源软件不容易,TF是谷歌集中很多领域专家搞起来的,里面优秀的设计思想和实现我们需要学习,而我们也有Caffe,Theano这样不靠干爹完全靠志愿开发人员和社区支持做的很好的深度学习系统,他们是Mxnet的榜样。开源软件从来都不是winner takes all的游戏,每个系统都有自己的优势,MXnet在系统设计上有很多优秀特性,在可扩展性,移动端、内存占用和分布式上有不可替代的优势,欢迎大家多用MXnet多给MXnet贡献代码我们一起茁壮成长,传送门 &a href=&///?target=https%3A///dmlc/mxnet& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub - dmlc/mxnet: Lightweight, Portable, Flexible Distributed/Mobile Deep Learning with Dynamic, Mutation-aware Dataflow Dep S for Python, R, Julia, Scala, Go, Javascript and more&i class=&icon-external&&&/i&&/a& 右上角有一个“fork”的按钮,你不点一下么?&/p&
谢邀。先发一图热身,CES 2016 上nVidia的CEO Jen-Hsun Huang在说到现代AI引擎的时候把MXNET放在幻灯片上当作代表,视频在19:00开始。 我先从技术角度客观评论一下MXNet和其他平台的对比,帮助楼主选择平台,兼回答一下楼上楼下对MXnet…
&p&一直没有怎么经营知乎,今天无聊想起来搜了一下自己。没想到就看到这个问题了,以及居然!被!好!评!了!&/p&&br&&p&将门是一家创投机构,关注技术驱动型的创业公司。除此之外,我们用心打造了围绕着人工智能各个方向的主题交流群,包括计算机视觉、自然语言处理、机器学习、机器人。每一位入群的朋友全部手动审核报名表。&/p&&p&一年了,每一次做技术分享时总是心惊肉跳,生怕网又不好了,嘉宾又找不到了,怠慢了每一位守在电脑前的朋友。 &/p&&br&&p&还好一路过来,有大家的支持。我们会一直怀着敬畏之心,给大家奉献更多优质的技术内容。&/p&&br&&p&想要入群的朋友,可以关注将门的微信(thejiangmen),然后回复加群。填写报名表,审核通过后我们会手动邀请进群。&/p&&br&&br&&p&最后附上我们往期部分线上talk的回顾和PPT吧:&/p&&p&&b&计算机视觉&/b&&/p&&p&&b&1. 嘉宾:商汤科技CEO 徐立&/b&&/p&&p&文章回顾:&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAxMzc2NDAxOQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Dd3a462aeff%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&计算机视觉的完整链条,从成像到早期视觉再到识别理解&i class=&icon-external&&&/i&&/a&&/p&&p&&b&2. 嘉宾:格灵深瞳CTO 赵勇&/b&&/p&&p&文章回顾:&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAxMzc2NDAxOQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D6b26d45cfb878f50ff4d%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&计算机视觉在安防、交通、机器人、无人车等领域的应用&i class=&icon-external&&&/i&&/a&&/p&&p&&b&3. 嘉宾:上交大教授 马利庄&/b&&/p&&p&文章回顾:&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAxMzc2NDAxOQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D84a49b421%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&可视媒体大数据的智能处理技术与应用&i class=&icon-external&&&/i&&/a&&/p&&p&&b&4. 嘉宾:阿里资深总监 华先胜&/b&&/p&&p&文章回顾:&a href=&///?target=http%3A//mp./s%3F__biz%3DMzAxMzc2NDAxOQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D64c1abf6ebb20%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&图像搜索的前世今生&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&5. 嘉宾:谭平 360人工智能研究院副院长&/b&&/p&&p&&b&主题:&/b&从SfM、SLAM到自主机器人&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///s/1sl5zqUT& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1sl5zqU&/span&&span class=&invisible&&T&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1nvbfs3f& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1nvbfs3&/span&&span class=&invisible&&f&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&6. 嘉宾:周博磊 MIT在读博士&/b&&/p&&p&&b&主题:&/b&理解和利用CNN的内部表征&/p&&p&&b&视频:&/b&&a href=&///?target=https%3A///s/1dF3MWvf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1dF3MWv&/span&&span class=&invisible&&f&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=https%3A///s/1jI8w5dc& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1jI8w5d&/span&&span class=&invisible&&c&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&7. 嘉宾:吴佳俊&/b& &b&MIT在读博士&/b&&/p&&p&&b&主题:&/b&生成和识别三维物体&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///webcast/site/vod/play-55491dbdfcc48& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-55491dbdfcc48&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=https%3A///jiajunwu_3d_jiangmen.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/jiajunwu_3&/span&&span class=&invisible&&d_jiangmen.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& &/p&&p&&b&机器人&/b&&/p&&p&&b&1. 嘉宾:张一茗
速感科技 CTO&/b&&/p&&p&&b&主题:&/b&给机器人一双慧眼——机器人视觉系统进化史&/p&&p&&b&视频:&/b&&/p&&p&&a href=&///?target=http%3A///webcast/site/vod/play-82fb6ca462cafcb17c98& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-82fb6ca462cafcb17c98&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1skNZGk9& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1skNZGk&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&2. 嘉宾:高翔 清华大学自动化导航研究所博士生&/b&&/p&&p&&b&主题:&/b&视觉SLAM的基础知识&/p&&p&&b&视频:&/b&&/p&&p&&a href=&///?target=http%3A///webcast/site/vod/play-be677f47f1aeb6af8468& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-be677f47f1aeb6af8468&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1o8lMt42& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1o8lMt4&/span&&span class=&invisible&&2&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&3. 嘉宾:张浩 蓝胖子机器人 CTO&/b&&/p&&p&&b&主题:&/b&Moble manipulator as general purpose robot: technology & vision&/p&&p&&b&视频:&/b&&/p&&p&&a href=&///?target=http%3A///webcast/site/vod/play-f784df3a2d1c685d85fda8c& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-f784df3a2d1c685d85fda8c&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1nv0b64p& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1nv0b64&/span&&span class=&invisible&&p&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&5. 嘉宾:韩峰涛 珞石科技联合创始人&/b&&/p&&p&&b&主题:&/b&工业机器人控制系统设计综述&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///s/1geF7A8N& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1geF7A8&/span&&span class=&invisible&&N&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1kVbejjx& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1kVbejj&/span&&span class=&invisible&&x&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&6.嘉宾:冯思远 丰田研究院&/b& &b&主题:&/b& 基于分层优化的人形机器人控制
&b&视频:&/b& &a href=&///?target=http%3A///webcast/site/vod/play-9553f97efcdadc537d34da& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-9553f97efcdadc537d34da&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&(因为冯博声音太好听了,导致沉醉了,前几分钟没录上==)
&b&PPT:&/b&&a href=&///?target=http%3A///s/1gfp34zD& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1gfp34z&/span&&span class=&invisible&&D&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&自然语言处理&/b&&/p&&p&&b&1. 嘉宾:鲍捷 文因互联CEO&/b&&/p&&p&&b&主题:&/b&知识管理和语义搜索的哲学思考&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///s/1jIwgWsu& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1jIwgWs&/span&&span class=&invisible&&u&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1bpgMjWr& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1bpgMjW&/span&&span class=&invisible&&r&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&2. 嘉宾:王仲远 Facebook Research Scientist&/b&&/p&&p&&b&主题:&/b&如何让机器像人类一样理解短文本&/p&&p&&b&视频:&/b&&/p&&p&&a href=&///?target=http%3A///webcast/site/vod/play-15da50b39c4f411b860b48c4cc8f6b81& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/web&/span&&span class=&invisible&&cast/site/vod/play-15da50b39c4f411b860b48c4cc8f6b81&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1pL0GBWZ& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1pL0GBW&/span&&span class=&invisible&&Z&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&3. 嘉宾:刘知远 清华大学计算机系助理教授&/b&&/p&&p&&b&主题:&/b&表示学习与知识获取&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///s/1gePJ9kv& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1gePJ9k&/span&&span class=&invisible&&v&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1dE8mDk1& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1dE8mDk&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&4.嘉宾:王昊奋 深圳狗尾草智能科技公司CTO&/b&&/p&&p&&b&主题:&/b&从通用知识图谱到行业图谱—关键技术及行业应用浅析&/p&&p&&b&视频:&/b&&a href=&///?target=http%3A///s/1c2Ny2uk& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1c2Ny2u&/span&&span class=&invisible&&k&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1pKSR26B& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1pKSR26&/span&&span class=&invisible&&B&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&机器学习&/b&&/p&&p&&b&1. 嘉宾:刘铁岩 微软亚洲研究院首席研究员&/b&&/p&&p&&b&主题:&/b&AI时代,机器学习最新技术趋势解读&/p&&p&&b&视频:&/b&&a href=&///?target=https%3A///s/1pLAmQ0r& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1pLAmQ0&/span&&span class=&invisible&&r&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=https%3A///s/1cra7ue& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1cra7ue&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&2.&/b& &b&嘉宾:秦涛 微软亚洲研究院主管研究员&/b&&/p&&p&&b&主题:&/b&Dual learning: a new learning paradigm&/p&&p&&b&视频:&/b&上&&&a href=&///?target=http%3A///s/1sliyGFz& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1sliyGF&/span&&span class=&invisible&&z&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&;&/p&&p&
下&&&a href=&///?target=http%3A///s/1b5DFUe& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1b5DFUe&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&;&/p&&p&&b&PDF:&/b&&a href=&///?target=http%3A///s/1eSr8B6M& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1eSr8B6&/span&&span class=&invisible&&M&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& &/p&&p&&b&3. 嘉宾:王太峰 微软亚洲研究院主管研究员&/b&&/p&&p&&b&主题:&/b&浅谈分布式机器学习算法和工具&/p&&p&&b&视频:&/b&&a href=&///?target=https%3A///show/YAox276N2m07Vz8Z& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/show/YAox27&/span&&span class=&invisible&&6N2m07Vz8Z&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=https%3A///s/1nv79KfR& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1nv79Kf&/span&&span class=&invisible&&R&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&p&&b&4. 嘉宾:边江&/b& &b&微软亚洲研究院主管研究员&/b&&/p&&p&&b&主题:&/b&机器学习驱动下的内容分发和个性化推荐&/p&&p&&b&视频:&/b&&a href=&///?target=https%3A///s/1jIx6Rky& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1jIx6Rk&/span&&span class=&invisible&&y&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&b&PDF:&/b&&a href=&///?target=https%3A///s/1pL2g2hX& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/s/1pL2g2h&/span&&span class=&invisible&&X&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&br&&p&日更新!&/p&&p&一觉醒来,收到 了90多个赞,受宠若惊!那就再分享一个小惊喜吧。昨天Yann LeCun在清华的Talk上,我门同事冲破重重阻挡,带着为Yann特制的爱心T恤,合到了影。今天Yann发这张照片个人的Facebook主页了,小扎居然还点了赞。&/p&&br&&img src=&/v2-939ac6e904beaffccdee02cd23cd297a_b.jpg& data-rawwidth=&1280& data-rawheight=&972& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&/v2-939ac6e904beaffccdee02cd23cd297a_r.jpg&&
一直没有怎么经营知乎,今天无聊想起来搜了一下自己。没想到就看到这个问题了,以及居然!被!好!评!了! 将门是一家创投机构,关注技术驱动型的创业公司。除此之外,我们用心打造了围绕着人工智能各个方向的主题交流群,包括计算机视觉、自然语言处理、…
&p&写个简单的科普帖吧。&/p&&p&熟悉TensorFlow的人都知道,tf在Github上的主页是:&a href=&///?target=https%3A///tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow&i class=&icon-external&&&/i&&/a&,然后这个主页下又有两个比较重要的repo(看star数就知道了),分别是TensorFlow的源代码repo:&a href=&///?target=https%3A///tensorflow/tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow/tensorflow&i class=&icon-external&&&/i&&/a&,还有一个&a href=&///?target=https%3A///tensorflow/models& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow/models&i class=&icon-external&&&/i&&/a&。&b&后者tensorflow/models是Google官方用TensorFlow做的各种各样的模型,相当于示例代码&/b&,比如用于图像分类的Slim,深度文字OCR,以及用于NLP任务的句法分析模型syntaxnet,Seq2Seq with Attention等等等等。这次公布的Object Detection API同样是放在了tensorflow/models里。&/p&&p&再来说下这次公布的代码的实现方式。&b&首先,对于目标检测这个任务来说,前面必须有一个像样的ImageNet图像分类模型来充当所谓的特征提取(Feature Extraction)层,比如VGG16、ResNet等网络结构。&/b&TensorFlow官方实现这些网络结构的项目是TensorFlow Slim,而这次公布的Object Detection API正是基于Slim的。Slim这个库公布的时间较早,不仅收录了AlexNet、VGG16、VGG19、Inception、ResNet这些比较经典的耳熟能详的卷积网络模型,还有Google自己搞的Inception-Resnet,MobileNet等。&/p&&p&我们在TensorFlow Object Detection API的官方安装指南(地址:&a href=&///?target=https%3A///tensorflow/models/blob/master/object_detection/g3doc/installation.md& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow/models&i class=&icon-external&&&/i&&/a&)中,可以看到这样一句代码:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span class=&c&&# From tensorflow/models/&/span&
&span class=&nb&&export &/span&&span class=&nv&&PYTHONPATH&/span&&span class=&o&&=&/span&&span class=&nv&&$PYTHONPATH&/span&:&span class=&sb&&`&/span&&span class=&nb&&pwd&/span&&span class=&sb&&`&/span&:&span class=&sb&&`&/span&&span class=&nb&&pwd&/span&&span class=&sb&&`&/span&/slim
&/code&&/pre&&/div&&p&很显然,这就是钦点用Slim作特征抽取了。&/p&&p&另外,以Faster RCNN为例,之前在github上,可以找到各种各样非官方的TensorFlow实现,但是这些实现使用的特征抽取层都不是Slim,而是五花八门的什么都有,另外一方面实现代码大量copy自原始的caffe的实现:&a href=&///?target=https%3A///rbgirshick/py-faster-rcnn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&rbgirshick/py-faster-rcnn&i class=&icon-external&&&/i&&/a&,这次公布的代码里已经一点也找不到原始caffe实现的痕迹了。最后,原来非官方的Object Detection实现的质量参差不齐,去年我调过一个Faster RCNN,过程比较痛苦,在运行之前疯狂debug了三天才勉强跑了起来。这次Google官方公布的Object Detection API别的不说,代码质量肯定是过的去的,因此以后应该不会有人再造TensorFlow下Faster RCNN、R-FCN、SSD的轮子了。&/p&&p&说完了代码,再简单来说下公布的模型。主要公布了5个在COCO上训练的网络。网络结构分别是SSD+MobileNet、SSD+Inception、R-FCN+ResNet101、Faster RCNN+ResNet101、Faster RCNN+Inception_ResNet。后期应该还会有更多的模型加入进来。&/p&&img src=&/v2-03c7cfac6d70b2dd476c8e_b.jpg& data-rawwidth=&654& data-rawheight=&255& class=&origin_image zh-lightbox-thumb& width=&654& data-original=&/v2-03c7cfac6d70b2dd476c8e_r.jpg&&&p&--------------------------------------分割线----------------------------------&/p&&p&最后,给新手朋友提供一个可以跑出官方Demo效果的小教程,非常简单,用5分钟的时间就可以跑一遍感受一下,只要安装了TensorFlow就可以,有没有GPU都无所谓。&/p&&h2&1. 安装或升级protoc&/h2&&p&首先需要安装或升级protoc,不然在后面会无法编译。&/p&&p&安装/升级的方法是去protobuf的Release界面:&a href=&///?target=https%3A///google/protobuf/releases& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&google/protobuf&i class=&icon-external&&&/i&&/a&,下载对应的已经编译好的protoc。&/p&&img src=&/v2-11cc4533c8cdbf36c2980af_b.jpg& data-rawwidth=&783& data-rawheight=&308& class=&origin_image zh-lightbox-thumb& width=&783& data-original=&/v2-11cc4533c8cdbf36c2980af_r.jpg&&&p&比如我是64位的ubuntu,那么就下载protoc-3.3.0-linux-x86_64.zip。下载解压后会有一个protoc二进制文件,覆盖到对应目录即可(如果不放心的可以用cp /usr/bin/protoc ~/protoc_bak先备份一下):&/p&&div class=&highlight&&&pre&&code class=&language-bash&&sudo cp bin/protoc /usr/bin/protoc
&/code&&/pre&&/div&&h2&2. 下载代码并编译&/h2&&p&下载tensorflow/models的代码:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&git clone /tensorflow/models.git
&/code&&/pre&&/div&&p&进入到models文件夹,编译Object Detection API的代码:&/p&&div class=&highlight&&&pre&&code class=&language-bash&&&span class=&c&&# From tensorflow/models/&/span&
protoc object_detection/protos/*.proto --python_out&span class=&o&&=&/span&.
&/code&&/pre&&/div&&h2&3. 运行notebook demo&/h2&&p&在models文件夹下运行:&/p&&div class=&highlight&&&pre&&code class=&language-text&&jupyter-notebook
&/code&&/pre&&/div&&p&访问文件夹object_detection,运行object_detection_tutorial.ipynb:&/p&&img src=&/v2-4e444a8d17_b.jpg& data-rawwidth=&1173& data-rawheight=&430& class=&origin_image zh-lightbox-thumb& width=&1173& data-original=&/v2-4e444a8d17_r.jpg&&&br&&p&依次shift+enter运行到底就行了。这个Demo会自动下载并执行最小最快的模型ssd+mobilenet。&/p&&p&最后的检测效果,一张是汪星人图片:&/p&&img src=&/v2-fbdcb443ab41dafc70967a7_b.png& data-rawwidth=&785& data-rawheight=&497& class=&origin_image zh-lightbox-thumb& width=&785& data-original=&/v2-fbdcb443ab41dafc70967a7_r.png&&&p&还有一张是海滩图片:&/p&&img src=&/v2-1a46df762fa_b.png& data-rawwidth=&785& data-rawheight=&530& class=&origin_image zh-lightbox-thumb& width=&785& data-original=&/v2-1a46df762fa_r.png&&&h2&4. 使用自己的图片做检测&/h2&&p&如果要检测自己的图片,那么更改TEST_IMAGE_PATHS为自己的图片路径就可以了。这里我随便选了一张COCO数据集中的图片:&/p&&div class=&highlight&&&pre&&code class=&language-text&&TEST_IMAGE_PATHS=['/home/dl/COCO_train00009.jpg']
&/code&&/pre&&/div&&p&检测结果:&/p&&img src=&/v2-ad6b48fe6737936cac7bef26b8b0af80_b.png& data-rawwidth=&703& data-rawheight=&530& class=&origin_image zh-lightbox-thumb& width=&703& data-original=&/v2-ad6b48fe6737936cac7bef26b8b0af80_r.png&&&h2&5. 使用其他模型做检测&/h2&&p&一共公布了5个模型,上面我们只是用最简单的ssd + mobilenet模型做了检测,如何使用其他模型呢?找到Tensorflow detection model zoo(地址:&a href=&///?target=https%3A///tensorflow/models/blob/master/object_detection/g3doc/detection_model_zoo.md& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow/models&i class=&icon-external&&&/i&&/a&),根据里面模型的下载地址,我们只要分别把MODEL_NAME修改为以下的值,就可以下载并执行对应的模型了:&/p&&div class=&highlight&&&pre&&code class=&language-python3&&&span class=&n&&MODEL_NAME&/span& &span class=&o&&=&/span& &span class=&s&&'ssd_inception_v2_coco_11_06_2017'&/span&
&span class=&n&&MODEL_NAME&/span& &span class=&o&&=&/span& &span class=&s&&'rfcn_resnet101_coco_11_06_2017'&/span&
&span class=&n&&MODEL_NAME&/span& &span class=&o&&=&/span& &span class=&s&&'faster_rcnn_resnet101_coco_11_06_2017'&/span&
&span class=&n&&MODEL_NAME&/span& &span class=&o&&=&/span& &span class=&s&&'faster_rcnn_inception_resnet_v2_atrous_coco_11_06_2017'&/span&
&/code&&/pre&&/div&&br&&p&完。&/p&
写个简单的科普帖吧。熟悉TensorFlow的人都知道,tf在Github上的主页是:,然后这个主页下又有两个比较重要的repo(看star数就知道了),分别是TensorFlow的源代码repo:,还有一个。后者tensorflow/model…
&i&11月29日,Google Brain 工程师团队刚刚宣布在 TensorFlow 0.12 中加入初步的 Windows 原生支持。&/i&&img src=&/v2-c57ab1ded869a_b.png& data-rawheight=&689& data-rawwidth=&1120& class=&origin_image zh-lightbox-thumb& width=&1120& data-original=&/v2-c57ab1ded869a_r.png&&&br&&p&谷歌在开发者博客上写到:「原生的 Windows 版 TensorFlow 是自开源以来,我们工作的重中之重。尽管 Windows 的用户们已经可以在 Docker 容器中运行 TensorFlow 了,我们仍然希望提供更加完整的原生体验,包括对于 GPU 的支持。」&/p&&br&&p&随着 TensorFlow r0.12 版的发布,这一开源软件库现已支持 Windows7、10 和 Server 2016。同时,这一新版本可以让用户在 TensorFlow 训练中得到 CUDA 8 的 GPU 加速。我们已将新版本在 PyPI 中封装成型。现在你可以使用命令 C:\& pip install tensorflow 安装 TensorFlow 了。&/p&&br&&p&GPU 支持的命令:C:\& pip install tensorflow-gpu&/p&&br&&p&有关 TensorFlow Windows 支持的更多细节请阅读 r0.12 的版本注释。&/p&&br&&p&pypi 地址:&/p&&p&&a href=&///?target=https%3A//pypi.python.org/pypi/tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow 0.12.0rc0&i class=&icon-external&&&/i&&/a&&/p&&br&&p&TensorFlow Release 0.12.0 地址:&/p&&p&&a href=&///?target=https%3A///tensorflow/tensorflow/releases& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tensorflow/tensorflow&i class=&icon-external&&&/i&&/a&&/p&&br&&b&主要特性和提升:&/b&&br&&ul&&li&&br&TensorFlow 现在可以在 Microsoft Windows 中开发和运行了(已知在 Windows 10、Windows 7、Windows Server 2016 中运行良好)。支持的语言包括 Python(通过 pip package)和 C++。支持 CUDA 8.0 和 cuDNN5.1 GPU 加速。目前已知的限制有:现在无法加载自定义指令库(custom op library)。不支持 CGS 和 HDFS 文件系统。&br&下列指令无法实现:DepthwiseConv2dNative, DepthwiseConv2dNativeBackpropFilter, DepthwiseConv2dNativeBackpropInput, Dequantize, Digamma, Erf, Erfc, Igamma, Igammac, Lgamma, Polygamma, QuantizeAndDequantize, QuantizedAvgPool, QuantizedBatchNomWithGlobalNormalization, QuantizedBiasAdd, QuantizedConcat, QuantizedConv2D, QuantizedMatmul, QuantizedMaxPool, QuantizeDownAndShrinkRange, QuantizedRelu, QuantizedRelu6, QuantizedReshape, QuantizeV2, RequantizationRange, 和 Requantize。&/li&&li&Go:Go 中的实验 API 可以创建和执行图表(&a href=&///?target=https%3A//godoc./tensorflow/tensorflow/tensorflow/go& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&godoc./te&/span&&span class=&invisible&&nsorflow/tensorflow/tensorflow/go&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)&/li&&li&新的 checkpoint 格式现在是 tf.train.Saver 中的默认值。旧 V1 chekpoint 仍然可读; 由 write_version 参数控制,tf.train.Saver 现在默认写入新的 V2 格式。这种方式显著降低了恢复期间所需的内存峰值,同时降低了延迟。&/li&&li&为无矩阵(迭代)解算器增加了新的库,支持 tensorflow/contrib/solvers 中的线性方程、线性最小二乘法,特征值和奇异值。最初的版本具有 lanczos 双对角化(bidiagonalization)、共轭梯度和 CGLS。&/li&&li&为 matrix_solve_ls 和 self_adjoint_eig 增加了梯度。&/li&&li&对原有内容进行了大量清理,为具有 C ++梯度的运算添加二阶梯度,并改进现有梯度,使大多数运算现在可以多次微分。&/li&&li&增加了常微分方程的求解器:tf.contrib.integrate.odeint。&/li&&li&用于具有命名轴的张量的新 contrib 模块,tf.contrib.labeled_tensor。&/li&&li&TensorBoard 中嵌入(embedding)的可视化。&/li&&/ul&&br&&p&&b&主要 API 改进&/b&&/p&&br&&ul&&li&BusAdjacency 枚举被协议缓冲 DeviceLocality 代替。总线索引现在从 1 而不是 0 开始,同时,使用 bus_id==0,之前为 BUS_ANY。&/li&&li&Env::FileExists 和 FileSystem::FileExists 现在返回 tensorflow::Status 而不是一个 bool。任何此函数的调用者都可以通过向调用添加.ok()将返回转换为 bool。&/li&&li&C API:TF_SessionWithGraph 类型更名为 TF_Session,其在 TensorFlow 的绑定语言中成为首选。原来的 TF_Session 已更名为 TF_DeprecatedSession。&/li&&li&C API: TF_Port 被更名为 TF_Output。&/li&&li&C API: 调用者保留提供给 TF_Run、 TF_SessionRun、TF_SetAttrTensor 等的 TF_Tensor 对象的所有权。&/li&&li&将 tf.image.per_image_whitening() 更名为 tf.image.per_image_standardization()。&/li&&li&将 Summary protobuf 构造函数移动到了 tf.summary 子模块。&/li&&li&不再使用 histogram_summary、audio_summary、 scalar_summary,image_summary、merge_summary 和 merge_all_summaries。&/li&&li&组合 batch_ *和常规版本的线性代数和 FFT 运算。常规运算现在也处理批处理。所有 batch_ * Python 接口已删除。&/li&&li&tf.all_variables,tf.VARIABLES 和 tf.initialize_all_variables 更名为 tf.global_variables,tf.GLOBAL_VARIABLES 和 tf.global_variable_initializers respectively。&/li&&/ul&&br&&p&&b&Bug 修复和其他的变化&/b&&/p&&br&&ul&&li&使用线程安全版本的 lgamma 函数。&/li&&li&修复 tf.sqrt 负参数。&/li&&li&修正了导致用于多线程基准的线程数不正确的错误。&/li&&li&多核 CPU 上 batch_matmul 的性能优化。&/li&&li&改进 trace,matrix_set_diag,matrix_diag_part 和它们的梯度,适用于矩形矩阵。&/li&&li&支持复值矩阵的 SVD。&/li&&/ul&&br&&br&&p&&strong&&em&选自 Google Developers Blog:&/em&&/strong&&em&&a href=&///?target=https%3A///2016/11/tensorflow-0-12-adds-support-for-windows.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&&/span&&span class=&invisible&&/2016/11/tensorflow-0-12-adds-support-for-windows.html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/em&&/p&
11月29日,Google Brain 工程师团队刚刚宣布在 TensorFlow 0.12 中加入初步的 Windows 原生支持。 谷歌在开发者博客上写到:「原生的 Windows 版 TensorFlow 是自开源以来,我们工作的重中之重。尽管 Windows 的用户们已经可以在 Docker 容器中运行 TensorF…
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 tensorflow 金融预测 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信