却时550dpcom没收到,再去550dp的时候居然不形了

&figure&&img src=&https://pic1.zhimg.com/v2-ddc9_b.jpg& data-rawwidth=&751& data-rawheight=&423& class=&origin_image zh-lightbox-thumb& width=&751& data-original=&https://pic1.zhimg.com/v2-ddc9_r.jpg&&&/figure&&p&深度卷积神经网络在图像、语音及NLP领域取得了巨大的成功,从学习和分享的角度出发,本篇文章整理了自2013年以来关于CNN相关的最新的资源,包括重要的论文、书籍、视频教程、Tutorial、理论、模型库和开发库。文末附链接版资源地址。&/p&&p&&br&&/p&&p&&b&重要的论文:&/b&&/p&&p&
1. Very deep convolutional networks for large-scale image recognition (VGG-net) (2014)&/p&&p&
2. Going deeper with convolutions (GoogLeNet) by Google (2015)&/p&&p&
3. Deep learning (2015)&/p&&p&
4. Visualizing and Understanding Convolutional Neural Networks (ZF Net) (2014)&/p&&p&
5. Fully convolutional networks for semantic segmentation (2015)&/p&&p&
6. Deep residual learning for image recognition (ResNet) by Microsoft (2015)&/p&&p&
7. Deepface closing the gap to human-level performance in face verification (2014)&/p&&p&
8. Batch normalization Accelerating deep network training by reducing internal covariate shift (2015)&/p&&p&
9. Deep Learning in Neural Networks An Overview (2015)&/p&&p&
10. Delving deep into rectifiers Surpassing human-level performance on imagenet classification (PReLU) (2014)&/p&&p&
11. Faster R-CNN Towards real-time object detection with region proposal networks (2015)&/p&&p&
12. Fast R-CNN (2015)&/p&&p&
13. Spatial pyramid pooling in deep convolutional networks for visual recognition (SPP Net) (2014)&/p&&p&
14. Generative Adversarial Nets (2014)&/p&&p&
15. Spatial Transformer Networks (2015)&/p&&p&
16. Understanding deep image representations by inverting them (2015)&/p&&p&
17. Deep Learning of Representations Looking Forward (2013)&/p&&p&&br&&/p&&p&&b&经典的文章:&/b&&/p&&p&
18. mageNet Classification with Deep Convolutional Neural Networks (AlexNet) (2012)&/p&&p&
19. Rectified linear units improve restricted boltzmann machines (ReLU) (2010)&/p&&p&&br&&/p&&p&&b&重要的理论:&/b&&/p&&p&
20. Deep Neural Networks are Easily Fooled High Confidence Predictions for Unrecognizable Images (2015)&/p&&p&
21. Distilling the Knowledge in a Neural Network (2015)&/p&&p&
22. Deep learning in neural networks An overview (2015)&/p&&p&&br&&/p&&p&&b&重要的书籍:&/b&&/p&&p&
23. Deep Learning Textbook - An MIT Press book (2016)&/p&&p&
24. Learning Deep Architectures for AI&/p&&p&
25. Neural Nets and Deep Learning&/p&&p&&br&&/p&&p&&b&重要的课程/Tutorial:&/b&&/p&&p&
26. Caffe Tutorial (CVPR 2015)&/p&&p&
27. Tutorial on Deep Learning for Vision (CVPR 2014)&/p&&p&
28. Introduction to Deep Learning with Python - Theano Tutorials&/p&&p&
29. Deep Learning Tutorials with Theano/Python&/p&&p&
30. Deep Learning Take machine learning to the next level (by udacity)&/p&&p&
31. DeepLearnToolbox – A Matlab toolbox for Deep Learning&/p&&p&
32. Stanford Matlab-based Deep Learning&/p&&p&
33. Stanford 231n Class Convolutional Neural Networks for Visual Recognition&/p&&p&
34. Deep Learning Course (by Yann LeCun-2016)&/p&&p&
35. Generative Models (by OpenAI)&/p&&p&
36. An introduction to Generative Adversarial Networks (with code in TensorFlow)&/p&&p&&br&&/p&&p&&b&重要的资源/模型:&/b&&/p&&p&
37. VGG-net&/p&&p&
38. GoogLeNet&/p&&p&
39. ResNet - MatConvNet implementation&/p&&p&
40. AlexNet&/p&&p&
41. Fully Convolutional Networks for Semantic Segmentation&/p&&p&
42. OverFeat&/p&&p&
43. SPP_net&/p&&p&
44. Fast R-CNN&/p&&p&
45. Faster R-CNN&/p&&p&
46. Generative Adversarial Networks (GANs)&/p&&p&
47. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks)&/p&&p&
48. ResNeXt Aggregated Residual Transformations for Deep Neural Networks)&/p&&p&
49. MultiPath Network training code&/p&&p&&br&&/p&&p&&b&重要的架构和开发库:&/b&&/p&&p&
50. Tensorflow by Google [C++ and CUDA]&/p&&p&
51. Caffe by Berkeley Vision and Learning Center (BVLC) [C++][Installation Instructions]&/p&&p&
52. Keras by Fran?ois Chollet [Python]&/p&&p&
53. Microsoft Cognitive Toolkit - CNTK [C++]&/p&&p&
54. MXNet adapted by Amazon [C++]&/p&&p&
55. Torch by Collobert, Kavukcuoglu & Clement Farabet, widely used by Facebook [Lua]&/p&&p&
56. Convnetjs by Andrej Karpathy [JavaScript]&/p&&p&
57. Theano by Université de Montréal [Python]&/p&&p&
58. Deeplearning4j by startup Skymind [Java]&/p&&p&
59. Paddle by Baidu [C++]&/p&&p&
60. Deep Scalable Sparse Tensor Network Engine (DSSTNE) by Amazon [C++]&/p&&p&
61. Neon by Nervana Systems [Python & Sass]&/p&&p&
62. Chainer [Python]&/p&&p&
63. h2o [Java]&/p&&p&
64. Brainstorm by Istituto Dalle Molle di Studi sull’Intelligenza Artificiale (IDSIA) [Python]&/p&&p&
65. Matconvnet by Andrea Vedaldi [Matlab]&/p&&p&&b&链接版文章下载地址:&/b&&/p&&p&链接: &a href=&http://link.zhihu.com/?target=https%3A//pan.baidu.com/s/1dGpAC97& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&pan.baidu.com/s/1dGpAC9&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&
密码: t4dd&/p&&p&&b&往期精彩内容推荐:&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D505bdbd93aa1b59d2e766a9fba00d94e%26chksm%3D97a0c83ea0d535bfcd224ec43fea2e2f1ddd33a59c972%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&麻省理工学院(MIT)-2018年最新自动驾驶视频课程分享&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D94acd441d2a6%26chksm%3D97a0c8a3a0d741b51ddc5b6df987b4fcec7ad61ce4a7a4b96d9ad9ce3f14e26ace%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度学习中如何选择一款合适的GPU卡的一些经验和建议分享&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Ddfaf0fec90e865e51a0f%26chksm%3D97a0ca33a0dec45a29cde8be554a63a6a85e6efscene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&教材推荐& PRML_模式识别与机器学习&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D2%26sn%3Dff379bfae95dd5d28dc6%26chksm%3D97a0c918a0de821add8ec0bd3995fce89dd3eb854dc52%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2017年蒙特利尔深度学习暑期学校ppt分享(附2016年会议视频地址)&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Dcb21cd1a0dbbeadf04aeae%26chksm%3D97a0c9aba0d740bda5caaaae8c8c37e1b49e8fd23df%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&优化策略5 Label Smoothing Regularization_LSR原理分析&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Df38a80cb954f86f44b69ce9c6bchksm%3D97a0c9b7a0d740a1f924b374c97deb63ab91f6573efb3cscene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&纯干货7 Domain Adaptation视频教程(附PPT)及经典论文分享&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D68e7f576c954a3f76bddc2dbdbceb8bc%26chksm%3D97a0c9aea0d740b8df54fd4aad0cb2db1f346ascene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&纯干货-8 21套深度学习相关的视频教程分享&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D12b0ae6af%26chksm%3D97a0cab9a0d743afdfc928e19dd23af2110622bba936bfbaa03e629%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&模型汇总-4&开山鼻祖-深度信念网络DBN&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Dc081fa2e9c1b%26chksm%3D97a0cac4a0d743d25bff14bac42362eccb50ac0c8bbd87a8%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器翻译中的深度学习技术:CNN,Seq2Seq,SGAN,Dual Learning&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Dbb335ec0fdc%26chksm%3D97a0cac1a0d743d761a10de68dbe58b936c75a53ccebeedd14eb1b1d2feb9bed0%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&基于tensorflow的深度学习MultiGPU训练实战&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D46b0c13b830aee84db49f790edf4b7e6%26chksm%3D97a0cad6a0d743c03ccc14f9c0a329147faba6bab50ab045bc8c74ed1d2d3a99%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&基于Simase_LSTM的计算中文句子相似度经验总结与分享&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D2fd280b647af2bec0376a%26chksm%3D97a0cae3a0d743f5bed771cfd45fc9d6a0ad24f5be41deb89b47b5728%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&模型汇总_3&深度学习中最贪玩的模型dual-learning NMT&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D9c4ed2ccf65%26chksm%3D97a0cae4a0d743f2d83e13fac48cde27de1a904a6c7f%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&模型汇总_2&深度学习加速神器-BNN&/a& &/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzIxNDgzNDg3NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3Ddcdfd8be409f738%26chksm%3D97a0ca54a0d5cbb779b02a1375bfd743571dfba82c47ea3eeba83c90bc386a5d%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&&模型汇总_5&生成对抗网络GAN及其变体SGAN_WGAN_CGAN_DCGAN_InfoGAN_StackGAN&/a&&/p&
深度卷积神经网络在图像、语音及NLP领域取得了巨大的成功,从学习和分享的角度出发,本篇文章整理了自2013年以来关于CNN相关的最新的资源,包括重要的论文、书籍、视频教程、Tutorial、理论、模型库和开发库。文末附链接版资源地址。 重要的论文: 1. Very …
&figure&&img src=&https://pic4.zhimg.com/v2-a507debec6bfda512e728_b.jpg& data-rawwidth=&2808& data-rawheight=&1872& class=&origin_image zh-lightbox-thumb& width=&2808& data-original=&https://pic4.zhimg.com/v2-a507debec6bfda512e728_r.jpg&&&/figure&&p&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-160b0114dece9f1b515f34d4aeee6b02_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&300& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-160b0114dece9f1b515f34d4aeee6b02_r.jpg&&&/figure&&p&经常有工程师问我:“公司哪一颗芯片最挣钱?”我反问他们:“你猜?”他们直觉应该是公司最最看中的那一颗。可数据显示他们往往都猜错了!当工程师们了解数据后,都会表情错愕感觉不可思议,“为什么我开发的这颗芯片不挣钱呢?”&/p&&p&&br&&/p&&p&工程师的猜测凭借印象和感觉,而我的工作是那数字来说话,感觉必须靠边站!一颗在公司中声势浩大的产品,会给人这样的印象:主打产品必定销量大营收大挣钱多。可这样的产品也意味着投入大,再加上芯片产品开发周期长,将终其一生的各项投入加起来看,不一定挣得多,有时候挣的绝对值还不错,但利润率很低。我们不禁要问:这颗产品投入了那么多成本,&b&钱都花哪儿了?&/b&&/p&&p&&br&&/p&&h2&&b&说说成本有哪些&/b&&/h2&&p&&br&&/p&&p&我们来看一张芯片利润表。这张表格是基于国内财报格式略加修改以适应财务分析的需要。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-0eaf415b571_b.jpg& data-size=&normal& data-rawwidth=&445& data-rawheight=&297& class=&origin_image zh-lightbox-thumb& width=&445& data-original=&https://pic2.zhimg.com/v2-0eaf415b571_r.jpg&&&figcaption&表1 &/figcaption&&/figure&&p&1.营业成本:在这里就是芯片产品的成本,包括晶圆和封装测试加工费。&/p&&p&&br&&/p&&p&2.研发费用:国内财报一般是把研发费用包括在管理费用中的,但在国外上市公司的财报一般都会单列,因为研发费用是驱动企业成长的重要投入,单列来看会更有意义,因此这里我也把它单列。研发费用包括这颗芯片的研发人力成本,光罩费用,工程样品费用,可靠性测试费用等等。&/p&&p&&br&&/p&&p&3.销售费用:销售部门推广该芯片的人力成本,差旅费,展会费,客户服务成本如样品,现场技术支持工程师(FAE)的费用。&/p&&p&&br&&/p&&p&4.管理费用:人事财务IT这些后勤部门的费用。&/p&&p&&br&&/p&&h2&&b&为什么不知不觉没挣到钱?&/b&&/h2&&p&&br&&/p&&p&当数字表述出来后,很多产品线负责人会吃一惊:怎么这个产品赚得那么少?钱都花到哪里去了?为什么我们感觉不到?&/p&&p&&br&&/p&&p&那我们就拿数字来说话。以下表2延续了表1的案例。在该产品有40%毛利的情况下(情况一),我们卖90KK颗可收回成本。如果产品质量不稳定,良率低成本高,为了维护市场份额即使赚的毛利点数低还是要硬着头皮往下做。那么在该产品只有20%毛利的情况下(情况二),我们为了回本需要卖出180KK颗,为情况一的两倍。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-f75ddf12f1be7dc3c4b3cf52cb7e52b4_b.jpg& data-size=&normal& data-rawwidth=&532& data-rawheight=&229& class=&origin_image zh-lightbox-thumb& width=&532& data-original=&https://pic1.zhimg.com/v2-f75ddf12f1be7dc3c4b3cf52cb7e52b4_r.jpg&&&figcaption&表2&/figcaption&&/figure&&p&假设我们拼尽全力也只卖了90KK颗--和情况一同样的数量,会产生亏损9千万人民币,见表3。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-916e2e4ab472cb626c3dd4b3b2fc0ffc_b.jpg& data-size=&normal& data-rawwidth=&469& data-rawheight=&296& class=&origin_image zh-lightbox-thumb& width=&469& data-original=&https://pic1.zhimg.com/v2-916e2e4ab472cb626c3dd4b3b2fc0ffc_r.jpg&&&figcaption&表3&/figcaption&&/figure&&p&再看研发销售管理这三项期间费用的情况。产品性能老达不到要求反复改版啦;为了维护住客户经常要送一点免费的货啦;销售为了打开市场一趟一趟地跑去出差送礼;有的产品封装形式多样,每个批量不大,营运管理人力投入多;质量不稳定经常需要工程师加班加点去供应商那边支持或去客户那边支持;芯片公司最大的投入是人,像这样声势浩大的项目,研发销售投入的人力多,自然管理费用方面分摊的成本也高。是不是这些钱就不知不觉花出去了?&/p&&p&&br&&/p&&h2&&b&产品生命周期成本&/b&&/h2&&p&&br&&/p&&p&&b&传统利润表和产品生命周期利润表&/b&&/p&&p&&br&&/p&&p&所以客观地审视,我们并不了解芯片一生投入的成本和获得的利润。如表4为珠海全志科技股份有限公司(16年合并利润表,传统的利润表都是按期间统计的,把产品的投入产出切割成一段一段期间,每个期间的收入成本是由很多个产品组成,某个产品的经营数据散落在各个期间,我们不能直观了解某个产品的盈利能力。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a6dfeab50c1c1f1978f01_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&243& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-a6dfeab50c1c1f1978f01_r.jpg&&&/figure&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-198362bd_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&313& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-198362bd_r.jpg&&&figcaption&表4&/figcaption&&/figure&&p&像表1-表3那样的实例是需要我们每个月去统计X产品的收入成本数据,然后把它累加起来,如表5。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ffe6aa7d9fc3ca11f8f9cb4_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&233& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-ffe6aa7d9fc3ca11f8f9cb4_r.jpg&&&figcaption&表5&/figcaption&&/figure&&p&其实这就用到产品生命周期成本法这个概念了。产品生命周期成本法统计产品整个生命周期的收入与成本。这带给我们不同的视角,鼓励我们用一个长期的眼光去看待这个产品的盈利能力,也鼓励我们在产品的研发阶段就有一个前瞻性的计划,去筹划如何使该产品给我们带来更大的利润。&/p&&p&&b&教科书如是说产品生命周期图&/b&&/p&&p&这是教科书上的产品生命周期图,一般将产品生命周期分为开发引进成长成熟衰退五个阶段。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-c2b0df613e0fa55d1b31_b.jpg& data-size=&normal& data-rawwidth=&611& data-rawheight=&403& class=&origin_image zh-lightbox-thumb& width=&611& data-original=&https://pic2.zhimg.com/v2-c2b0df613e0fa55d1b31_r.jpg&&&figcaption&图1&/figcaption&&/figure&&p&1.开发阶段主要有研发成本,无销售收入。&/p&&p&&br&&/p&&p&2.引进阶段主要有营销成本。&/p&&p&&br&&/p&&p&3.成长阶段就可以看到销量增长营收增长,成本中主要是产品的生产成本。&/p&&p&&br&&/p&&p&4.成熟阶段销量比较稳定,单位产品成本因为经济规模会降低。&/p&&p&&br&&/p&&p&5.到了衰退阶段销售收入减少,而单位生产成本因为经济规模缩小反而会上升。&/p&&p&&br&&/p&&p&我觉得这个图仍然是把生命周期割裂成一个一个时间段来看的,曲线形态反映了每个阶段的收入成本特性。&/p&&p&&b&产品生命盈利图&/b&&/p&&p&而我比较喜欢看这样的图形。给它起个名字吧:产品生命盈利图。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-f9d3fdb5dbef504ad8cc5_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&208& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-f9d3fdb5dbef504ad8cc5_r.jpg&&&figcaption&图2&/figcaption&&/figure&&p&每每看到这个图(图2),就很有紧迫感。在研发阶段,我会觉得:天哪,已经花了那么多钱,还要多久量产啊!等量产了,我又会监测什么时候能达到盈亏平衡点。等挣钱了,累计赚了多少钱都是清清楚楚的。&/p&&p&&br&&/p&&p&而且时间对于芯片设计很重要,一旦不能按时量产,我们便错过了整个市场起量的时间,等到产品好不容易改好了,竞争对手已经把大部分市场霸占了,我们只能分一小块肉,而且此时市场竞争激烈能卖的价格已不理想。此时产品生命盈利图可能是这种形态,见图3。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-954a1afde33dbf12cf2bc2c_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&208& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-954a1afde33dbf12cf2bc2c_r.jpg&&&figcaption&图3&/figcaption&&/figure&&p&如果立项时有清楚的投入成本计划和销售预测,可以把计划投入产出曲线放在一起,那错过的时间和金额的差异能很直观地看到,如图4。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-0b22340fd6fce54d96ce14_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&207& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-0b22340fd6fce54d96ce14_r.jpg&&&figcaption&图4&/figcaption&&/figure&&p&芯片产品的特点是研发周期比较长,投入市场后有可能成功也有可能不成功。我们比较自己公司不同产品的产品生命盈利图就知道可能一半产品的图是这样的,如图5。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-a2ea58fc07ea58d102d6ef_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&208& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-a2ea58fc07ea58d102d6ef_r.jpg&&&figcaption&图5&/figcaption&&/figure&&p&&b&产品生命周期中的决策&/b&&/p&&p&在芯片产品的生命中有许多时刻要去思考它的生与死。&/p&&p&&br&&/p&&p&&b&立项:&/b&&/p&&p&&br&&/p&&p&立项的时候应该做一个财务预测,对销量售价成本研发投入等进行按年度的量化预估。这里倒不是要把预测做得多么准,而是通过做预测这件事给这个产品订下目标,并思考目标的合理性,目标实现的路径。&/p&&p&&br&&/p&&p&为什么很多时候我们诧异某个产品项目花了那么多钱,是因为立项时预测比较随意,决策主要靠拍脑袋。我观察到很多项目经理对成本特性都缺乏了解,对光罩费用算比较熟悉的,对人力成本特性了解不全面,对其他零零碎碎的花销就基本没概念了。一旦项目遇到异常情况,实际的开销就远远超出想象。举个例子,一个项目原计划6个月Tape out的,如果技术问题老也解决不了,拖到12个月,研发工程师的人力成本一下子翻了倍,这对于该产品的总投入和盈利能力影响还是很大的。如表6演示,研发投入由于技术问题老也解决不了,项目时间拉长,造成研发投入比计划增长41%,总投入比计划增长19%,盈亏平衡点销售数量从75.5KK颗上升到90KK颗。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ef0edf47bdf621a3400434_b.jpg& data-size=&normal& data-rawwidth=&621& data-rawheight=&339& class=&origin_image zh-lightbox-thumb& width=&621& data-original=&https://pic1.zhimg.com/v2-ef0edf47bdf621a3400434_r.jpg&&&figcaption&表6&/figcaption&&/figure&&p&立项财务预测能促使我们前瞻性地思考产品成本应是怎样的目标,如何达到这个目标。比如这颗产品竞争对手售价是多少,按研发周期推算当我的产品出来时,市场售价可能会降到多少,我希望我的售价是有竞争力的,可以据此定一个目标售价,按照目标毛利率推出目标成本。这就是目标成本法!目标成本法可以结合产品生命周期成本法一起使用。立项时我们定好这颗芯片的成本目标,就可以评估我们用的工艺,芯片尺寸,封装形式,良率等是否能实现成本目标。其实产品成本基本在研发阶段就决定了。&/p&&p&&br&&/p&&p&&b&止亏决策:&/b&&/p&&p&&br&&/p&&p&如果这个项目看下来是亏损的,那要不要停止呢?有的时候我们会考虑是否给它做一个升级或者改版。我们会重新评估升级或改版后可实现的销量售价成本和新增投入,看一看是否能够盈利。可以的就往下走,不可以的就停止。这里决策者往往会纠结,是否要把已发生的成本作为沉没成本不再考虑。&/p&&p&&br&&/p&&p&&b&科普一下:&/b&沉没成本指过去已经发生了,但不能由现在或将来的决策改变的成本。沉没成本常用来和可变成本作比较,可变成本可以被改变,而沉没成本不能被改变。大多数经济学家认为,如果人是理性的,就不该在做决策时考虑沉没成本,仅需要考虑可变成本。沉没成本最生动形象的生活案例是“不要为了一棵树放弃整片森林”,很多人失恋后会因为过去付出的感情没有回报而痛苦不堪,“森林说”就是告诉你过去的付出已经沉没了,你应当面向未来,从今往后的生活和沉没的感情没有关系。&/p&&p&&br&&/p&&p&因此从财务管理角度看,已经发生的就发生了,只要未来的投入有足够回报对企业就是有利的。&/p&&p&&br&&/p&&p&看以下表7这个例子,从财务管理角度看,继续投入X芯片使其量产可以产生人民币100万元回报,因此决策就是继续投入X芯片。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-51ece9f0e0af79129fdf7ee800ad4af9_b.jpg& data-size=&normal& data-rawwidth=&504& data-rawheight=&187& class=&origin_image zh-lightbox-thumb& width=&504& data-original=&https://pic2.zhimg.com/v2-51ece9f0e0af79129fdf7ee800ad4af9_r.jpg&&&figcaption&表7&/figcaption&&/figure&&p&可是决策者有时并不这么想,他可能会立下目标要把以前的本也赚回来。有大志向当然好,可评估下来如上面这个例子,不能完全收回沉没成本该怎么办呢?做还是不做?从老板的角度看,只能部分回本,有点鸡肋了。他的鸡肋感就是机会成本在作怪。&/p&&p&&br&&/p&&p&&b&又要科普一下下:&/b&机会成本是指为了得到某种东西而所要放弃另一些东西的最大价值。在财务管理中可以理解为,在面临多方案择一决策时,被舍弃的选项中的最高价值者是本次决策的机会成本。机会成本也有生动形象的生活实例,“宁愿在宝马车里哭,不愿在自行车上笑”。马诺觉得选择了自行车就放弃了宝马,宝马就是选择自行车的机会成本,两相比较,当然是宝马贵了,所以选择宝马机会成本比较低。&/p&&p&&br&&/p&&p&回到芯片上来,老板手上只有这点资源,继续投这个项目就不能投入其他项目。他肯定知道通常的芯片产品投入回报率有多少,而他感到这个项目的回报并不高,如果把资源投到一个更好的产品中去,收益才会更大。所以他会有至少全部回本才OK的感觉。只是很多决策者在此刻凭直觉决策较多,不一定会调研很多数字来支持。&/p&&p&&br&&/p&&p&如下表8继续了表7的案例,如果不做X芯片,公司可以投入作Y芯片,如果Y芯片能按照计划顺利做成,则能取得人民币3100万回报。显然投入Y芯片要比继续投入X芯片回报大多了。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-ddd7dc1f5b4f33f6abc97_b.jpg& data-size=&normal& data-rawwidth=&504& data-rawheight=&366& class=&origin_image zh-lightbox-thumb& width=&504& data-original=&https://pic4.zhimg.com/v2-ddd7dc1f5b4f33f6abc97_r.jpg&&&figcaption&表8&/figcaption&&/figure&&p&但也有很亏很亏还勇往直前的,这可能是战略布局!老板高瞻远瞩,深谋远虑,为的是企业的长远战略。现在人工智能,新药开发,VR,共享XX等等等等,哪个不是烧钱的主!&/p&&p&&br&&/p&&p&&b&特定改版:&/b&&/p&&p&&br&&/p&&p&这个也算是上面沉没成本机会成本案例的一个延伸吧。有的时候我们改版是为了某一个特定客户特定方案,这就和表7的例子有点像,但又不同。特定改版的收益成本都是我们正常计划以外的,所谓Incremental。那我们只要分析相关Incremental收益能否收回Incremental的成本。这种情况一定适用沉没成本法则,已经沉没的成本坚决不要考虑。而且我理解通常这样的特定改版不会耗费太多研发时间与成本,一般不会考虑机会成本的影响。&/p&&p&&br&&/p&&p&&b&降本时点:&/b&&/p&&p&&br&&/p&&p&这其实要看研发周期有多长,是否能赶在产品衰退之前把新产品准备好。当产品开始衰退的时候我就去推新的产品,刚好使新产品慢慢替代旧产品。同时我们也要观察竞争对手的动向,留心他们有什么动作,总之我们要比他们更快。&/p&&p&&br&&/p&&p&如图7,在期间5,X产品营收增长趋缓,新X销售开始增长接棒X。但是新X的研发投入早在期间1就开始了,在期间1,X的营收还处在强势增长阶段。可见,产品迭代不是在老产品出现颓势时做,而是需要提早规划的工作。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-1e0cddf1_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&207& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-1e0cddf1_r.jpg&&&figcaption&图7&/figcaption&&/figure&&p&&b&末期定价:&/b&&/p&&p&&br&&/p&&p&有时产品没有及时迭代,市场厮杀激烈一片红海,此时是否降价跟进?如果这颗产品早就回本赚钱(如图2),毛利低一点也没关系,甚至从战略出发负毛利也要保市场份额为迭代作准备。但如果这颗一直没回本(如图5),那就要看是否有呆滞库存,有的话赔本也要卖,能收回多少是多少,如库存都没有了,那就不要再做这颗了,否则做得越多亏得越多。&/p&&p&&br&&/p&&h2&&b&作业成本法&/b&&/h2&&p&&br&&/p&&p&产品生命周期成本里有一个难点,怎么能够算出该产品整个生命周期的成本呢?有一些成本是非常容易归集的,比如产品的生产成本。有些成本是需要分摊到各个产品项下的。以如何分摊研发成本为例,我们知道研发成本的主要构成是人力成本,光罩成本,其他成本。光罩成本是可以直接分摊到特定产品项目的。人力成本需要用工作时间表(Timesheet)才能够把费用清楚地分到每个产品项目。其他成本就麻烦了,以什么为分摊依据就成了问题。这就需要动用ABC成本法了!&/p&&p&&br&&/p&&p&&b&作业成本法vs.传统分摊方法&/b&&/p&&p&&br&&/p&&p&又来科普了:ABC成本法,Activity Based Costing,又称作业成本法。作业成本法的指导思想是:“成本对象消耗作业,作业消耗资源”。每次看到这段文字我就晕菜了,不过我算是会算的。我的理解是一个产品的成本由很多很多个活动或行为(Activity)引起,该活动的成本应根据成本动因分摊到各个产品。这里产品成本就是成本对象,活动就是作业,活动的成本就是资源。成本动因亦称成本驱动因素,成本动因支配着成本行动,决定着成本的产生,并可作为分配成本的标准。通俗一点说,成本动因是导致成本升降的因素。比如,营运部门的费用如何分摊到每个产品头上。传统的做法会按照销售数量或者销售金额分摊,但你仔细想一下,其成本动因应该是花费的时间。有的产品一个订单下去量很大,运行成熟,追踪起来也很方便,其实花不了多少时间。有的产品细分到封装种类测试程序很繁杂,每个单品量不大,但每个都需要跟踪,其实花的时间反而多。所以我们按照成本动因--时间去分摊,会得到不同的结果。&/p&&p&&br&&/p&&p&表9就是按照销量分摊的。表10是按照成本动因分摊的。有人会说这成本动因的统计很困难,有的时候我们会寻找一个近似的便于统计的要素作为分摊依据,比如表10这个例子就可以用订单行数来替代实际花费的时间。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-6c7e320b854ebdc6b8d32_b.jpg& data-size=&normal& data-rawwidth=&323& data-rawheight=&208& class=&content_image& width=&323&&&figcaption&表9 &/figcaption&&/figure&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5ac74d50c26_b.jpg& data-size=&normal& data-rawwidth=&502& data-rawheight=&211& class=&origin_image zh-lightbox-thumb& width=&502& data-original=&https://pic3.zhimg.com/v2-5ac74d50c26_r.jpg&&&figcaption&表10&/figcaption&&/figure&&p&从表9表10这个例子看,传统的分摊方法对实际成本的扭曲还是挺大的。芯片Z虽然销量最低,可是生产批量小封装测试种类多,需要处理的订单行数不少,因此实际花费的订单管理成本要高。在表10中,芯片Z就应分摊62.07人民币千元的费用,要比传统的按销量分摊的结果12.07人民币千元高出许多。&/p&&p&&br&&/p&&p&我们在应用作业成本法时,不仅可以分摊直接成本,还可以把间接成本(包括期间费用,即研发费用,销售费用和管理费用)作为产品(服务)消耗作业的成本同样地分摊,这样拓宽了成本的计算范围,使计算出来的产品(服务)成本更准确真实。比如通讯行业可以计算哪一类服务带来的利润更大,或者是哪一类客户带来的利润更大。零售行业可以计算单店的收益,不同渠道即传统门店和电商渠道的收益。可见在作业成本法下研究的成本对象可以是各种维度的,产品,客户,地区,渠道等都可以。&/p&&p&&br&&/p&&p&&b&作业成本法在产品生命周期成本中的应用&/b&&/p&&p&&br&&/p&&p&再回到我们芯片产品生命周期成本中的成本分摊问题。如果是那些不能直接对应的成本费用,我该怎么分摊呢?举几个例子吧。&/p&&p&&br&&/p&&p&1.房租,如图8,我们可以按照面积把房租分摊到各部门。研发部可以按照各子部门的工作时间把费用进一步分摊到各产品项目。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-c8a1ef8e10cce021a920_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&373& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-c8a1ef8e10cce021a920_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&有些研发子部门只要几个工位即可,有的子部门则需要实验室,比如可靠性测试的高低温箱需要一个单独的房间,其占用的面积大,房租成本就会高些。而且同一个月中各子部门侧重的研发项目是不同的,一个研发项目在不同阶段由不同子部门负责,在设计布图阶段,绝对不会发生可靠性测试的费用的。&/p&&p&&br&&/p&&p&2.再举销售费用的例子,销售跑客户的时间,差旅费用,请客吃饭的费用都首先和某一个客户有关,有可能这一次跑客户就是为了推广某个产品,也有可能是为了谈一组产品的合作,这都需要销售人员提供工作时间表,在报销单上标注才能分清楚。我也和销售人员聊过什么产品销售费用高,“这还真的很难说!”。有些客户在外地,这样出差成本会比较高,有些客户需要请客送礼才能搞定,有的产品要FAE常驻,技术支持的成本比较高,有的产品还需要开展会推广等等。这些销售费用的分摊和销量销售额没有直接关联。我从公司产品线利润表的趋势就可以看出,一个新的产品线在有销售收入之前已经发生了很多销售费用。&/p&&p&&br&&/p&&p&3.再谈谈管理费用,比如人事部门的费用如何分摊到各个产品呢?我们可以这样想,人事部门的活动主要是因为支持各部门的人引起的,这个部门人多可能需要支持的事情就越多,所以我们就会按照各部门人头数进行分摊。但也有人提出异议,比如甲部门一直在招聘,而乙部门比较稳定不需要招聘,那么按人头数去分摊不是不合理吗?这里ABC就大行其道了,有些公司真的把这些管理费用分得很细致,分成一项一项的活动成本,如招聘,薪资,开票,报销等,然后去分析每个活动的成本动因,再根据成本动因进行分摊。我曾经做过一家企业,我们真的每月要统计发票张数的!&/p&&p&&br&&/p&&p&&b&作业成本法在产品生命周期成本中的简化应用&/b&&/p&&p&&br&&/p&&p&看到这里估计各位看官的下巴都要掉了,这么细致的分摊,要付出多大的管理成本啊!在实际应用中,可以根据企业的大小,信息系统的高级程度,管理要求的高低,细致程度可粗可细。我这里提供几种简化应用。&/p&&p&&br&&/p&&p&&b&本量利&/b&&/p&&p&&br&&/p&&p&先举个极端的例子。你看家里的电费,一般会看每个月多少钱,你不会进一步细分到客厅卧室厨卫分别多少,这对家庭开支来说基本上是一个固定的费用。同样的道理,对一个芯片设计公司而言,研发费用销售费用管理费用(总称期间费用)对整个公司来说也是相对固定的费用。芯片设计公司最主要的成本是人,光罩费用和人力成本比,还是小很多。难道这几个月研发很忙我就多招几个人,下面几个月没有那么忙了我再裁掉他们?大家都知道公司不会这样做,研发团队人数还是相对固定的,从整个年度整个公司层面看研发费用也是比较固定的。那既然这样,期间费用就是固定费用,我只要产品卖得多,确保公司有足够多的毛利就可以盈利了。下面图9的本量利图很好地诠释了这个模式。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-108bbcbfeaf0d_b.jpg& data-size=&normal& data-rawwidth=&361& data-rawheight=&250& class=&content_image& width=&361&&&figcaption&图9&/figcaption&&/figure&&p&&b&研发费用倍数法&/b&&/p&&p&&br&&/p&&p&我把电费的例子再扩展一下。如果你只有一套房,当然只需要看一个月电费多少就可以了。但假设说你是土著土豪,靠动迁拿了五套房,一个大家族住在里面,那你是不是会看一下每一套房的电费是多少呢?如果平均来说是每月一百,突然有一套是每月一千,那你是不是要深究一下原因呢?道理就在这里,规模大了就不一样。公司规模小的时候,老板大小事情一把抓,所有决策都自己做,自己什么都清楚。但是随着公司规模增长,信息变得复杂,无法一下穿透信息,此时老板一个人也管不了那么多,就会向各团队进行授权,需要用到预算管控绩效评价等管理措施。因此不管是信息复杂程度还是管理需要,都需要对信息进行分层分组的穿透分析。&/p&&p&那如果你觉得有必要分层分组穿透分析,但上述ABC方法又太繁琐,有没有办法折中一点呢?我认为销售费用和管理费用不是很直接地对应到某个研发产品,那么ABC可以只分摊研发费用。既然期间费用从整个企业的报表看是相对固定的,我可以推算出研发成本的几倍为期间费用总和,进而推出盈亏平衡点目标。以下我以一个上市公司报表为例。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-ad39a11fcb37ce21eb46ef_b.jpg& data-size=&normal& data-rawwidth=&615& data-rawheight=&294& class=&origin_image zh-lightbox-thumb& width=&615& data-original=&https://pic4.zhimg.com/v2-ad39a11fcb37ce21eb46ef_r.jpg&&&figcaption&表11&/figcaption&&/figure&&p&在这个案例中可以看到根据年的数据,销售费用、不含研发费用的管理费用和资产减值准备的总和为考虑成功率的研发费用的2.77-3.09倍,波动主要由于资产减值准备的变化。这里我没有把财务费用纳入计算,因为全志三年的财务费用都是负数,为谨慎起见,还是不算入为好。何为考虑研发项目成功率?我们知道不可能每个研发项目都成功,赚钱的项目肯定要为赔本的项目背锅的。因此这里假设全志的研发项目成功率为50%,或者说公司允许的容错率为50%。这样可以为研发项目设一个目标,当该项目累计毛利能达到研发投入的3.69-4.09倍,就可以保证公司盈利。当然,为了好记,你可以指定一个指标,比如3.80。有个这样的指标,我可以标记在产品生命盈利图上,这样就可以清晰地看出这个项目离足够成功还有多远。&/p&&p&&br&&/p&&p&前面也讲到在研发费用中有一些费用相对固定,且并不能直接对应到研发项目,如房租。这类费用在研发费用中的占比其实并很大。如果想再简化一些,可以把研发费用的ABC分摊只用于人力成本,光罩,测试等和研发项目直接对应的成本,其他固定费用和管理费用销售费用并在一起去算那个指标。&/p&&p&&br&&/p&&p&&b&作业成本法和产品生命周期成本综合应用的意义&/b&&/p&&p&&br&&/p&&p&前面提到对信息进行分层分组的穿透分析,是因为公司规模扩大带来的管理需求。这研发费用分摊到产品项目,其实就是一个大口袋里分了很多小口袋,也就是左口袋右口袋怎么分的问题。那么这样分的管理意义何在呢?&/p&&p&&br&&/p&&p&&b&绩效评价的需要。&/b&&/p&&p&&br&&/p&&p&产品与产品之间比可以比出产品研发的成功度,评价相关团队的优劣。有几个指标可参考:盈利项目百分比,改版次数,人天数(可细分设计、布图,测试,可靠性,软件等部门),项目Tape out延迟月数,实际研发成本与预算比例。&/p&&p&&br&&/p&&p&&b&绩效管理的需要。&/b&&/p&&p&&br&&/p&&p&通过绩效评价甄别出绩效不好的产品和团队,那就要找原因改进。业内的人都知道,产品不赚钱并不一定是研发的问题,原因多种多样的啦。这里列举一些:产品定义追随市场,缺少前瞻性,等你做出来了,市场上又有更高级的了;做了一半发现市场需求变了,再改需求,有时不止一次改,造成Tape out推迟;研发质量把控不严,Tape out后发现问题一大堆,然后不停改版;测试程序,软件开发指标不严谨,到客户那边发现很多质量问题;设计不考虑测试的方便性,造成测试时间长良率难控制成本高;缺少优秀研发工程师,就是做不好;研发不了解生产工艺,造成芯片无法量产。&/p&&p&&br&&/p&&p&&b&资源安排的需要。&/b&&/p&&p&&br&&/p&&p&资金需求。&/p&&p&特别是企业决定投入一个全新产品类别,前期投入大,要把预算按期间按费用类别做细,跟踪好,这样才能安排好资金的需求。你让一个从来没有做过研发成本ABC的公司去做研发预算,他会觉得无从着手,即使硬着头皮做,数据很难全面合理。因此对历史数据的分析有助于我们对未来决策的筹划。&/p&&p&&br&&/p&&p&人才需求。&/p&&p&我们曾经用人天数轻松比出两个研发团队的效率,一个团队使研发项目达到Tape out的人天数较短,显示效率较高,另一个团队人天数明显较多,显示效率较低。对此也有不同意见,有人认为如果我用十个人来做另一个团队一个人做的事情,只要我这十个人花的钱小于另一个团队一个人的,那何尝不是一种好办法呢。不过我们继续比较改版次数和项目Tape out延迟月数,还是看出人天数少的团队效率更高。这些指标反映了什么实质呢?我们的研发副总裁告诉我,其实一个项目的研发效率和这个组的总人数没有多大关系,倒是和资深工程师的数量密切相关,公司一年研发项目的数量是由资深工程师数量决定的。所以我们要根据研发需求去配备足够的资深工程师。有些企业喜欢大量招收毕业生加以培养,公司以前也这样做过,但后来发现小朋友的成长并不如人意。我问过资深工程师,他们无奈说道,“大哥只有一个,带不了那么多小弟”。所以初级工程师和资深工程师的数量应有一个合理的比例,初级工程师太多了是一种浪费,太少了又不利于梯队的培养。&/p&&p&&br&&/p&&p&资源冗余。&/p&&p&按照ABC方法分到各个研发项目上的成本就是他的真实成本了吗?我曾经碰到过这样的情况,产品经理对于某一项目的研发成本畸高产生了疑虑,我们查了明细,发现主要成本还是来源于人力成本,相关工程师的工作时间表一直有天数分配到该项目。产品经理反映其实这些工程师已经没有在该项目上花很多时间了。经过调查发现这些工程师并不忙,只是他的工作时间表总是要分配一个项目的,除了这个项目他也没有其他项目可放,因此导致这个项目研发成本很高。这里隐含了人力资源冗余。虽然我在设计工作时间表上也给他们一个选项“Idle”(无工作任务),但事实上没有工程师会选择这个项目,他们会把自己的Idle时间隐藏到其他项目中去。这里要有产品经理持续跟踪挺重要的,可以帮助我们辨识这种资源冗余。如果有相当多的资源冗余存在,那一定会损害我们的利润表,当下未必看得出,未来一定会见颜色。&/p&&p&&br&&/p&&p&资源瓶颈。&/p&&p&有资源冗余就有资源瓶颈。产品生命盈利图无法发现资源瓶颈问题。一般我们在听到同事抱怨,深究表现不佳产品不佳原因时,才知道存在资源瓶颈问题。上述资深工程师的例子就是一个资源瓶颈问题。芯片设计企业在不同产品的研发周期中都有资源瓶颈存在,每次的瓶颈可能不同。公司建立项目管理制度,不断进入管理循环,审视瓶颈解决瓶颈,要比图表来得更实际。&/p&&p&&br&&/p&&p&&b&产品线利润表&/b&&/p&&p&&br&&/p&&p&我们讲了那么多ABC分摊思路在产品生命周期成本中的应用,其实ABC分摊思路也可以用到产品线利润表中。只是分摊的成本对象由产品变成了产品线,分摊对象的数量大为减少,计算没那么繁琐。前面我们讲了产品生命盈利图有绩效评价的作用,产品线利润表也是起到绩效评价的作用,只是两者维度不同。产品线利润表在大企业中应用广泛,表12为产品线利润表示例。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fd879ce88c6bafc055b4cc_b.jpg& data-size=&normal& data-rawwidth=&579& data-rawheight=&252& class=&origin_image zh-lightbox-thumb& width=&579& data-original=&https://pic1.zhimg.com/v2-fd879ce88c6bafc055b4cc_r.jpg&&&figcaption&表12&/figcaption&&/figure&&p&&b&作业成本法在产品线利润表中的应用&/b&&/p&&p&&br&&/p&&p&很多财务都经历过这样的情况,当产品线绩效不好的时候,产品线就会找原因找到财务头上,说财务分摊销售费用或管理费用时不合理,让他们多承担了。这真让人烦恼,其实都是公司一个袋袋里拿出来的钱,没人关心这个费用的总体效率,而是都关注在左口袋和右口袋的分配上。一种应对就是尽量把这ABC作合理,使业务部门无法挑战分配的合理性。如果ABC合理细化的成本太高,我们也可以用预算百分比法。就是在年初的时候各产品线达成一致,比如管理费用在各产品线之间的分配比例。实际数字就按这个比例分摊,这样他们不会去争论分了多了还是分得少了。这也说明相关管理部门支持业务的那块资源已经准备好,没有理由说产品线绩效不佳,就不想承担管理部门支持该业务的资源。&/p&&p&&br&&/p&&p&经过合理细化ABC分摊的产品线利润表有时揭示的问题令决策者感到不可思议。我曾经碰到一个情况,公司有甲乙丙三个产品线,有XY两个研发公司,其中Y只做丙,X三个产品线都做,Y的研发人员数量超过X,Y以初级工程师为主。结果因为做丙的研发工程师数量众多,承担了公司一半的管理费用。虽然丙的研发工程师大都比较便宜,研发费用尚可,但那么大一块管理费用,业绩自然被比下去了。你想,工程师数量一多,招聘薪资行政报销IT支持所要花费的时间自然更多,丙承担大部分管理费用也是合理的。本来用Y的初衷是因为Y的成本优势,但是从整体效益来看反而是劣势了。&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-206bb49e62b3c183fb3077d_b.jpg& data-size=&normal& data-rawwidth=&640& data-rawheight=&223& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-206bb49e62b3c183fb3077d_r.jpg&&&figcaption&表13&/figcaption&&/figure&&p&虽然以上案例都是围绕芯片设计业展开的,但是这个理念可以延伸到其他需要前期研发投入的高科技企业,比如智能硬件,软件开发。甚至可以外延到任何需要衡量产品开发与回报,产品生命周期和产品迭代管理的行业,这里的产品不一定是传统行业中一件需要制造出来的产品,也可以是现代服务业中的产品。成本管理工具的应用,有一通百通的超强适应性。&/p&&p&&br&&/p&&p&芯片产品前期投入大周期长,芯片设计业技术创业者众多,未必对成本管理有深度地了解。希望此文能对技术创业者作一下成本管理的科普,帮助技术创业者在创业道路上不仅能做好产品,也能在成本管理上少走弯路,让成本管理工具助力创业者,占据管理制高点,不用在“为什么我开发的芯片不挣钱?”这样的问题面前茫然懵逼了。&/p&&p&&br&&/p&&p&&b&今天是《半导体行业观察》为您分享的第1486期内容,欢迎关注。&/b&&/p&&p&&i&R&/i&eading&/p&&p&推荐阅读(点击文章标题,直接阅读)&/p&&p&★&u&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzU3OTA0MjQ3Mg%3D%3D%26mid%3D%26idx%3D1%26sn%3D6b7d0d7deae0def6dchksm%3Dfd6ea85dcaae1b9d54dd0c9a07da799b5753dc3bda2d49aa6f8d74a%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&听说你要做AI芯片?&/a&&/u&&/p&&p&★&u&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzU3OTA0MjQ3Mg%3D%3D%26mid%3D%26idx%3D1%26sn%3Dfb2eaebeacfec169bchksm%3Dfd6ea844caab8b773f11f83de51e03eca85fb33611d4faa2df957e71b7%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&从高通Centriq芯片看ARM服务器生态&/a&&/u&&/p&&p&★&u&&a href=&http://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzU3OTA0MjQ3Mg%3D%3D%26mid%3D%26idx%3D1%26sn%3Dfa99a3ceb022dchksm%3Dfd6ea88bcaa20ffed7ca7ce568dd10b1d37cd%26scene%3D21%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&未到集体唱好京东方的时候&/a&&/u& &/p&
经常有工程师问我:“公司哪一颗芯片最挣钱?”我反问他们:“你猜?”他们直觉应该是公司最最看中的那一颗。可数据显示他们往往都猜错了!当工程师们了解数据后,都会表情错愕感觉不可思议,“为什么我开发的这颗芯片不挣钱呢?” 工程师的猜测凭借印象和…
&figure&&img src=&https://pic1.zhimg.com/v2-35ccf4dd1a85f236fb09e_b.jpg& data-rawwidth=&526& data-rawheight=&397& class=&origin_image zh-lightbox-thumb& width=&526& data-original=&https://pic1.zhimg.com/v2-35ccf4dd1a85f236fb09e_r.jpg&&&/figure&&p&&b&What Can AI
Do For You?&/b&&/p&&p&&br&&/p&&p&“&i&The business plans of the next 10,000 startups are easy to forecast: Take X and add AI.&/i&” — Kevin Kelly&/p&&p&&&i&A hundred years ago electricity transformed
20 years ago the internet did, too. Artificial intelligence is about to do the same. To take advantage, companies need to understand what AI can do.&/i&& — Andrew Ng&/p&&p&If you are a newcomer to the AI, the first question you may have is &&i&What AI can do now and how it relates to my strategies?&/i&& Here are the breakthrough AI papers and CODE for any industry.&/p&&p&&br&&/p&&h2&&b&Deep Learning BOOKS&/b&&/h2&&ul&&li&&b&0.0 Deep Learning&/b&&/li&&/ul&&p&[0] Bengio, Yoshua, Ian J. Goodfellow, and Aaron Courville. &&b&&a href=&https://link.zhihu.com/?target=http%3A//www.deeplearningbook.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep learning&/a&&/b&& An MIT Press book. (2016).&/p&&ul&&li&&b&0.1 Deep Reinforcement Learning&/b&&/li&&/ul&&p&[&b&[1]&/b& Richard S. Sutton and Andrew G. Barto. “&a href=&https://link.zhihu.com/?target=http%3A//incompleteideas.net/sutton/book/bookdraft2017june19.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Reinforcement Learning: An Introduction (2nd Edition)&/a&&&/p&&p&&b&[2]&/b& Pieter Abbeel and John Schulman | Open AI / Berkeley AI Research Lab. “&a href=&https://link.zhihu.com/?target=http%3A//people.eecs.berkeley.edu/%7Epabbeel/nips-tutorial-policy-optimization-Schulman-Abbeel.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Reinforcement Learning through Policy Optimization&/a&&&/p&&p&&b&[3]&/b& Marcin Andrychowicz, Misha Denil, Sergio Gomez, Matthew W. Hoffman, David Pfau, Tom Schaul, Brendan Shillingford, Nando de Freitas. &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v2.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning to learn by gradient descent by gradient descent&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/deepmind/learning-to-learn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning to Learn in TensorFlow&/a&&/p&&p&arXiv &a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v3.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning to Learn for Global Optimization of Black Box Functions&/a&&/p&&ul&&li&&b&0.2 Computer Programming&/b&&/li&&/ul&&p&[1] Richard S. Sutton and Andrew G. Barto. &&a href=&https://link.zhihu.com/?target=https%3A//webdocs.cs.ualberta.ca/%7Esutton/book/bookdraft2016sep.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Reinforcement Learning: An Introduction (2nd Edition)&/a&&&/p&&p&&b&[4]&/b& Antti Laaksonen. &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//cses.fi/book.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Competitive Programmer's Handbook&/a&&&/p&&p&&br&&/p&&h2&&b&Notable&/b& &b&Deep Learning PAPERS&/b&&/h2&&ul&&li&&b&Papers Reading Roadmap&/b&&/li&&/ul&&p&[0] &&a href=&https://link.zhihu.com/?target=https%3A//github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Learning Papers Reading Roadmap&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/songrotek/Deep-Learning-Papers-Reading-Roadmap/blob/master/download.py& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Download All Papers&/a&&/p&&ul&&li&&b&1.1 Neural Information Processing Systems Conference - NIPS 2016&/b&&/li&&/ul&&p&[1] Full Videos &&a href=&https://link.zhihu.com/?target=https%3A//channel9.msdn.com/Events/Neural-Information-Processing-Systems-Conference/Neural-Information-Processing-Systems-Conference-NIPS-2016& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&NIPS 2016 : 57 Episodes&/a&&&/p&&p&[2] CODE &&a href=&https://link.zhihu.com/?target=https%3A//www.reddit.com/r/MachineLearning/comments/5hwqeb/project_all_code_implementations_for_nips_2016/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&All Code Implementations for NIPS 2016 papers&/a&&&/p&&ul&&li&&b&1.2 GitXiv : arXiv + Github + Links + Discussion&/b&&/li&&/ul&&p&[3] arXiv + CODE &b&&&/b&&a href=&https://link.zhihu.com/?target=http%3A//www.gitxiv.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Implementations of Some of the Best arXiv Papers&/a&& &/p&&ul&&li&&b&1.3 Wasserstein GAN&/b&&/li&&/ul&&p&[4] arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Wasserstein GAN&/a&&&/p&&p&[5] CODE Code accompanying the paper &&a href=&https://link.zhihu.com/?target=https%3A//github.com/martinarjovsky/WassersteinGAN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Wasserstein GAN&/a&&&/p&&ul&&li&&b&1.4 The Predictron&/b&&/li&&/ul&&p&[6] arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v2.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Predictron: End-To-End Learning and Planning&/a&&&/p&&p&[7] CODE &b&A TensorFlow implementation of &&/b&&a href=&https://link.zhihu.com/?target=https%3A//github.com/zhongwen/predictron& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Predictron: End-To-End Learning and Planning&/a&&&/p&&ul&&li&&b&1.5 Meta-RL&/b&&/li&&/ul&&p&[8] arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v3.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning to reinforcement learn&/a&&&/p&&p&[9] CODE &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//github.com/awjuliani/Meta-RL& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Meta-RL&/a&&b&&&/b&&/p&&ul&&li&&b&1.6 Neural Architecture Search with RL&/b&&/li&&/ul&&p&[10] arXiv &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//openreview.net/pdf%3Fid%3Dr1Ue8Hcxg& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural Architecture Search with Reinforcement Learning&/a&& &/p&&ul&&li&&b&1.7 Superior Generalizability and Interpretability&/b&&/li&&/ul&&p&[11] arXiv &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//openreview.net/pdf%3Fid%3DBkbY4psgg& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Making Neural Programming Architectures Generalize via Recursion&/a&& &/p&&ul&&li&&b&1.8 Seq2seq RL GANs for Dialogue Generation&/b&&/li&&/ul&&p&[12] arXiv &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Adversarial Learning for Neural Dialogue Generation&/a&& &/p&&ul&&li&&b&1.9 DeepMind’s PathNet: Modular Deep Learning Architecture for AGI&/b&&/li&&/ul&&p&[13] arXiv &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&PathNet: Evolution Channels Gradient Descent in Super Neural Networks&/a&& &/p&&ul&&li&&b&1.10 Outrageously Large Neural Networks&/b&&/li&&/ul&&p&[14] arXiv &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer&/a&& &/p&&ul&&li&&b&1.11 Emergence of Locomotion Behaviours in Rich Environments&/b&&/li&&/ul&&p&[15] arXiv &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Emergence of Locomotion Behaviours in Rich Environments&/a&&&/p&&ul&&li&&b&1.12 Learning human behaviors from motion capture by adversarial imitation&/b&&/li&&/ul&&p&&b&[16]&/b& arXiv &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning human behaviors from motion capture by adversarial imitation&/a&&&/p&&ul&&li&&b&1.13 Hindsight Experience Replay&/b&&/li&&/ul&&p&&b&[17]&/b& arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Hindsight Experience Replay&/a&&&/p&&ul&&li&&b&1.14 Cardiologist-Level Arrhythmia Detection with Convolutional Neural Networks&/b&&/li&&/ul&&p&&b&[18]&/b& arXiv &i&&&/i&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Cardiologist-Level Arrhythmia Detection with Convolutional Neural Networks&/a&&&/p&&ul&&li&&b&1.15 End-to-End Learning of Semantic Grasping&/b&&/li&&/ul&&p&&b&[19]&/b& arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&End-to-End Learning of Semantic Grasping&/a&&&/p&&ul&&li&&b&1.16 Programmable Agents&/b&&/li&&/ul&&p&&b&[20]&/b& arXiv &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Programmable Agents&/a&& &/p&&ul&&li&&b&1.17 One Model To Learn Them All&/b&&/li&&/ul&&p&&b&[21]&/b& arXiv
&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&One Model To Learn Them All&/a&&&/p&&p&&b&[22]&/b& &code&CODE&/code& &&a href=&https://link.zhihu.com/?target=https%3A//github.com/tensorflow/tensor2tensor& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&T2T: Tensor2Tensor Transformers&/a&&&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&Deep Learning LECTURES and&/b& &b&TUTORIALS&/b&&/h2&&ul&&li&&b&2.0 Implementation of Reinforcement Learning Algorithms&/b& &/li&&/ul&&p&[0] CODE &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//github.com/dennybritz/reinforcement-learning& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Implementation of Reinforcement Learning Algorithms. Python, OpenAI Gym, Tensorflow. Exercises and Solutions to accompany Sutton's Book and David Silver's course&/a&&b&.&&/b& &/p&&ul&&li&&b&2.1 Deep Natural Language Processing&/b&&/li&&/ul&&p&[1] Video + &code&CODE&/code& + Slides &&a href=&https://link.zhihu.com/?target=https%3A//github.com/oxford-cs-deepnlp-2017/lectures& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Natural Language Processing&/a&& course offered in Hilary Term 2017 at the University of Oxford.&/p&&ul&&li&&b&2.2 TensorFlow Dev Summit 2017&/b&&/li&&/ul&&p&Join the TensorFlow team and machine learning experts from around the world for a full day of technical talks, demos, and conversations.&/p&&p&&b&[2]&/b& Video + &code&CODE&/code& &&a href=&https://link.zhihu.com/?target=https%3A//www.youtube.com/playlist%3Flist%3DPLOU2XLYxmsIKGc_NBoIhTn2Qhraji53cv& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow Dev Summit 2017&/a&& by Google Developers.&/p&&ul&&li&&b&2.3 Python Data Science Handbook&/b&&/li&&/ul&&p&[3] CODE &&a href=&https://link.zhihu.com/?target=https%3A//github.com/jakevdp/PythonDataScienceHandbook& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Jupyter Notebooks for the Python Data Science Handbook&/a&& by Jake Vanderplas.&br&&/p&&ul&&li&&b&2.4 Learn How to Build State of the Art Models&/b&&/li&&/ul&&p&[4] Video + CODE &b&&&/b&&a href=&https://link.zhihu.com/?target=http%3A//course.fast.ai/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Practical Deep Learning For Coders, Part 1&/a&& by Jeremy Howard.&br&&/p&&ul&&li&&b&2.5 NIPS 2016 Tutorial: Generative Adversarial Networks&/b&&/li&&/ul&&p&[5] arXiv &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&NIPS 2016 Tutorial: Generative Adversarial Networks&/a&& by Ian Goodfellow.&br&&/p&&ul&&li&&b&2.6 Data Science IPython Notebooks&/b&&/li&&/ul&&p&[6] CODE &b&&&/b&&a href=&https://link.zhihu.com/?target=https%3A//github.com/donnemartin/data-science-ipython-notebooks& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Data Science Python Notebooks: Deep learning (TensorFlow, Theano, Caffe), Scikit-learn, Kaggle, Big Data (Spark, Hadoop MapReduce, HDFS), Pandas, NumPy, SciPy...&/a&&b&&&/b&&/p&&h2&&b&Deep Learning TOOLS&/b&&/h2&&ul&&li&&b&3.0 TensorFlow&/b& &/li&&/ul&&p&TensorFlow is an Open Source Software Library for Machine Intelligence: &a href=&https://link.zhihu.com/?target=https%3A//www.tensorflow.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&https://www.tensorflow.org&/a&&/p&&p&[0] Mart ??n Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dan Mane ?, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, Vincent Vanhoucke, Vijay Vasudevan, Fernanda Vie ?gas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, and Xiaoqiang Zheng. &i&&&/i&&a href=&https://link.zhihu.com/?target=http%3A//download.tensorflow.org/paper/whitepaper2015.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&WhitePaper - TensorFlow: Large-scale machine learning on heterogeneous systems&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/tensorflow/tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation&/a&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/aymericdamien/TensorFlow-Examples& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TensorFlow Tutorial and Examples for Beginners&/a&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/tensorflow/models& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Models built with TensorFlow&/a&&/p&&p&&b&3.1 OpenAI Gym&/b&&/p&&p&The OpenAI Gym is a toolkit for developing and comparing reinforcement learning algorithms &a href=&https://link.zhihu.com/?target=https%3A//gym.openai.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&OpenAI Gym: A toolkit for developing and comparing reinforcement learning algorithms&/a&&/p&&p&[1] Greg Brockman and Vicki Cheung and Ludwig Pettersson and Jonas Schneider and John Schulman and Jie Tang and Wojciech Zaremba. &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&OpenAI Gym WhitePaper&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/openai/gym& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation of the gym open-source library&/a&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/openai/gym/tree/master/gym/envs%23how-to-create-new-environments-for-gym& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&How to create new environments&/a&&/p&&ul&&li&&b&3.2 Universe&/b&&/li&&/ul&&p&Universe: A software platform for measuring and training an AI's general intelligence across the world's supply of games, websites and other applications.&a href=&https://link.zhihu.com/?target=https%3A//openai.com/blog/universe/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Universe (blog)&/a&.&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/openai/universe& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation&/a&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/openai/universe-starter-agent& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Universe Starter Agent&/a&&/p&&ul&&li&&b&3.3 DyNet: The Dynamic Neural Network Toolkit&/b&&/li&&/ul&&p&DyNet is a neural network library designed to be efficient when run on either CPU or GPU. DyNet has been used to build state-of-the-art systems for syntactic parsing, machine translation, morphological inflection.&/p&&p&[2] Graham Neubig, Chris Dyer, Yoav Goldberg, Austin Matthews, Waleed Ammar, Antonios Anastasopoulos, Miguel Ballesteros, David Chiang, Daniel Clothiaux, Trevor Cohn, Kevin Duh, Manaal Faruqui, Cynthia Gan, Dan Garrette, Yangfeng Ji, Lingpeng Kong, Adhiguna Kuncoro, Gaurav Kumar, Chaitanya Malaviya, Paul Michel, Yusuke Oda, Matthew Richardson, Naomi Saphra, Swabha Swayamdipta, Pengcheng Yin. &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&DyNet: The Dynamic Neural Network Toolkit&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/clab/dynet& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation&/a&&/p&&ul&&li&&b&3.4 Edward: A Python library for Probabilistic Modeling, Inference and Criticism&/b&&/li&&/ul&&p&DyNet is a neural network library designed to be efficient when run on either CPU or GPU. DyNet has been used to build state-of-the-art systems for &a href=&https://link.zhihu.com/?target=https%3A//github.com/clab/lstm-parser& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&syntactic parsing&/a&, &a href=&https://link.zhihu.com/?target=https%3A//github.com/neubig/lamtram& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&machine translation&/a&, &a href=&https://link.zhihu.com/?target=https%3A//github.com/mfaruqui/morph-trans& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&morphological inflection&/a&.&/p&&p&[2] Graham Neubig, Chris Dyer, Yoav Goldberg, Austin Matthews, Waleed Ammar, Antonios Anastasopoulos, Miguel Ballesteros, David Chiang, Daniel Clothiaux, Trevor Cohn, Kevin Duh, Manaal Faruqui, Cynthia Gan, Dan Garrette, Yangfeng Ji, Lingpeng Kong, Adhiguna Kuncoro, Gaurav Kumar, Chaitanya Malaviya, Paul Michel, Yusuke Oda, Matthew Richardson, Naomi Saphra, Swabha Swayamdipta, Pengcheng Yin. &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&DyNet: The Dynamic Neural Network Toolkit&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/clab/dynet& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation&/a&&/p&&ul&&li&&b&3.5 DeepMind Lab: A customisable 3D platform for agent-based AI research&/b&&/li&&/ul&&p&Edward is a Python library for probabilistic modeling, inference and criticism fusing three fields: Bayesian statistics and machine learning, deep learning, and probabilistic programming. Runs on TensorFlow.&/p&&p&[3] Dustin Tran, Matthew D. Hoffman, Rif A. Saurous, Eugene Brevdo, Kevin Murphy, David M. Blei. &&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v2.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Probabilistic Programming&/a&&&/p&&p&CODE &a href=&https://link.zhihu.com/?target=https%3A//github.com/blei-lab/edward& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Installation&/a&&/p&&p&&br&&/p&&h2&&b&Others&/b&&/h2&&ul&&li&&b&4.0 Robotics:Deep Reinforcement Learning&/b&&/li&&/ul&&p&[1]&b&&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Extending the OpenAI Gym for robotics&/a&&/b&&&/p&&p&CODE &&a href=&https://link.zhihu.com/?target=https%3A//github.com/erlerobot/gym-gazebo/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gym Gazebo&/a&&&/p&&ul&&li&&b&4.1 Image Recognition:Very Deep Convolutional Networks&/b& &/li&&/ul&&p&[2]&i&&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v2.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning&&/a&&/i&&/p&&p&CODE&b&&&a href=&https://link.zhihu.com/?target=https%3A//github.com/kentsommer/keras-inceptionV4& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Keras-InceptionV4n&/a&&&/b&&/p&&ul&&li&&b&4.2 Full Resolution Image Compression:Recurrent Neural Networks&/b&&/li&&/ul&&p&[3]&i&&&a href=&https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/v1.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Full Resolution Image Compression with Recurrent Neural Networks&&/a&&/i&&/p&&p&CODE&i&&b&&&a href=&https://link.zhihu.com/?target=https%3A//github.com/tensorflow/models/tree/master/compression& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Compression&/a&&&/b&&/i&&/p&&p&&br&&/p&&p&原文链接:&a href=&https://link.zhihu.com/?target=https%3A//github.com/ceobillionaire/WHAT-AI-CAN-DO-FOR-YOU& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ceobillionaire/WHAT-AI-CAN-DO-FOR-YOU&/a&&/p&&p&&br&&/p&&p&&b&&i&相关文章&/i&&/b&&/p&&p&&b&&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&资料|NIPS 2016论文实现汇总&/a&&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&干货福利:CVPR2016代码合集&/a&&/b&&/p&&p&&br&&/p&&p&&i&PS.目前极市拥有上千名视觉算法开发者,分别来自腾讯,华为,百度,网易,联想,努比亚等名企,以及北大,清华,北航,中科院,交大等名校,更邀请了李开复老师入驻微信群,欢迎从业者加入极市专业CV开发者微信群(分享干货资讯,行业内人交流),请填写&b&&a href=&https://link.zhihu.com/?target=http%3A//cn.mikecrm.com/wcotd9& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&极市算法开发者调研问卷&/a&&/b&申请入群~&/i&&/p&
What Can AI Do For You? “The business plans of the next 10,000 startups are easy to forecast: Take X and add AI.” — Kevin Kelly"A hundred years ago electricity transformed
20 years ago the internet did, too. Artif…
利益相关:微软亚洲研究院实习生,研究方向是 FPGA 在数据中心的应用。&br&&br&问题「用 FPGA 代替 CPU」中,这个「代替」的说法不准确。我们并不是不用 CPU 了,而是&b&用 FPGA 加速适合它的计算任务,其他任务仍然在 CPU 上完成,让 FPGA 和 CPU 协同工作&/b&。&br&&br&本回答将涵盖三个问题:&br&&ol&&li&为什么使用 FPGA,相比 CPU、GPU、ASIC(专用芯片)有什么特点?&/li&&li&微软的 FPGA 部署在哪里?FPGA 之间、FPGA 与 CPU 之间是如何通信的?&/li&&li&未来 FPGA 在云计算平台中应充当怎样的角色?仅仅是像 GPU 一样的计算加速卡吗?&/li&&/ol&&br&&b&一、为什么使用 FPGA?&/b&&br&&br&众所周知,通用处理器(CPU)的摩尔定律已入暮年,而机器学习和 Web 服务的规模却在指数级增长。&b&人们使用定制硬件来加速常见的计算任务,然而日新月异的行业又要求这些定制的硬件可被重新编程来执行新类型的计算任务&/b&。FPGA (Field Programmable Gate Array) 正是一种硬件可重构的体系结构,常年来被用作专用芯片(ASIC)的小批量替代品,然而近年来在微软、百度等公司的数据中心大规模部署,以&b&同时提供强大的计算能力和足够的灵活性&/b&。&br&&br&&figure&&img src=&https://pic1.zhimg.com/v2-71bb2dab64eb85e80b815c_b.png& data-rawwidth=&2106& data-rawheight=&1147& class=&origin_image zh-lightbox-thumb& width=&2106& data-original=&https://pic1.zhimg.com/v2-71bb2dab64eb85e80b815c_r.png&&&/figure&&i&不同体系结构性能和灵活性的比较。&/i&&br&&br&FPGA 为什么快?「都是同行衬托得好」。&b&CPU、GPU 都属于冯·诺依曼结构,指令译码执行、共享内存。&/b&FPGA 之所以比 CPU 甚至 GPU 能效高,本质上是无指令、无需共享内存的体系结构带来的福利。&br&&br&冯氏结构中,由于执行单元(如 CPU 核)可能执行任意指令,就需要有指令存储器、译码器、各种指令的运算器、分支跳转处理逻辑。由于指令流的控制逻辑复杂,不可能有太多条独立的指令流,因此 GPU 使用 SIMD(单指令流多数据流)来让多个执行单元以同样的步调处理不同的数据,CPU 也支持 SIMD 指令。而 &b&FPGA 每个逻辑单元的功能在重编程(烧写)时就已经确定,不需要指令。&/b&&br&&br&冯氏结构中使用内存有两种作用。一是保存状态,二是在执行单元间通信。由于内存是共享的,就需要做访问仲裁;为了利用访问局部性,每个执行单元有一个私有的缓存,这就要维持执行部件间缓存的一致性。&b&对于保存状态的需求,&/b&&b&FPGA&/b& 中的寄存器和片上内存(BRAM)是属于各自的控制逻辑的,&b&无需不必要的仲裁和缓存&/b&。&b&对于通信的需求,FPGA&/b& 每个逻辑单元与周围逻辑单元的连接在重编程(烧写)时就已经确定,&b&并不需要通过共享内存来通信&/b&。&br&&br&说了这么多三千英尺高度的话,FPGA 实际的表现如何呢?我们分别来看计算密集型任务和通信密集型任务。&br&&br&&b&计算密集型任务&/b&的例子包括矩阵运算、图像处理、机器学习、压缩、非对称加密、Bing 搜索的排序等。这类任务一般是 CPU 把任务卸载(offload)给 FPGA 去执行。对这类任务,目前我们正在用的 Altera(似乎应该叫 Intel 了,我还是习惯叫 Altera……)Stratix V FPGA 的整数乘法运算性能与 20 核的 CPU 基本相当,浮点乘法运算性能与 8 核的 CPU 基本相当,而比 GPU 低一个数量级。我们即将用上的下一代 FPGA,Stratix 10,将配备更多的}

我要回帖

更多关于 www.117dp.com 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信