懂电脑的大神娱乐电脑版们,这种电脑好用吗?怎么看?分析一下。(不打游戏只是做做作业和其他的)

大神们帮我看下哪台电脑配置好,我看不懂。哪个可以打普通的游戏。_百度知道
大神们帮我看下哪台电脑配置好,我看不懂。哪个可以打普通的游戏。
我有更好的答案
玩游戏的不要买苹果。那配置没有独显,i7核显性能也很差。而且苹果本换系统发热严重。
采纳率:55%
来自团队:
苹果的笔记本不是拿来玩游戏的,玩游戏就会变成暖手宝。你是来这里装X的吧。
苹果笔记本就是超薄,便携,外观科技感,上网本。玩游戏还是买别的吧,同价钱可以买到戴尔外星人,雷神等游戏本,炫酷外观,配置超高。
玩网络游戏。你这几个都差不多
哪一个配置更好呢
没得比。都差不多
都没有问题,主要是看你有多少钱,打什么样的游戏了。
哪一个配置更好呢
为您推荐:
其他类似问题
开机的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。人工智能,除了下围棋还能做什么?看完这篇你就懂了
上周,DeepMind团队研发的新一代人工智能棋手阿法元(AlphaGo Zero)以100比0的比分击败了其师兄阿法狗,掀起了一阵人工智能的热潮。
以线性思维为主导的人类似乎本能的对非线性增长的事物抱持着恐惧。
新一代阿法元仅以4个TPU(专为机器学习而定制的CPU芯片),花了3天时间,且在无师自通、左右手互搏练习的方式下,就轻松击败了48个TPU花了几个月时间,“吃”了3千万棋局的师兄阿法狗。
这个进步无疑又是指数级的。当然,也吓得我赶紧暂时搁下研究中的专题,临时先行研究了下人工智能(下文简称AI,即Artificial Intelligence人工智能的缩写)。
从昨天的调查可以看到大伙儿对AI的了解相当不统一,因此,本文就不深入探讨AI技术算法的探讨,而是从宏观视角上为各位勾勒一幅AI的全景图,即:
人工智能到底发展到什么程度了?
AI能力的本质是什么?它能做什么、不能做什么?
还能像上世纪90年代互联网行业一样给到我们一次发横财的机会么?
最后,是否会跟我们抢饭碗,取代现实中的大量工作?
换句话说,对我们长远职业规划及个人能力发展的启示有哪些?
我们先来科普下,资本家、媒体们近年谈的不亦乐乎的人工智能到底是何方神圣?
目前人工智能的能力本质剖析
人工智能的概念可以追溯到1950年。现代计算之父阿兰·图灵在他的论文《计算机械与智能》中首次提出一个问题“机器能否思考么?”
艾伦·麦席森·图灵
1955年,编程语言LISP发明者约翰·麦卡锡提出用“人工智能”定义该领域。
最初,借鉴人脑的神经网络技术备受青睐,但由于当时计算机的运算速度有限,这种技术在19世纪60年代即被遗弃。
很快,“基于知识”的技术取代了神经网络。
这个技术的核心是将人类知识体系进行编码,然后让系统基于这些知识“猜”(推理)出问题的“答案”。
然而,人类知识体系非常庞大,完全进行编码不切实际,基于知识的AI于19世纪90年代再次碰壁。至此,AI的研究再次进入“寒冬”。
直至2011年,IBM的“沃森”打败智力竞赛节目《危险边缘》的人类冠军。AI再次唤醒了世人的想象。
而这一届AI的核心技术是基于神经网络的“深度学习”。
这个技术词汇经常出现在我们视野中,但它的描述却非常不亲民,程序猿的世界一般百姓搞不懂,我试着用人话简单的描述下:
深度学习,即是给AI指定一个规则(比如下围棋规则),然后“喂”它各种数据(历史棋局),在它“学习棋局”的过程中给予回馈,像教熊孩子一样,错了打屁屁,对了奖糖果,做的题越多,AI下棋的成绩越能接近我们的期望。
而最新阿法元是通过旧棋局生成新棋局的方法“自己喂养自己”,无需依赖“人工棋局”,即所谓的“左右手互博,无师自通”。
2011之后发生的标志性事件都是大家所熟悉的了:
2012年“谷歌大脑”项目实现以非常低的错误率在海量图像中识别猫
2014年斯坦福大学开发出机器视觉算法,可以对图像的信息进行描述
2016年大家记忆犹新的谷歌阿法狗战胜人类围棋冠军
2017年10月阿法元“无师自通”打败了上一代的阿法狗
由于诸多媒体及江湖人士的“鼓吹”,对AI不明觉厉的大众理所当然的认为,AI已经越来越具备类似人类的“生物式”思考力,目前跟人的区别,不过像小孩子跟大人的区别一样。
按照这种速度发展,“小孩子”还会快速长大,而人类貌似并无多大的成长空间了。那么,AI终将很快取代多数人类的工作貌似是水到渠成的事儿。
但事实真的会照这个剧本上演么?
解开这个谜题的关键在于,AI取得的进步到底是渐变式成长,还是突破性提升。
所谓的渐变式成长,打个比方,就好像电脑硬盘从以前的16G上升到160G、320G、1T……等等,这种纯粹“效率”层面的提升。
而突破性提升即是指,整个经典计算机(即现在的计算机体系,冯·诺依曼结构)被量子计算机取代(基于量子物理理论的计算机,计算速度能实现超指数级提升)。
以此观点,目前AI的发展是令人“既欢喜又忧伤”:因为就AI提出大半个世纪后,其发展依然属于“渐变式成长”。
网络上人们对人工智能的调侃
世界顶级AI专家斯图尔特·罗素在阿法狗战胜人类后的评价就三个字:“很失望。”
阿法狗的初衷是想知道,AI能否像人类那样思考围棋,从而为研发具有“通用思考力”的AI打下基础。
但阿法狗取胜的方式却仍是采用传统的机器思维。
那么,AI的“机器思维”跟“人类思维”到底有着什么根本的区别?
当下实现人工智能的算法名称,比如神经网络、深度学习、遗传算法、进化算法……听上去非常“像人”(唬人),但是,目前的人工智能最关键运作原理依然是“模式匹配”。
即基于大数据、搜寻、识别、统计、猜测(概率)的方式。
简单来说,目前人工智能理解世界的核心方式依然是“识别”,这与人类理解世界的核心方式:“想象”、“推理”、“创造”、“情感判断”有着本质的区别。
一岁的孩子通过“玩积木盖房子”就能明白“要稳定的站立,双脚必须一起发力”的道理。
而同样的让机器人“玩积木”学习,它最终也只能学会在快递运输业务中“搬运货物”。
聪明如你应该意识到了,“机器思维”由于只懂得“模式匹配”,因而它只能胜任某一具体的、“规则清晰”的工作。
一旦离开这个领域,它又需要人类AI科学家去“研究现实业务、编码新规则、训练大量数据、海量测试……”这一开销巨大的工程。
当然,或者你会说,随着业务规则化的熟练、学习算法的极度优化,上述工程终将可以非常经济的实现。
那么,我姑且假设这个可能性成立,但是,这依然改变不了当下的AI无法解决人类绝大多数核心事务的事实。因为——
AI无法具备“创造力”。也就意味着无法完成现世中最有价值的工作:创造“突破性解决方案”解决各种社会问题。
比如,在神创论统治世界的年代,人类受“水滴石穿”自然现象的启发,最终却能够想明白,人类并非天神“变”出来的,而是从鱼一路“进化”过来的(达尔文进化论)。
这对人工智能几乎是个天方夜谭的能力了。
简而言之,AI专家们在优化算法方面确实取得了辉煌成果。但遗憾的是,在AI的最底层“运作原理”方面,离图灵提出的“会思考”相去甚远。特殊用途的“思考”(机械思维)并非图灵意义上的思考(人类思维)。
用量子物理学家David Deutsch的话来说,“(AI)越来越擅长假装思考,与越来越接近于能够思考,并不是一回事。”
谈到这个份上了,我们就可以顺势引出人工智能的“强”、“弱”概念了。
「强人工智能」的核心是机器能真正具备思考能力(Can machine really think), 而「弱人工智能」的核心是让机器能智能化的解决问题(Can machine act intelligent)
与多数对AI抱持敬畏之心的朋友们想的略有不同,目前市面上绝大多数的人工智能并非具备「通用思考能力」的 强AI,而是属于「弱」AI的范畴,即只能作为特殊用途的“思考”——毕竟它可实现、可实用化、商业投资回报周期短,无可厚非。
那么,是否弱人工智能就真的很“弱”,对我们的工作、生活没法产生重大影响呢?
那倒不是。
弱人工智能的应用:机会?还是抢饭碗?
按照前面的论述,AI并没有预想的那般神通广大啊,那为何眼下AI会炙手可热到如此地步呢?
理由很简单:
对资本家而言,有利可图;
对投机者而言,有机可趁;
对寻常百姓而言,有话可吹。
时下的AI虽然与人类思维有本质区别,但它也有人类不具备的“超人优点”:计算速度快、没有情感、可以做任何人都不愿意做的事情。
这意味着,只要符合下述四大特征的领域,就是AI的必然“入侵领域”。
此处我建议大伙儿结合自身工作的实际情况对照下,如果你的工作符合下述四大特征,那么强烈建议各位“务必预先铺设后路”。
一、该领域规则明确、唯一、稳定
比如家庭清洁。规则很明确:教会AI识别“需要清理的物品”与“不能清理物品”的区别,清理的范围,判断需要清理的时机……此外,家庭清洁的事务非常稳定,不会说今天需要清理垃圾,明天就改成布置家居了。
二、该领域市场潜力巨大
当然,并非规则唯一、稳定的事情都会转化成AI产业。
比如,陪伴跑步的机器人。我想没有多少人会为了“找个人一起跑步”而去购买价格不菲的机器人吧。
纵然是较为简单的领域,例如,消费者偏好决策支持AI,哪怕有现成的海量真实消费数据,将之实现商业化至少需要动辄数亿资金以上(这还不考虑诸多政策法规的阻碍)。
所以,没有个百亿以上规模的潜在经济效益的领域,不会在短期内“AI”化。
三、该领域的作业工作“过程”没有(或极少)人为介入
按照前面两大特征,规则明确、市场潜力大,我想各行各业都有非常多的“工作岗位”躺枪。比如客户经理、客服、医生、教师、记者、初级程序猿……
但事实是,多数岗位都会非常安全。
因为他们在工作的“过程中”会涉及到大量跟“人打交道”,而“理解人类思维”恰恰是人工智能的弱项。
此外,“人”的参与会让事情变得难以预测,而AI的优势发挥是处理高度可控的事情。
我们以初级程序猿为例。表面看,该领域市场潜力非常大(程序猿工资不菲),且规则明确、清晰(将业务需求转化成代码),但是,在获取业务需求的过程中,存在大量与他人的“沟通、梳理思路、反复确认”的事情,这些都不是弱AI擅长的。
但反过来,普通的文字工作者,比如某头条那些低俗猎奇文章,由于在编写过程不用与他人沟通,而是直接将文章结果呈现给用户,所以这类工作是非常容易被AI取代的。
简单来说,能够“套路化”的事情就是AI最擅长的事情。
至此,我们可以基于上述三大特征对照下,自己的工作(或者目标事业规划)在可见的未来内是否属于“高危工作”:
规则清晰稳定
市场潜力大(起码百亿级别)
工作过程(注意:不是工作结果)无需与人打交道
根据上述的简单分析,我们可以初步判定下述行业的工作将大概率让AI取代:
以数据统计、分析、校对为核心的数据工作者:
初级数据分析师、金融分析风险应对、市场分析精准营销、投资理财、初级会计、医疗门诊……
*所谓“初级”指不具备“提出创造性方案从根本上解决问题”思维的人
以内容搜寻、简单重组为核心的内容工作者:
律师助理、初级记者、泛娱乐内容、科研助理、出版编辑、人力资源服务……
以律师助理为例,他的主要工作,搜集庭审上用作证据的文件,由机器来完成其成本将远低于律师的人工成本。
不涉及“情感化价值”的服务:
翻译、安保、营养保健咨询、商品售后、餐饮服务、各类收银员、公共运输服务、家政服务……
顺带一提,像空姐、心理咨询等岗位,虽然技术上较容易“AI化”,但其核心价值之一是“为客户提供情感体验”,所以并不会很快被取代。
幸运的是,由于“取代大量普通劳动力”的领域容易造成失业率上升,会遇上不少政策阻力,因而“容易被AI取代”并不代表“马上”被取代(但也只是时间问题)。
鉴于此,那些“人类不喜欢、不擅长”但却能提升全民福祉的工作(这通常是全新的工作)反而是AI的“发力”区。
比如,需要更“敏锐”的感官才能胜任的事务:
体内手术(通过小机器人植入实现)、犯罪预测(通过心跳、热感应实时监测)
又比如,恶劣环境下(危险、高温、潮湿、污染、肮脏)的各种作业:
自然资源开采、水下(天空、海洋)勘察、身体清洁、垃圾清理、灾害救助等等。
另外,人类机械化、个人化精细定制、仿生学、人类增强、也是人工智能的另一庞大领域:
让微小的智能芯片、机器人“住进”身体内,随时提供最佳的营养、运动建议,比如心脏起搏器、胰岛素泵;
基于个人的思维特征提供最佳的教育服务;
根据个人收入及消费习惯提供最佳的理财服务等等;
又比如,让缺陷身体器官再造(外骨骼),让老年人拥有高质量的生活;
或者将感官增强(视觉、嗅觉、听觉)
事实上,以上多数领域的AI早已进入研究,甚至有些已经“试水”商用阶段了。尤其是物流机器人、汽车及交通领域,此外,用于农业、手术护理的新型工业机器人也将很快看到利润。
相信大伙儿对当今炙手可热的AI发展已经有了感性的认知。
是否觉得AI给人一种不温不火的感觉?
与时下媒体、广大商业大佬们的观点略有不同,李少加个人认为,这一次的AI还远远达不到像“工业革命”、“互联网革命”那种对社会带来颠覆式影响的程度。
李少加的理由是:当下AI过度依赖“数据”、依赖“量化”而愈发远离“人性”(情感),远离图灵意义上的“会思考”。
当下的AI,更多的是人类历史线性思维的高效率版本。
至于AI之所以炙手可热,其根源与社会文化停滞、与资本主义经济“碰壁”急需新的出路……等等宏观因素关系甚大。
一些朋友留言就问,怎么学习AI?
其实我想说,先看清楚了产业本质再考虑,人类史上的血泪史一再的证明:过犹不及。
过火的产业背后,“失智”的成分总是高于“智慧”。
但是,这并代表我们就不能从中找到些许“重大启示”:尤其是对我们职场工作。
这是我们最后要讨论的主题。
人工智能的隐喻:对我们职业规划的威胁及启示
虽然人工智能在“抢饭碗”上并没有大众预估的严重,但它的隐喻却对我们的“自我提升”方向是个极具价值的启示:
当我们“提升个人能力时”千万不要追求AI擅长的能力
这些会让“人”急剧降低竞争力的「能力关键词」包括:
“一劳永逸”
“(纯粹)效率提升”
“重复”……
这就是为何我常常苦口婆心告诫广大运营从业者不要追求那些“表象、浅显、立竿见影”(容易套路化)的能力:
比如“怎么吸引用户眼球、怎么起标题、怎么诱惑用户、怎么迎合用户胃口”。这些事情(满足人类的低级需求)对于“深度学习”算法而言正是其优势所在。
不信?看下微软机器人“小冰”,2016年出版了诗集《阳光失了玻璃窗》,此处摘录其中一首小诗:
作者:小冰(微软机器人)
五分了艺术纵通
一去不返于古人
我曾孤独地走入梦
在你的心灵
伟大的艺术为自有的一切
看不见古代的尘埃
曾经在这世界
我有美的意义
这是小冰在“学习”了五百多个现代诗人的作品后的成果。是的,尽管目前的弱人工智能压根不懂“阳春白雪”但并不代表它无法写出来。
而相比诗歌,那些烂大街的低俗故事(迎合人类的爬行动物脑),那些吸引用户的“套路”,规则更为简单,用AI来生产难度跟成本都更低。
我在研究人工智能时,也发现了一个有趣的现象,对它研究的越深,就越是能够逆向的鉴别——人类的哪些思维更“珍贵”。
至此,我基本上得出了如下几个确定性的结论:
即,无论是个人还是社会,哪些“能力”才是未来值得投入学习的“高价值能力”。
一、读懂机器思维的底层,能够基于业务重新构建机器模式的能力
这个能力尤其适合走“科研”路线的童鞋。
简单来说,就是把社会上一切具有AI化价值的领域逐步实现自动化的能力,尤其是,当AI出现问题时,能够随时接手,使之重新运作的能力(注意,这不是写代码,而是业务建模)。这部分的技术型人才未来会非常值钱。
当然,你觉得自己对“纯技术”兴致不大,那么下面的能力或许会更适合你:
二、理解和掌握全新的变化,以创造力参与其中构建新的价值
能够“自动化”(弱AI实现)的通常都是“重复的、无趣的”领域,随着人们在这些事务上的时间被释放,必然会引发文化意识的剧变、进而使人们对“商品价值”、对“消费”的观点产生“雪崩式”变化。
举个小例子,时下人们花几小时排队就为了省几十块;刷几个小时看那些批量生产的猎奇内容;或者对于一些艺术价值极高的游戏、创新价值极高的书籍,觉得几十块都嫌贵……
这些思想意识在不久的将来就会像“女人就必须裹脚”一般不可思议。
换句话说,价值观就像品味,任何微妙变化都永远不可逆转。在未来必将诞生大量全新的产业、问题与机会,而这些产业机会都将与“机械思维”无关(有关的都被AI化了)。
届时,能够对复杂事物变化敏感,能透过多元化思想提出跨界创新的解决方案、组织多层次协作的人将尤为抢手。
这类人表面上看属于“知识渊博”的人,但背后实质是创造力(猜想、批判、验证)非常强,能够读懂复杂系统背后的本质,而不是停留在学习“知识的表象”上。
这个话题很前沿也很深,「少加点班」将会在后续专题详细探讨。
三、人性洞察力、为他人提供“幸福感”的能力
自动化事务交由AI将彻底改变人们的价值观。相应的,未来的商业价值也会配套改变。
从社会的演化逻辑来看,未来企业必将会跟“社会贡献”强关联,那种依靠“钻法规漏洞”、“以污染文化”存活的企业将大量死去,而死去的原因根本不用等到法规的完善,而是人们价值观、伦理意识的变化:人们将鄙夷价值观扭曲的企业。
比如,使用“价值观扭曲”商家的产品、或者花时间在糟粕文化上……就好像在图书馆大声喧哗、在人群中吐痰一般,谁会做?
这意味着,未来的企业会大规模的向社会型企业转变。
因此,极具人性的创新化产品,那些为人们提供“幸福感”的产品将获得青睐。而提供这些产品(或服务)的能力因而变得更为值钱:
对人性的细腻洞察、丰富的情感(共情)、持续涌现新思想的创新思维。
这些能力无论是以现实中与人接触,还是在虚拟现实与人互动都弥足珍贵。
大众颇为恐惧(或期待)的AI是强AI,也被称为“超(人类)智能”。
实现超智能还非常非常遥远(我们其实应该庆幸):
因为超智能必须具备的必要能力是“通用解释能力”(目前为止只有人类才具备),这是“创造新知识解决新问题”的基础。
解释这个问题涉及科目多,极端复杂,这里不展开。
但我们不妨用逆向思维可以简单的理解这个问题,假设“超智能”可以出现,那么它“优化自身的能力”结合机械的“效率优势”将被放大至近乎无限大……
这样的未来完全没有讨论的价值。
因此,我们不妨务实一点,看回弱AI本身吧。
弱AI的本质就是人类自身“机械思维”的高效率版本,它的演进路线就是将社会一切具有“自动化”价值的领域替换掉:
从经济效益最大、政策阻力最小的领域开始,在改进生产力的过程中也持续改进社会人文意识形态,而后者反过来又会改变AI的演化路线。
正因为如此,我们要特别警惕这一轮的弱AI革新,它以大数据为基础,意味着顶层参与者仅有为数不多的几个超级大公司。
如果他们没有善用这股力量,而是继续沿袭“机械思维”主导发展,后果不堪设想,这已经不是少数清醒却毫无资源的思想家们可以改变的了的局面。
西方资本主义的发展瓶颈已经预示了这一点:更高的物质阈值刺激出来的“幸福”需要永无止境的向自然资源施加压力。
Facebook前科学家Jeffrey Hammerbacher曾感叹道:
“我们这一代最聪明的大脑,没有花多少精力思考如何利用人工智能改善人们的生活,而是思考怎么让人们点击更多广告、消费更多、把物质欲点燃到极限……”
我们期待这个现状会在这个十年内改变,而投票权其实就掌握在各位手里。
PUOKE 延伸阅读
如何成为饭桌上的人工智能专家?你需要掌握10个烧脑知识点文 | 老喻
来源 | 孤独大脑,ID:lonelybrain
即使绝世聪明,有的人日子并不好过,只因为他在地球上没有同类。例如交流电发明人尼古拉·特斯拉。他有过很多很多惊世骇俗的发明,最终却穷困潦倒。 18 9 6年他说出下面这句话时,不会有太多人留意:
“我认为任何一种对人类心灵的冲击都比不过一个发明家亲眼见证人造大脑变为现实。”
2003年,一位名叫马丁·埃伯哈德的工程师,用“特斯拉”为他正要成立的电动汽车公司命名。后来,这家公司落到了硅谷狂人马斯克的手中。
谷歌的创始人佩奇,在12岁时,读到特斯拉的传记,留下了眼泪。多年以后,佩奇与马斯克成为挚友,还差点儿买了特斯拉电动车公司。特斯拉在冥冥中将两位后世的天才连接在一起。
一天,佩奇在马斯克的私人飞机上聊起人工智能。马斯克说:“你应该去看看伦敦的这家公司”。--他在该公司投了650万美金。凌晨 4 点钟,马斯克助理的越洋电话唤醒了哈萨比斯,初创公司DeepMind的CEO,另一位天才。
谷歌在收购争夺战中赢了Facebook,哈萨比斯也得到了谷歌的资金、资源和承诺。从此,他开始为自己的梦想疾速飞行。绝大多数人看不懂他的目的。确切而言,哈萨比斯要做的,正是特斯拉在120年前的预言:
将人造大脑变成现实。
几个孤独的大脑,隔世相逢。
汽车比人快,电脑比人会下棋,有何牛?
最早阿尔法狗战胜李世石时,朋友圈里较多的“不屑”是:刘翔也跑不过汽车啊?这有什么?
天壤之别。
以前的各种科学进步,都是人类的自我延伸,一切皆在掌握。从石器到宇宙飞船,各种发明,算起来都还是人类的工具。
而人工智能则不同,它会和人一样思考,会自我学习,越来越聪明。
人工智能就是让计算机完成人类心智能做的各种事情。通常,我们会说有些行为(如推理)是“智能的 ” ,而有些(如视觉)又不是。但是,这些行为都包含能让人类和动物实现目标的心理技能,比如知觉、联想、预测、规划和运动控制。
以前人是养猪养狗,就算养老虎,人都还是主人。
人工智能发展到某一天,可能人类成猪了。
拿围棋来说,很多人类现在阿尔法元面前,真的就是一头猪。
工具是复制,人工智能是学习式复制。
例如,很多人工智能应用甚至不再需要编程:它们可以基于已有架构实现从经验中自我学习。
更让人担心的是,人类至今不明白意识和自由意志是什么。“智能”涉及意识、自我、心灵、无意识的精神等等问题。如果人工智能具备了意识和自由意志,人类还是万物之灵吗?
还有一种误读,是担心人工智能被“不法分子”利用。这同样是低估了人工智能。
科技的进步从来都会被好人和坏人同时利用。英国、以色列与挪威,都已部署自主导弹与无人操控的无人机,具“射后不理”能力的导弹,多枚导弹还可互相沟通,分享找到攻击目标。这些武器还未被大量投入,但很快就会出现在战场上,且并非使用人类所设计的程序,而是完全利用机器自行决策。
假如被恶人黑客控制,后果的确严重。
但我们更该担心的是人工智能自己失控,成为“不法分子”。
霍金、盖茨、马斯克等人都对于人工智能技术的未来公开表示忧心,人工智能若在许多方面超越人类智能水平的智能、不断更新、自我提升,进而获取控制管理权。
马斯克称人工智能是“召唤恶魔”行为。
英国发明家Clive Sinclair认为一旦开始制造抵抗人类和超越人类的智能机器,人类可能很难生存。
盖茨同意马斯克和其它人所言,且不知道为何有些人不担忧这个问题。
DeepMind的哈萨比斯愿意将公司卖给谷歌,条件之一就是要设立AI伦理委员会,针对人工智能的应用制定政策,防范人工智能沦为犯罪开发者。
霍金说:“人工智能崛起要么是人类最好的事,要么就是最糟糕的事。人类需警惕人工智能发展的威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化限制,将无法与之竞争。”
即使AI不给人带来灭顶之灾,也会在社会伦理层面带来巨大颠覆。
例如,人工智能与人脑智能有机融为一体,成为新一代的赛博人(Cyberman,人机复合),那么人会永生吗?人会和AI结婚吗?
为什么AI用围棋作为挑战对象?
围棋确是人类游戏之巅峰。当年深蓝战胜国际象棋世界冠军,靠的是穷举法,而围棋变幻莫测,计算量太大,没法硬来。
围棋有多难呢?围棋究竟有多少种变化?
棋盘上有361个交叉点。假如不考虑下棋的常识,比较靠谱的一种计算方法是:
第一手的可能性有361种;
第二手的可能性有(剩下的)360种;
以此类推,变化数量为:361*360*359......*1=2.018乘以10的170次方。
这还没考虑打劫、提子反提等。打劫极为复杂,以至于去年人机大战中,人们怀疑李世石被约定不能使用打劫的手段。假如算上打劫,上面的变化几乎变得无穷尽了。
这是什么概念?可观测的宇宙中所有原子的总数,约为10的80次方。
围棋的变化,比整个宇宙的原子还要多。
但是,即使如此,围棋仍然是一种完美信息博弈。某种意义上,这仍然是一个有边界的问题。
不过,围棋可能是人世间最复杂的完美信息博弈。
这就是人工智能用围棋作为研究对象,因为:
1、足够难;2、有边界。
人类实际生活中遇到大量的问题,所获得的信息是不完全的。在这种不完全、非确定的情况下,如何去判断?这是一个很难的问题。
比如说投资。
有些事情是简单的复杂事情,例如围棋;有些事是复杂的简单事情。
很多貌似不难的问题,对AI而言,现阶段比围棋难得多。
AI是如何通过左右互搏来练功的?
左右互搏,对人而言,道理上讲不通。
因为左右手都是大脑控制,除非你大脑分裂,你没法自己骗过自己,也就谈不上对弈。
例如,两个能预测未来的神仙就没法下棋,都知道对方下一步走在哪里,还有啥搞头呢?所以生活中给我们带来喜怒哀乐的“不可测”,是神仙都羡慕的礼物。
阿尔法狗未必要用两只“狗”来对弈。它先在棋盘的这一测下一手黑棋,然后走到棋盘的例外一侧,归零,站在白棋的角度,重新思考局面,然后走出对白棋而言胜率最大的一手。
对人类而言,“杂念”难以清除。然而,阿尔法狗就是这样一种思考机器,不管过去发生了什么,永远从头计算,绝不为过去辩解。想想看,我们身边的牛人,大多也有这特点。
阿尔法狗项目负责人David Silver说,在某种意义上,自我对弈(self-play)训练已经是对抗性质的:每次迭代都试图找到对抗上一版本的「anti-strategy」。
但是反过来,人类无法做到“左右互搏”,恰恰是因为人类有意识。
一个人的意识应该是惟一的,否则何谓自我?
为什么分布式的、时序上有先后的神经网络的活动会最终显现为一个统一的意识体验?这是一个谜。
假如一个人可以被复制,那个复制人已经不是“我”了。
阿尔法狗可以自己和自己下棋,最完美的分裂人格,也没法做到这一点。但是,如果没有“统一”,会有自我意识吗?假如没有自我意识,复制大脑的“永生”又有何意义呢?
阿尔法狗是如何进化的?
从国际象棋到围棋,计算机挑战人类大脑的路线图:
深蓝采用是穷尽法。有点儿像蛮力破解,即规则驱动的暴力搜索;
然后是到特征驱动的线性模型;
再到数据驱动的深度学习,越来越强的模式识别能力让“直觉”两字从神秘莫测,变成了通过大量样本就能学到的模型。
AlphaGo这个系统主要由几个部分组成:
1. 走棋网络(PolicyNetwork),给定当前局面,预测/采样下一步的走棋。
2.快速走子(Fastrollout),目标和1一样,但在适当牺牲走棋质量的条件下,速度要比1快1000倍。
3. 估值网络(ValueNetwork),给定当前局面,估计是白胜还是黑胜。
4. 蒙特卡罗树搜索(MonteCarlo Tree Search,MCTS),把以上这三个部分连起来,形成一个完整的系统。
AlphaGo结合了3大块技术:
1、先进的搜索算法;
2、机器学习算法(即强化学习);
3、深度神经网络。
这三者的关系大致可以理解为:
蒙特卡洛树搜索 (MCTS) 是大框架,是许多牛逼博弈AI都会采用的算法。
强化学习 (RL) 是学习方法,用来提升AI的实力。
深度神经网络 (DNN) 是工具,用来拟合局面评估函数和策略函数。
这些都不是AlphaGo或者DeepMind团队首创的技术。但是强大的团队将这些结合在一起,配合Google公司强大的计算资源,成就了历史性的飞跃。
对战柯洁的Master,能力大增,主要是因为价值/策略网络的改善,训练和架构都变得更好。
这次的阿尔法元,让强化学习进行的更彻底,并用深度残差网络(ResNet)对输入进行简化,尽管“没有提出任何新的方法和模型”,结果极为震撼。
田渊栋说:
让我非常吃惊的是仅仅用了四百九十万的自我对局,仅仅用这些样本就能学得非常好,只能说明卷积神经网络(CNN)的结构非常顺应围棋的走法。
说句形象的话,这就相当于看了大英百科全书的第一个字母就能猜出其所有的内容。
这是一次工程和算法的胜利。
AI对职业棋手最大的冲击是什么?
围棋会没落吗?不会。据说深蓝赢了卡斯帕罗夫,学国际象棋的人翻了一番。围棋的基数比较小,没准儿增速更大。
AI对职业棋手的冲击主要有:
一、与“围棋上帝”的水平差距。
当年日本顶尖棋手,认为自己和围棋上帝的差距大约是两个子。现在看来,可能不止。
叔本华说:“每个人都将自身所感知的范围当做世界的范围 ”。
现在看,人类对围棋边界的预测多么幼稚啊。可以想象,在那些没有边界的问题上,人类是多么的初级。
二、完全颠覆了原有的认知与定式。
就像第一手点三三,连续二路爬,各种碰,AI什么棋都敢下。换个角度看,我们原来认为理所当然的东西,很多都是错的。哪里有什么定式啊。
三、中腹也是可以计算的。
有句围棋谚语叫“高手在腹”。人们通常认为棋盘中腹很难计算,要靠超一流的棋感。结果呢?不仅可以算,而且AI还算得非常好。
进而言之,AI的大局观非常好。
四、超人的学习速度。
三天抵何止一万年。
本质上,AI就是一种会思考、会学习、并且会加速聪明的机器。
五、AI可能有意识!
围棋是中国少有的数目化事物,它兼具西式的精确量化,以及东方的混沌哲学。所谓大局观、天才的感觉、石破惊天的一手,都被认为是计算无法企及之处,是围棋的神秘魅力。
阿尔法狗下的棋,有些几乎是吴清源这个级别的棋手才能走出。旁观者会用“天外飞仙”来形容这类奇思妙想,所谓“天才的感觉”。
也有人说,AI这次在围棋上战胜人类顶尖高手,基本证明了所谓的“棋感”、“棋风”、“大局观”等围棋高手所谈论的虚的能力,并不是人类独有的,经过训练的神经网络也会有。所以,随着技术的进步,电脑也会能够欣赏艺术(音乐、画作、小说、笑话),能够创作文学、艺术作品,能够针对不同的情况形成自己的“情绪”。
此前,一个顶尖围棋高手被认为有赖天赋,因为有些招法需要天外飞仙似的灵感。
现在看来,所谓人类的灵性,可能只是大脑事后的包装。
人工智能真的会有意识吗?
什么是意识?
难道意识不是一个巨大的幻觉?
塞缪尔·巴特勒说:
植物不知道它在做什么,仅仅是因为它没有眼睛、耳朵或大脑吗?如果我们说它是机械作用的,且只靠机械作用,那我们是不是也不得不承认其他那些明显非常谨慎的行动也是机械的?如果在我们看来,该植物是靠机械作用来杀死并吃掉一只苍蝇的,那么对这个植物来说,是不是人一定不是靠机械作用杀死并吃掉一只羊的呢?
丹尼尔·丹尼特在其著作《意识的解释》里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。
库兹韦尔的立场是:
如果生物体在做出情绪反应时完全令人信服,对于这些非生物体,我会接受它们是有意识的人,我预测这个社会也会达成共识,接受它们。
请注意,这个定义超越可以通过图灵测试实体的范围——因为图灵测试至少需要掌握人的语言。
但只要非生物体足够像人,我会接纳它们,我相信,社会中的大部分人也会如此,不过,我也会把那些具有人类一样的情感反应却不能通过图灵测试的实体包括进来,例如,孩子们。
在库兹韦尔看来,如果你接受这样一种信仰飞跃,即非生物体就其感受性所作出的反应是有意识的,那么这也就意味着:
意识是实体整体表现出来的涌现特性,而不是由其运行机制产生的。
简而言之,他选择“相信”。
库兹韦尔的态度让我想起一次在教堂里听布道。牧师是一位博士,和我们一样从小接受无神论教育。他说,你越接受教育越难信上帝。所以,最好的办法是只要你选择相信。这就是基督教,你不必去想为什么,你惟有选择去相信。
就像温哥华商场里圣诞节挂满了“Believe”。
我们真的在掌控自己的命运吗?
德国哲学家亚瑟·叔本华写道:
“每个人都认为自己先天的就是完全自由的,即使他的个人行为也是如此,并认为,每一个时刻,他都可以开始用另一种方式生活…
…但是,通过后天的经验,他惊讶地发现,他不是自由的,而是要受制于必要条件的。但尽管有了所有这些决议和思考,他还是不会改变他的行为,从生命开始到生命结束,他必须按照他的性格行事,即使连他自己也谴责这种性格。”
奇点会来吗?
马云在一次演讲中,提到了“荷花定律”:
一个荷花池,第一天荷花开放的很少,第二天开放的数量是第一天的两倍,之后的每一天,荷花都会以前一天两倍的数量开放。
如果到第30天,荷花就开满了整个池塘,那么请问:在第几天池塘中的荷花开了一半?
答案是第29天。
库兹韦尔在书中讲过这个例子,用来说明“加速”。
最先提出“智能爆炸”这一概念的,是与冯·诺依曼一道,为曼哈顿工程工作的著名波兰裔美籍数学家乌拉姆。他有这样一句直击心灵的话:
“不断加速的科技进步,以及其对人类生活模式带来的改变,似乎把人类带到了一个可以称之‘奇点’的阶段。在这个阶段过后,我们目前所熟知的人类的社会、艺术和生活模式,将不复存在。”
冯 ·诺依曼提到两个重要概念:加速与奇点。
第一个概念说明了人类的发展正以指数级的速度增长。
彼得.泰尔曾经嘲讽:“我们想要能够飞翔的汽车,结果得到的只是140个字符。”
这可能是错觉。过去几十年,人类一直在积蓄力量,计算的力量,大脑的力量,AI的力量。
人类已经能够成功地模拟出大脑的部分神经元和大量的神经组织,并且这种模拟的复杂程度在迅速增加。
我们在人类大脑逆向工程方面取得的进展,也表明我们有能力理解、模拟,甚至拓展自身的智能。
《主算法》作者佩德罗 ·多明戈斯教授说:
这个主算法将成为人类的最后一个发明。这个主算法将能够从数据中获得世界上的一切知识——过去、现在和未来。
库兹韦尔有过很多大胆预言,过去看来很准。在 2 0多年前,他就预言:人工智能计算机将于 19 9 8年战胜人类的国际象棋冠军。
人类基因组计划,是库兹韦尔钟爱的用来解释指数级增长的案例,旨在阐明人类基因组 3 0亿个碱基对的序列,发现所有人类基因并搞清其在染色体上的位置,破译人类全部遗传信息。
他预测,未来电脑将在意识上超过人脑。
未来才刚刚开始。
有什么投资机会?
对于Zero算法的未来发展,DeepMind想用这样的算法突破,来解决真实世界中各种各样紧迫的问题。”
AI将要解决以下“结构性问题”:蛋白质折叠、降低能耗、寻找革命性的新材料。还有:新药发现、量子化学、粒子物理学也是AlphaGo可能大展拳脚的领域。
一些经济学家认为,迅速扩大的数据集、机器学习和日益提高的计算能力,这些都应被列为除资本和劳动力之外的一种全新的生产要素。
人工智能正缔造一种新的 “虚拟劳动力 ” ,提高人类智慧的生产率并推动新的创新。
另外,与其他生产要素不同,人工智能不会随着时间的流逝而贬值。它将受益于网络和规模效应。例如所有自动驾驶汽车都能从其他此类汽车身上学习。
埃森哲与经济学前沿公司预测:
到 2035年,基于人工智能的技术的普遍采用,可能会将很多发达国家的经济增速提高一倍。
报告估计,人工智能有可能将美国、英国和日本的总增加值(与国内生产总值 ( G D P )近似)年度增速分别提高到 4 . 6 % 、 3 . 9 %和 2 . 7 % 。
马尔瓦尼表示,“我们已拥有由人类增强的创新。我们将最终拥有机器创新。”
投资,还是大公司的天下。谷歌、亚马逊、微软、苹果、Facebook、腾讯、阿里,大概率会继续统治“数字地球”。
不过,看看下图,谁又能真正预测未来呢?
应该学什么专业呢?
我们倒过来想,AI擅长做什么,可能就会在哪里替代人类。
埃森哲认为,人工智能有望以三种职能角色出现在人类工作中——助理、顾问和执行者。
助理:为管理者及团队提供支持,如做记录、排日程、写报告和管理积分卡等。在工作中,这些智能系统还会吸取自身及人类同事经验,完善相关知识、扩大服务领域。
顾问:通过问答、构建情境模拟等方式协助解决更复杂的问题和进行决策,包括医疗诊断、安全分析、理财建议、在线旅游接待和销售指导等。
执行者:积极自主地评估备选方案,进行决策或挑战现状。迄今,真正的自主型人工智能管理系统还很少见,但能够进行商业决策的规则性应用程序已越来越普遍,如交易机器人、自动处理贷款的应用程序等。
日本野村总合研究所也与英国牛津大学的研究学者共同调查指出,10至20年后,日本有49%的职业(235种职业)可能会被机械和人工智能取代而消失,直接影响约达2500万人,例如:
超市店员、一般事务员、计程车司机、收费站运营商和收银员、市场营销人员、客服人员、制造业工人、金融中间人和分析师、新闻记者、电话公司职员、麻醉师、士兵和保安、律师、医生、软件开发者和操盘手、股票交易员等等高薪酬的脑力职业将最先受到冲击。
维克多·麦尔-荀伯格写到:
随着计算机在人类擅长的任务,比如那些需要知识、策略甚至创造力的任务中取得节节胜利,那么未来人类存在的意义是什么?
但是我担心的是我六岁的儿子。随着机器在一个又一个领域超越人类,他在未来世界的地位会变成怎样?他会做什么工作?他和这些无比聪明的机器之间将是怎样的关系?他以及他的同辈将为这个世界作出怎样的贡献?
事实上,归根到底就是一个相当简单的问题:我们的特别之处是什么?我们的长远价值是什么?不可能是机器已经超过人类的那些技能,比如算数或打字。也不可能是理性,因为偏见和情感让我们缺乏理性。
他的思考是:
可能我们需要考虑相反的一个极端:激进的创造力,非理性的原创性,甚至是毫无逻辑的慵懒,而非顽固的逻辑。到目前为止,机器还很难模仿人的这些特质:怀着信仰放手一搏,机器无法预测的随意性,但又不是简单的随机。他们感到困难的地方正是我们的机会。
所以,我们必须着眼于人类对劳动分工的贡献,对机器的理性进行补充,而非试图与它竞争。由于这样做会让我们与机器产生差异,而正是这种差异化会创造价值。
他还对当下的教育忧心忡忡:
如果我是对的,那么我们应该在教育孩子时加强创新精神,培养挑战权威的意识,甚至是非理性的想法。并不是因为非理性是福佑,而是因为非理性的创造力是对机器理性的补充。它能确保我们在进化的舞台上占有一席之地。
然而,不幸的是,我们的教育体系尚未赶上即将来临的第二次机器时代。我们的学校和大学就像囿于前工业思维的农民一样,其结构主要是为了把学生塑造成理性、服从的仆人,培养与过时的机器互动的过时技能。
教育从来都扮演着双重角色:
一个是理想的“教书育人”;
一个是现实的“超级智力竞赛”,据说是用于实现“社会分层”。
莱文校长曾说: “如果一个学生从耶鲁大学毕业后,居然拥有了某种很专业的知识和技能,这是耶鲁教育最大的失败。 ”
他的观点是:
1、专业的知识和技能,是学生们根据自己的意愿,在大学毕业后才需要去学习和掌握的东西,而不是耶鲁大学教育的任务。
2、本科教育核心是通识,也就是 “自由教育 ” 。这种教育所熏陶出来的批判性的独立思考能力,能够让人胜任任何职位,驾轻就熟地精通任何学科,并为终身学习打下基础。
另外值得一提的是交叉学科。
冯·诺依曼在《计算机与人脑》里,最早从数学家和计算机科学家的角度对人脑进行的严肃探究。
在冯·诺依曼之前,计算机科学和神经科学是没有任何交集的两个领域。
冯·诺依曼应用计算通用性的概念得到的结论是:
尽管人脑和计算机的结构截然不同,但仍可以认为冯·诺依曼机能够模仿人脑对信息的加工过程。
有趣的是,DeepMind的CEO哈萨比斯,他1997年在剑桥大学女王学院获计算机科学学士学位。毕业后加入Lionhead Studios工作一年,之后创立了Elixir Studios,该工作室一直运作到2005年。2009年获伦敦大学学院认知神经科学博士学位。
人类还有前途吗?
阿尔法元如此突飞猛进,人类是否更加悲催?
大卫 ·班布里基说:现代大脑地图给人一种有趣的古旧感 ——就像一张中世纪的地图,已知世界被散布着不知名怪兽的未知之地环绕。
大脑基于非常古老的设计,虽然其微观性和复杂性,成年人的大脑有1000亿个神经元。在历史进化的过程中,大脑的设计是低效而怪异的。但我们如何完成超级电脑都手足无措的任务?
《进化的大脑》说:单个神经元都是极其缓慢、不可靠且低效率的处理器。但是,大脑是一万亿个非最优处理器的聚合体,大量互联形成500万亿个突触。
因此,大脑可以利用大量神经元的同步加工以及随后的整合模式来解决复杂问题。大脑就是一台拼装电脑,尽管每一个处理器的功能极有限,但大量相互关联的处理器则效率惊人。
这就是大脑,它使用大量相互关联的平行构造,加上精细的反馈信息,就把简陋的部件组成了一个令人惊叹的装置。
大脑都不是设计完美的,它只是胡乱堆积在一起的一团东西。我们的情感、感知和行为的独特性,很大程度是因为大脑并非一台优化的通用解题机,而是寻求特定解的一团怪异聚结物。
我看了阿尔法元最新的自我对局,开始的时候它就像个乱摆棋子的孩子,慢慢地它开始发现规律。再到后来,它开始尖顶,立起。阿尔法元有很多与人不一样的招法,但很多地方,所见略同。
我不由得感慨人类的孤独与伟大。围棋有着超过宇宙间所有原子数量的变化,人类从头开始慢慢摸索,历经漫长的黑暗岁月,代代相传,竟能走得和阿尔法元一样对。
仿佛我们在原始人的墙壁上发现了飞船的雏形。
围棋有种求道精神。有多少竞技,在你死我活的对决之后,双方筋疲力尽,还能坐下来复盘,总结彼此的得失?
多年以前,我看的最早两本围棋书,一个是大竹英雄的新围棋十诀,一个是武宫正树的,两本书都有那个时代浪漫主义色彩(某种意义上基于木谷道场对棋界的统治),指向共同的主题:
探索未知的世界。
就像武宫正树,他靠那种奔放自由的个人精神,以一己之力开创了宇宙流。他反时代,孤星闪耀,仿佛上帝赐予人类的礼物。时至今日,阿尔法狗验证了,着眼全局的中腹的非凡价值。
发明围棋的人,探索围棋的人,永远不会想到,19×19的格子在人类的历史进程中划时代的意义。也许这正是其生来的最大使命。
就像特斯拉,图灵,在漫漫长夜里,无论日子多么艰难,多么阴冷,他们都未曾停止过对未知世界的探索。
那些孤独的大脑,终会相逢。
文章来源:扑克投资家
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点}

我要回帖

更多关于 20女中专懂电脑找白班 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信