人工智能AlphaGo真是好厉害,不知今天围棋人机大战直播谁胜谁败?不过真正厉害的还是人类就是了。。。。。

技术分析|AlphaGo赢了围棋 人工智能就此崛起?_网易科技
技术分析|AlphaGo赢了围棋 人工智能就此崛起?
用微信扫码二维码
分享至好友和朋友圈
​​
人机大战正在进行中
http://img3./photo/-09/600x450_BHNSTKB30AI20009.jpg
http://img3./photo/-09/t_BHNSTKB30AI20009.jpg
人机大战正在进行中
http://img4./photo/-09/600x450_BHNSTKNQ0AI20009.jpg
http://img3./photo/-09/t_BHNSTKNQ0AI20009.jpg
人机大战正在进行中
http://img3./photo/-09/600x450_BHNSTKQO0AI20009.jpg
http://img3./photo/-09/t_BHNSTKQO0AI20009.jpg
李世石携爱女入场
http://img2./photo/-09/600x450_BHNSTKTP0AI20009.jpg
http://img6./photo/-09/t_BHNSTKTP0AI20009.jpg
李世石携爱女入场
http://img2./photo/-09/600x450_BHNSTL1J0AI20009.jpg
http://img2./photo/-09/t_BHNSTL1J0AI20009.jpg
谷歌董事长施密特入场
http://img2./photo/-09/600x450_BHNSTL5L0AI20009.jpg
http://img3./photo/-09/t_BHNSTL5L0AI20009.jpg
李昌镐现身
http://img3./photo/-09/600x450_BHNSTL8M0AI20009.jpg
http://img3./photo/-09/t_BHNSTL8M0AI20009.jpg
人机大战现场图
http://img2./photo/-09/600x450_BHNSTLD30AI20009.jpg
http://img3./photo/-09/t_BHNSTLD30AI20009.jpg
人机大战现场图
http://img3./photo/-09/600x450_BHNSTLGF0AI20009.jpg
http://img2./photo/-09/t_BHNSTLGF0AI20009.jpg
人机大战现场图
http://img3./photo/-09/600x450_BHNSTLJ60AI20009.jpg
http://img2./photo/-09/t_BHNSTLJ60AI20009.jpg
赛前李世石合影
http://img6./photo/-09/600x450_BHNSTLLL0AI20009.jpg
http://img2./photo/-09/t_BHNSTLLL0AI20009.jpg
图集已浏览完毕重新浏览
前言:在今日Google的Alpha Go和李世石的比赛中,耗时4小时击败了这位当今最强人类棋手。这两天大家都纷纷在讨论这个人工智能的新星,大家都很好奇这个人工智能系统到底是如何工作的呢?要回答这个问题,我们先来从最基础的人工智能下棋算法说起。文/Jason(出门问问NLP工程师)传统的下棋人工智能算法平时,我们形容一个人下象棋下的好,我们可能会说“他脑子很会算,能算到5步以后呢”。这个意思就是说,这个人在选择下一步走法的时候,他评估每一步走法,会往后继续多想几步——“如果我这么走,对方会怎么下呢?那对方这么下之后,那个时候我可能选择的最佳走法又是什么呢?”以此类推。对人类来说,他在大脑中会进行多次推演,来选择最好的走法路径。所以能够想到5步之后,已经是很厉害的人类了!但这种思维方式,恰恰是计算机特别擅长的。MinMax算法就是一个这样的算法,成功应用在很多棋类AI中,基本思想和之后要讲的AlphaGo的MCTS算法也有相通之处。图:MinMax算法示例,来自于wikipedia圆形的节点表示“你”面对的局面,而方块的节点表示对手面对的局面。这里是4层两个回合的搜索树。- 我们从最下层第4层开始,这一层是叶子节点,不再展开,我们使用“估值函数”(Evaluation Function)评估局面的“好坏”,为每一种局面打分,如图上节点上的数字所示。在中国象棋中,比如“估值函数”可以考虑的因素比如中国象棋中车的个数、卒是否过河、是否有空头跑架在对方的帅上方等等。分数越高,对你越有利。一个正无穷的分数,代表游戏结束并且你获得胜利,反之亦然。- 接着第3层对手从这些局面中选择他最好的局面(也就是你最坏的局面),也就是得分最少的局面(因为计算得分是从你的角度计算的)。- 接着你在第2层选择得分最多的局面。- 接着对手在第1层选择得分最少的局面。- 最后你在第0层选择得分最多的局面,也就是得分为-7的节点。这样的树形结构成为搜索树,也称为搜索空间,其中的每一个节点代表了棋局中的一个可能性。可以看到,这样的搜索空间的规模是跟这颗树的层数(也称深度),以及每个节点可以衍生出来的子节点的个数(称之为Branching Factor)。比如上图就是一个深度为4,Branching Factor为2的搜索树,其搜索空间的总数为2 + 4 + 6 + 9 = 21。对于国际象棋来说,Branching Factor为35,即对于一个局面平均有35种不同的合法走法。对于围棋来说,Branching Factor是250。(https://en.wikipedia.org/wiki/Branching_factor)因此在真实的棋类比赛中,搜索空间是巨大的。从根节点枚举出所有的子节点,再逐一进行考虑是绝对不现实的,再快的计算机也无法完成这一浩大的计算。在MinMax中会采用一种叫做Alpha-beta的剪枝算法,通过简单的逻辑让系统在某些分支上停止展开,尽早避免把搜索时间花在肯定不会有好结果的分支上。所以一个好的搜索策略,会应用更智能的剪枝算法,优先选择更有希望导致胜利的分支进行搜索。同时,一个准确的估值函数,能够正确的评估某个分支代表的局面的好坏,这样不用算到最后的决胜局,就可在较浅的深度通过估值函数来预估胜算。为什么围棋这么难?总结上文,一个好的棋类AI,需要结合高效的搜索策略和准确的估值函数。我们从这个角度来分析以下,为什么20年前AI就已经打败国际象棋的人类世界冠军,直到现在围棋AI才刚刚崭露头角呢?其一,围棋棋盘是19x19,因此每一步可以选的合法走法远远大于象棋(刚刚也提到围棋的Branching Factor是250,象棋只有35)。因此围棋搜索空间相对于国际象棋来说大得多其二,围棋的估值函数很难设计。象棋里面你尚能用简单的统计棋子个数来推断,围棋棋局千变万化,可能看似风平浪静其实暗藏杀机。这两个主要原因导致了围棋AI上面一直很难有大的进展。AlphaGo怎么这次怎么做到的?那这次出战的AlphaGo,又是有什么独门绝技呢?类似之前提到的MinMax搜索框架,AlphaGo(以及现在很多其他的围棋AI),在决定下一步棋怎么走的时候,采用了MCTS(Monte Carlo Tree Search)的搜索框架。大致思想可类比MinMax算法:MCTS算法,对于给定的当根前节点,通过计算机模拟推演以当前根节点出发的各种可能的走法,配合高效的“剪枝”算法来控制搜索空间大小,并用演算到最后一步的结果来反过来影响当前跟节点下一步棋的选择。之前也提到过围棋相对于传统棋类AI的设计难点:1)可能的走法太多(即Branching Factor较大)导致搜索空间非常大 2)没有一个好的估值函数对进行中的围棋棋局计算一个静态得分。于是MCTS针对这两个问题提出解决方案:搜索空间更大我们就采取比Alpha-beta剪枝更激进的剪枝策略,只把有限的计算资源留给最最有希望的走法(后面会提到的Selection、Expansion);对于中间棋局好坏很难估计,那我们就一路模拟到最后分出胜负为止(后面会提到的Simulation)!MCTS算法是一个多轮迭代算法,每一轮迭代都会以此经历四个阶段:Selection,Expansion,Simulation和Back Propagation。下图展示了MCTS的某一时刻搜索空间的情形,当前有有限个子节点(而不是所有的可能性组成的全搜索空间)正在算法的搜索范围之内。图注:MCTS搜索策略每一轮迭代的四个步骤这四个步骤分别为:1) Selection:根据现有的搜索空间,选择一个“最最需要展开”的子节点,比如图中Selection步骤当中,沿着粗线一路走到底的最下方的叶子节点。这个节点被选中,意味着当前状态下,系统认为沿着这个节点的这条路径,最有可能导致胜利2) Expansion:对于上面被选中的节点,从它的子节点中挑选出一个最有希望的子节点,展开之(即加入到当前搜索空间中)3) Simulation:从刚刚展开的这个节点,继续往下模拟(也称Rollout),直到分出胜负。当然这个往下模拟采用了另一套搜索策略,由于在这个阶段搜索深度需要达到最终分出胜负为止,所以会采用更加简单的搜索策略,以保证在有限时间内能够搜索到决胜节点。4) Back Propagation:Simulation阶段已经搜索到最终的决胜节点。那么根据这个Simulation的最终胜负,我们会反过来更新刚刚的选择和展开的节点所在的路径。比如Simulation最后结果是我方胜,那么说明刚刚导致这个结果的所有每一步(图中粗线所经过的所有节点),都是需要表扬和肯定的。那么具体来说,会更新这些节点所对应的得分,保证在下一轮迭代的时候这些节点会有更大的几率被选中。反之,如果Simulation的最终结果是我方输,那么相应的节点都会受到惩罚,在下一轮迭代中会更小的几率被选中。那么经历过足够多轮的迭代之后(或者限定时间耗尽),迭代结束。这时候,会从当前根节点的所有探索过的子节点中,选择一个得分最高的子节点,作为最终的下一步走法。类比之前对于MinMax的分析,MCTS策略的好坏,也是建立在对子空间的选择之上的。因为不可能枚举所有的子空间,所以在Selection和Exapansion阶段,就必须有效的挑选出最有希望的走法进行Simulation。如果选择不好,则会导致浪费大量的时间在其实没有希望的子节点上,甚至是错过最终可能导致胜利的子节点。AlphaGo用两个深度神经网络来帮助这个选择:Policy Network和Value Network。其中Policy Network用来在Selection和Expansion阶段,衡量为每一个子节点打分,找出最有希望、最最需要预先展开的那个子节点。Policy Network网络的训练,是通过观察其他人类之间对弈的棋局来学习的,主要学习的目标是:“给定一个棋局,我接下来的一步应该怎么走”?(这是一个静态的过程,不用继续深入搜索更深层的子节点)为此,AlphaGo先读取KGS(一个网络围棋对战平台)上面近16万局共3000多万步的人类走法,通过Supervised Learning的方法,学习出来一个简单的SL Policy Network(同时还顺便训练出来Simulation阶段用来一路算到决胜局使用的Rollout Policy)。然后基于这个在人类棋局上学习出来的SL Policy Network, 使用强化学习(Reinforcement Learning)的方法通过自己跟自己对弈,来进一步优化Policy Network。这么做的原因,一个可能的原因是通过人类棋局学出来的SL Policy Network,受到了人类自身能力的局限性的影响(KGS棋局中包含了很多非专业棋手,实力层次不齐),学不出特别好的策略来。那不如在此基础上,自己跟自己打,在此过程中不断学习不断优化自己的策略。这就体现了计算机的优势,只要不断电,计算机可以不分昼夜不断自己跟自己下棋来磨练棋艺。RL Policy Network初始参数就是SL Policy Network的参数,但青出于蓝而胜于蓝,实验指出RL跟SL策略对弈,RL胜率超过80%。RL Policy Network也是最终应用在实际对战过程中MCTS Selection阶段的策略。Value Network是AlphaGo第一次提出来的,它的作用是为给定的局面打分,类似于之前MinMax算法中的估值函数(这也是我们提到的围棋AI中的一个难点,之前的研究都回避的这方面的工作)。Value Network可以给某个特定的局面打分,这样,在MCTS做Selection的时候,可以更准确的评估一个子节点的优劣,避免不必要的Expansion和Rollout Simulation。(图注:AlphaGo使用了Policy Network和Value Network在实战中的MCTS搜索中高效选择搜索子空间。训练过程:通过KGS上的人类棋局(Human expert positions)来学习SL Policy Network和Rollout Network,然后基于SL Policy Network进行机器自我对弈(Self-play Positioning)学习出更优秀的RL Policy Network, 最后通过RL Policy Network学习出Value Network)可以看到,AlphaGo通过当前很火的深度学习,更有效的模拟了人类的下棋策略。并且通过不间断的自我学习,不断优化这个策略。通过Policy Network和Value Network共同筛选出MCTS搜索中下一步最应该优先探索节点,AlphaGo才能在有限的计算资源下,更快速准确地找到最佳下一步。人工智能就此崛起了么?在跟李世石的首局比赛中获胜,是人工智能发展史上有一个里程碑。也有人猜测,首局比赛中李世石为了避免下出AlphaGo曾经学过的棋路,特意采取了一种比较冒险的下法,导致最终的失利。并且,作为一个人类棋手,李世石的决策还受到了心理因素的影响,而不像冷酷无情的AlphaGo,自始至终的每一轮的计算都是那么的理性和缜密。我们拭目以待接下来李世石会以什么样的策略继续迎战AlphaGo,就算AlphaGo最终还是输了,以它现在每天不吃不喝左右互搏的学习能力,假以时日赢过人类也也是非常有可能啊。那么,如果被人工智能攻克下被称为人类最后的智力优势的围棋,是否预示着人工智能就此崛起了呢?我觉得完全不用那么悲观。首先,在现有的计算机体系下,程序都是确定的(deterministic),即人类让程序怎么做,程序就只能这么做,绝对不会超过人类预先划定的范围(包括计算机产生的随机数,从某种程度上讲,也是确定的哦)。人工智能作为程序的一种类型,也遵循这么一个铁的定律。即使本文中讲到的RL Policy Network训练中的自我“学习”,也是在人类规定下进行的:迭代多少轮、每一轮怎么通过强化学习更新模型参数,都是由人一一事先确定的好的。这并不是人类意义上可以举一反三的自我学习。除非一种全新的体系诞生,让程序可以自行推理、自我复制、自我学习,在超出人类界定框架之外自我进化,并且恰巧进化出来要消灭人类这么一个念头,那才是我们真正需要担心的事情。其次,虽然现在计算机在象棋、围棋、智力问答方面已经超过了人类,能够在微秒之内完成百万之间的乘法运算,能够存储下世界上所有图书馆里面的知识 —— 但是在某些方面,连3岁的人类小孩都不如。比如人类小孩能够轻易的认出妈妈和爸爸,能够通过观察大人关灯的动作就自己学习出来墙上的开关和屋顶的电灯存在着某种联系,这些看似事对于当今最强的人工智能算法,也无法做到。所以有一些任务,如果不能被很好的抽象成一个具体的步骤序列,那么计算机根本无能为力。所以,距离真正的人工智能,还有很长的一段距离。距离战胜人类象棋冠军过去了20年,人类才刚刚造出来一个可以击败人类围棋冠军的AI,何足畏惧。不过,这次Google的AlphaGo的意义仍是非比寻常的。1997年IBM的深蓝计算机在国际象棋上击败了当时的国际象棋世界冠军,2011年IBM的Watson系统在知识问答类竞赛Jeopardy!上击败了竞赛有史以来最聪明、知识最渊博的几位人类选手。今天,终于,轮到了Google的AlphaGo,在围棋上击败了人类世界冠军李世石。虽然这只是5轮比赛的首轮,最终鹿死谁手尚未可知,但无疑今天AlphaGo的首战告捷已经成为了人工智能历史上又一个值得被载入史册的里程碑!
更重要的是,借助AlphaGo研究这个契机,一些深度学习方面的算法得以进一步被深入研究,并且可以平行借鉴到其他领域中去。如同IBM闭门5年造出来Watson Deep QA系统,在Jepardy!大赛上击败人类选手之后,除了为IBM带来了巨大声誉,也让IBM将相关技术应用到金融、医疗等领域。又如同前段时间发现引力波的LIGO的研发,其顺带的研究副产品,比如减震系统技术,也惠及了人类其他科技领域的发展。所以,AlphaGo对于人类的意义,绝不仅仅是它击败了人类围棋冠军而已。我们是这个时代的幸运者,能够见证一个新的里程碑的诞生。不管最终谁输谁赢,都是我们人类的胜利。
本文来源:网易科技报道
责任编辑:王超_NT4133
用微信扫码二维码
分享至好友和朋友圈
加载更多新闻
热门产品:   
:        
:         
热门影院:
阅读下一篇
用微信扫描二维码
分享至好友和朋友圈胜负难分:AlphaGo攻破智慧高地人机大战要来了_凤凰科技
胜负难分:AlphaGo攻破智慧高地人机大战要来了
用微信扫描二维码分享至好友和朋友圈
新年伊始,在围棋界就上演了一场惊心动魄的世纪大战,从日开始,一名身份不明、号称“Master”的神秘棋手就开始在围棋界展开挑战。
新年伊始,在围棋界就上演了一场惊心动魄的世纪大战,从日开始,一名身份不明、号称&Master&的神秘棋手就开始在围棋界展开挑战。这名不显山不露水的&扫地高僧&竟然用短短七天的时间挑战了围棋界顶尖的围棋高手,最终完成了60胜0负1和的战绩,而最后和的那场棋也是因为对方掉线无法重连造成的。回看&Master&的胜利名单中,世界排名第一的柯洁、世界冠军朴廷桓、日本围棋第一人景山裕太甚至棋圣聂卫平均在其中。早在&Master&战胜柯洁之后,就有观点认为&Master&并非人身。果然在1月4日,随着Master豪取连胜横扫围棋界之后,谷歌DeepMind发布公告,正式承认&Master&的背后正是AI机器人AlphaGo。2016年3月份,AlphaGo引起了世界范围内的关注,在对弈结束后谷歌DeepMind团队对AlphaGo进行了全面的升级。被人工智能打败的&恐惧&还未消散,而今AlphaGo再次卷土重来。不同的是,虽然2016年的那场人机大战引起了世界范围内的关注,但是在这一年人工智能还是被科技领域提及最多最被看好的概念,而2017年被业内普遍认为将会是人工智能爆发的元年,在新年伊始AlphaGo就为人工智能的发展带来了一颗重磅炸弹,让人们不由得对人工智能的期待和恐惧又多了一层思考。用围棋击败人类意味着什么2017年的开幕大战让很多人只是看个热闹,就像2016年李在石输给AlphaGo一样,并不觉得有什么大惊小怪的,不明白为何会引起世界范围内的讨论。毕竟目前手机、电脑等数码产品都会有各种电子棋,计算机打败人类似乎在很多领域、很多棋盘上早已经实现,毕竟&人脑算不过电脑&,甚至有网上的观点认为围棋大师输给AlphaGo是正常的,就好像走路跑不过汽车一样。其实关于这个问题需要知道围棋的一些基础知识,目前在人类的棋类中,围棋是最为复杂的一种,甚至被视为人类智慧的一个标志而让人类引以自豪。虽然其他棋类运动人类都已经被计算机虐得&死去活来&,但是直到AlphaGo出现之前,还没有一台计算机能够在围棋领域打败人脑。围棋的算法极为复杂而且变化多端,即便是再快的运算机器也难以在围棋棋盘的361个点位中战胜人类。而AlphaGo从2016年出现后首先以4比1的成绩打败了韩国悍将李在石,随后又在2017年横扫围棋界豪取60连胜,可以说人类目前为止智慧的最后一块高地被人工智能彻底攻下了,所以才会给予世界如此强烈的震撼。当被视为人类最高智慧的领域被自己研发出来的智能产品所打败的时候,人类就会充满期待、兴奋的同时产生各种担心和隐忧。AlphaGo并没有学习过人类的围棋算法,而是完全通过自学在和人类对弈,对于国手大师而言,AlphaGo的棋谱是&不可理喻&、&狗屁不通&的,甚至有人觉得是对围棋智慧的侮辱,然而在最后却遭到&吊打&,毫无反抗之力,AlphaGo总能够获胜,这种痛苦仿佛自己费劲心力、绞尽脑汁想要得到的东西别人却不屑一顾轻而易举就能够得到。尤其对于职业棋手而言,是一种近乎绝望的感受。所以柯洁输棋之后竟然住院了。有传言说柯洁受到了打击,甚至他本人表示:&从来没见过这样的招法,围棋还能这么下?&他感叹道,Master不按常理出牌,与之前学习的围棋路数相悖,&原来学棋时被骂的招法现在Master都下出来了&。当晚,柯洁一夜无眠。他在社交账户上说,他从很早开始研究棋软,就为了探究计算机到底强在哪里。&人类数千年的实战演练进化,计算机却告诉我们人类全都是错的。我觉得,甚至没有一个人沾到围棋真理的边。&棋圣聂卫平也感叹Master是&围棋上帝&派来给人类引路的。AlphaGo强在深度学习根据谷歌DeepMind设计团队介绍,AlphaGo的主要系统有四个部分,分别是:走棋网络,能够采样棋盘,预测下一步的走棋;快速走子,辅助走棋网络的系统,不过会牺牲走棋的质量;估值网络,根据目前棋局情况估算是白方胜利还是黑方胜利;蒙特卡罗树搜索就像是人类的神经系统把以上三个系统都连接起来形成一个完整的系统。介绍起来十分简单,但是其内部的运算方法极其复杂,而AlphaGo真正强大的原因在于其深度学习的能力。对于其他棋类运动而言,教会机器人下棋其实并不难,现在随便一台智能终端设备都能够搜索到相关的棋类游戏的应用,但是想要教一台&人工智能&学会下围棋就没有那么简单了。传统的方法是给计算机录入大量的棋谱以及可能的走法,然后构建棋盘的计算方法,套用可能走法形成一个计算系统。但是围棋并不这么简单,变化多端以及极其复杂的变盘对于计算机而言都是超大的负荷,甚至对于现在而言围棋的所有走法是否开发完全还不能确定,因此谷歌给AlphaGo加入了深度学习的方法。&深度学习&是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。这就像生物神经大脑的工作机理一样,通过合适的矩阵数量,多层组织链接一起,形成神经网络&大脑&进行精准复杂的处理,就如同人们识别物体标注图片一样。AlphaGo就可以通过两个大脑的左右互搏方法进行自我学习,甚至不需要学习人类的棋谱。人类该如何应对智能危机围棋作为人类最引以为傲的脑力运动最终在AlphaGo面前不堪一击,似乎人类最后的智慧尊严也受到了践踏。但是不得不承认的是,AlphaGo不仅学会了围棋,用围棋打败了人类历史上最伟大的棋手们,还通过自我学习的能力开拓了围棋,为人类打开了通向围棋&真理&的大门。被视为人工智能元年的2017年,AlphaGo现象不会是个案。随着人工智能的进步和发展,围棋只是个开始,现在已经有人工智能机器人写经济类的新闻稿件和战场新闻稿件了,或许通过自我学习能力,人工智能很快就会学会人类情感表达的模式。未来会计行业、绘画、音乐制作、建筑设计所有被人类称为灵魂、艺术的脑力劳动或许都将失手被人工智能所攻破。人工智能业内人士预测,100年之内,人类99%的智力劳动和100%体力劳动将会在未来被人工智能所取代。目前人工智能在很多的&人机大战&中已经展现出强大的统治力,而随着围棋这块高地的被突破,人工智能将会进一步向人类的智慧发起挑战。当年深蓝刚刚出现打败了国际象棋大师的时候,围棋的棋手们还大胆放出豪言,&放马过来,人工智能绝不会在围棋领域打败人类&,然而短短十几年的时间挑战就已经变成了现实。人工智能的脚步绝不会仅限于此,人工智能的胜利从另一个角度来讲也是人类突破自己大脑极限的成果,毕竟人工智能的开发者也是人类。未来,人工智能将会在越来越多的领域改变人类的生活。针对人工智能对人类社会的挑战已经慢慢从影视剧作品中进入现实生活,但是结局是好是坏没人能知晓。正如AlphaGo虽然棋艺看起来是在摧毁人类智力的高地,但是却为人类打开了围棋的另一扇门,更加接近&真理&。或许人工智能将会成为人类再次大跨度进步、通往一个全新世界的钥匙。文/马思遥
[责任编辑:刘正伟 PT005]
责任编辑:刘正伟 PT005
用微信扫描二维码分享至好友和朋友圈
凤凰科技官方微信
播放数:25548
播放数:5808920
播放数:5808920
播放数:5808920关于谷歌AlphaGo“人机大战” 你需要知道这些|界面新闻o科技从左至右为AlphaGo之父戴密斯·哈萨比斯、围棋世界冠军李世石、谷歌董事长施密特。图片来源:视觉中国3月9日,人工智能系统AlphaGo将挑战围棋世界冠军李世石,一场&人机大战&即将开打。3月8日上午,谷歌在韩国首尔四季酒店召开了新闻发布会,谷歌董事长施密特、人工智能系统AlphaGo之父戴密斯&哈萨比斯、围棋世界冠军李世石都出席了现场,介绍赛前各方的准备情况。
对于大家最关心的结果预计,谷歌董事长施密特表示,这次比赛无论谁胜谁负,实际上都是人类的胜利。因为正是人类的努力,才让机器学习有了现在的进展和突破。
&我们现在有很多的方式去使用AI,比如使用翻译、看视频之类的,都有AI技术在里面。&
今年初,Google DeepMind团队在《自然》(Nature)上发表论文称,其名为AlphaGo(阿尔法围棋)的人工智能系统,在没有任何让子的情况下以5比0完胜欧洲围棋冠军、职业围棋二段樊麾的消息引起了各方关注。这也被视为人工智能进入到新阶段的标志。
发布会上,李世石称,自己用了5分钟不到就决定接受机器的挑战。原因是对前些时候樊麾的战败感到震惊。&谷歌邀请的时候,我觉得自己有很长时间去准备。如果失败的话可能会对围棋的流行造成影响,人工智能能击败我们的话在我们的生命中是不可避免的事情。&
谷歌董事长施密特证实,目前有一百多个团队在用机器学习技术,其中包括Youtube和谷歌搜索等。AI已成为支撑谷歌搜索的第三大重要技术。
AlphaGo之父戴密斯&哈萨比斯介绍了机器的工作原理和准备情况,这次AlphaGo的&人机大战&取得了更高的关注度。
AlphaGo以无数的棋谱数据为基础进行深度学习,不断完善,又通过自我模拟比赛提高实力,比赛前又针对性地进行了很多测试,这几个月里AlphaGo的围棋水平得到了显著的提高。
按照戴密斯&哈萨比斯的说法,AlphaGo的优势在于它有两个神经网络。
第一个神经网络是观察棋盘布局,找到最佳的下一步,原理是预测每一个合法下一步的胜算概率;第二个神经网络是预测每一个棋手赢棋的可能,分析未来局面的&好&与&坏&,去决定怎么改变。
日,IBM的超级电脑深蓝击败了国际象棋世界冠军卡斯巴罗夫。但围棋比象棋更加复杂。戴密斯&哈萨比斯表示,在国际象棋中,计算机可以靠计算速度战胜人类,但围棋更复杂,也被认为是无法战胜人类的领域,所以AlphaGo要和李世石进行挑战。
而AlphaGo最大的优势就是不会感到害怕和胆怯,不会疲惫。谷歌团队表示,之前用了不同版本的程序、不同的棋手对它进行了测试。
面对如此强大的对手,李世石非常高兴能有这样的机会,&目前来说我还是很有信心的,因为我觉得人类的直观感受比人工智能更精确。因为这次对手是机器,以前面对的是人,可以从棋谱进行很多准备,但这次是不可能的。所以只能在脑海里自己和自己比赛,每天进行这样的训练至少2个小时以上。&
中国国家围棋队主教练俞斌则认为,&如果能赢李世石1盘,或者它赢樊麾5-0是真实的,那么我觉得机器彻底战胜人类就不远了。其实,谜底就在于它赢樊麾的5-0是不是真实的。&
谈及比赛影响,施密特认为,人工智能的相关研究触及拐点,人类比以往任何时候都更接近真正的人工智能,谷歌继续研究将产生积极的影响,因为这将对公众有益。
创新工场李开复认为,棋被认为是检验人工智能水平的一个标准。很多人的看法是,深蓝在国际象棋上战胜人类并不能代表什么。如果能在围棋上战胜人类,将代表着人工智能进入了一个新阶段。无论输赢,关于人工智能和人类未来,将会产生新一轮的讨论热潮。
点击查看直播>>
更多专业报道,请
0界面记者热爱一切有意思的东西。微信号:dumpling_wfj
邮箱:相关文章您至少需输入5个字评论()

我要回帖

更多关于 人机大战 的文章

 

随机推荐