象棋棋力只有百分之43%,是个什么概念?

在广州找象棋培训,大多数都是想要了解象棋培训费用,象棋培训地址,象棋培训好不好,担心教学质量,学习保障。该页面为广大学员简单了介绍广州初学象棋咋玩相关的内容,方便广大学员查看,现在象棋有试听课程,可以和我们在线客服沟通帮您约好时间,来校区试听课程,这样更加方便学员们做对比。

象棋在古代多为文人墨客之间的高雅游戏,“摸子动子,落子无悔”,严格的象棋规则可以约束孩子,实事求是,不弄虚作假,遵守纪律,遵守规则,懂礼貌,尊重对方。这种良好的素养使孩子有同情心,关心别人,将来的社交能力和为人处事能力也会提高。下面小编为大家介绍“广州初学象棋咋玩”相关内容!

课程对象4-10岁的少儿

授课内容以培养小朋友的兴趣为主,在课堂上会有基本的棋道礼仪、有关于棋的知识点以及一些帮助加深小朋友记忆的儿歌舞蹈、棋类的小故事、典故和游戏。除了传授棋类的知识点外,课堂上还会需要小朋友们进行实战的训练和习题的训练。

教学特色1、采用激趣教学法,提高学员学习兴趣。2、引进智能AI科技,根据学员棋力水平匹配题目,学员练习效率更高。3、注重知识点实战运用,棋力晋升更快速。

课程对象适合报读棋力水平:4-10岁,20-6级

授课内容中炮类布局分析、全局解析;常用正和残局;兵类残局;流行布局讲解;中局战术技巧;局势分析(全局意识在此阶段逐渐建立,中局攻防方向较清晰,组杀和计算深度更进一层,盲棋越来越少,此时下出来的棋开始会有赏心悦目之感)。

教学模式流行布局体系,结合杀法、残局,快速提升棋力;全程复盘实战,全面提升学员综合素质

课程对象适合报读棋力水平:4-10岁,20-6级

授课内容反宫马布局研究、布局陷阱;高级战术技巧;中局入局手段、攻杀技巧;屏风马布局研究;单车残局运用(棋力和棋风越来越接近成年人,沉着老练,开局、中局较稳定,决定胜负往往出现在残局,此时热衷钻研的学生优势更大)。

教学模式流行布局体系,结合杀法、残局,快速提升棋力;全程复盘实战,全面提升学员综合素质

东湖棋院象棋教学效果好不好?

一个学校的教学效果只有体验过的人才有发言权,从受训者的反馈可以看出学校的教学得到了大家的认可。确实,学校拥有经验丰富的教育团队,深入研究象棋,专业技能扎实,为每个学生提供良好的教育服务。而且,在教育过程中,善于激发学生的学习兴趣,让孩子善学。

学象棋选择东湖棋院的理由

  • 东湖棋院拥有华南地区阵容强大、实力雄厚的师资队伍。目前,我院拥有136名专职员工。其中,棋圣聂卫平九段担任东湖棋院名誉院长,原中国围棋协会主席王汝南、世界冠军马晓春九段、罗洗河九段担任督学,高端教学技术骨干团队由包括许银川,吴肇毅、象棋大师汤卓光等专家领衔,教师队伍不仅棋艺精 湛,而且教学技能丰富,用有趣的故事、游戏引导学员入门,教学经验丰富的教师指导进阶,再由专业棋手执教精英学员全面提升。这种阶梯式的教学取得了优异的成绩,多年来东湖棋院培养出过百名省、市冠军学员,教学成果领业界之先。

  • 东湖棋院拥有丰富的竞赛资源组织经验,得到了社会各界的大力支持与高度认可。东湖棋院每年都承办多项大型常规赛事,现在的常规竞赛有广东省象棋级 位赛、广东省围棋定级定段赛、广东省少儿三棋百杰万人大赛、“小五羊杯”青少年象棋大赛等赛事、“迎春杯”象棋团体公开赛。其中省象棋级位赛以及围棋定级定段赛在每年的元旦、五一和国庆均 举办一次,赛事每次规模都超过2000人。东湖棋院是经中国围棋协会特批享有省一级资质可颁发段位证和级位证的专业单位。每年一次的“小五羊杯”象棋大赛也是象棋界的一大盛事,各位象棋爱好者都会在比赛中大显身手。

  • 投入大量资源致力于教研工作,在不断教学创新及教材研发过程中形成了一套与儿童学习心理及儿童学习行为相结合的独立特行的教学体系。

  • 东湖棋院一直以来都以其优异的竞赛成绩闻名。广东围棋级位赛中,东湖棋院学员常年以高达80%的升级率冠绝赛场。目前东湖棋院已培养出超过百名省、 市三棋比赛冠军。

国际象棋跟象棋有什么不同?

它们都是家长优先让孩子学习的兴趣课程之一,国际象棋是一种方格棋,它由64个黑白格子组成,棋子分为黑白两色,共有32块,每方各拿16枚进行对抗;象棋是一种中国传统的棋类拼图游戏,在中国有很长一段历史,棋子有车、炮、马、帅、兵、士、相等,按照相应的规则进行对局。这两种棋类游戏都在东湖棋院开设了相应的课程,有兴趣的可以来学习。

  • 从朋友那里听说的这家机构,说是学校的象棋课程非常专业,师资也还可以。今天,我的孩子没去幼儿园,所以我带孩子来体验。老师很有耐心,孩子也很喜欢。环境很好。在商场里,有一个供家长休息的地方,整体好评吧!

广东东湖棋院(简称东湖棋院)始建于2002年,是一家集三棋(围棋、象棋、国际象棋)培训、竞赛组织和棋类相关产品开发为主的专业棋类教育机构,历 时18年发展,累计培训学员30万人次,已发展成为中国知名的教育品牌。目前拥有30多个具备一流设备的教学基地,并与100多所幼儿园、小学、少年宫等合作。

  一:这个问题很有趣,别说50岁,其实只要我们是有上进心的人呢,无论哪一个年龄阶段,都想提升自己的象棋水平,对吗?

  我们知道胡荣华15岁就已经拿了全国冠军,但是当他55岁的时候依然还能拿全国冠军,他这一辈子拿了14次全国冠军,难道他的水平就一直没有进步过吗?当然不是的。因为落后就必须要挨打,所以胡荣华他其实也是不断的进步,那么他已经55岁了还可以拿全国冠军,也就证明了人类的脑力是有无限潜能的。

  二:我们都知道,象棋是脑力运动。但是人类的大脑40岁以后就会渐渐衰退,然而胡荣华55岁了还可以拿冠军,除了他有过人的天分天赋以外,他也是不断的在练习,提升自己的水平。既然国家特级大师可以做到的事情,我们为什么不能做到呢?人最怕就是简单重复,但是一旦把简单重复结合起来做一辈子,那我们就一定会学有所成有所成就,希望你能在象棋的道路上一直坚持下去,不管多少岁数,都一定会有一个自己满意的答卷。最后祝福你棋力大涨。

  三:棋类运动有这样一种说法:“20岁不成国手,则终生无望”,说的是棋手在20岁上下,就要出成绩了,毕竟年纪越小,棋力提高越快,成名要趁早这是棋类运动的特点之一。比如象棋界胡荣华15岁拿全国象棋冠军,围棋界柯洁17岁拿世界围棋冠军。

  具体来说,在职业象棋界,40岁上下都算棋手的巅峰年龄,40岁以上的象棋选手要么就是退役了,要么就是逐步退居二线,像胡荣华55岁还能拿全国象棋冠军,柳大华将近70岁还能活跃在象棋界,这两种情况都是特例,不能复制的。

  四:题主问50岁还能提升象棋棋力吗?答案是肯定的,活到老,学到老,无论哪行哪业,只要下功夫去学习肯定会有收获。但50岁的年龄对于学象棋来说,已经过了黄金年龄,就算再怎么去努力钻研象棋,提升的空间都不会很大。举个例子,假设50岁的一位象棋迷,现在的水平是天天象棋业余5级、6级,经过一段时间的学习是有机会达到天天象棋业余7级的,但再要提高到天天象棋业余8级、9级,基本上很难了,因为体力和精力都跟不上了。

  如果题主要自学象棋,推荐一本棋书:傅宝胜写的《象棋实战技法》,这本棋书很全面,适合自学。最后祝题主棋艺步步高升!

  50岁人还能提升象棋棋力吗?

  老炮认为这是肯定的,但特别要注意方法要得当,心态要端正,否则提升的空间都不会很大。

  五:先来分析一下中老年棋友在提高下棋水平的过程中可能会遇到的障碍:

  第一,就是体力和注意力问题

  人一旦上了年纪,对比年轻人,体力肯定是跟不上的,而且下棋时间久了,注意力也会下降,下棋的时候更容易犯错误和出现“昏招”,从而导致下棋质量不高,最终输棋。

  提升方法:下棋始终是一项体力和脑力的较量,要保证体力,平时日常生活中做适量的锻炼来保证身心健康还是有必要的;下棋时间长了,人容易头昏脑涨,如有可能,不要贪图下过多的棋,根据自身的实际情况,适量适时地去下棋。

  第二,就是下棋习惯和思维定式问题

  有不少棋友,下了几十年的棋,下棋的时候只有一个固定的套路,比如有些人喜欢过宫炮、飞相局、单提马等开局,当然了,一个布局走精走透不是坏事,但如果面对稍微学过象棋布局,懂谱招的对手,这种固定不变的套路就有点吃亏了。另外一方面,因为中老年棋友下了几十年的棋,下棋的习惯和思维也是很难再去改变了,比如有些棋友喜欢只进攻不防守,或者只喜欢防守不进攻。

  提升方法:不要求背很多象棋开局谱招,但常见的流行布局还是要稍微了解一下的,目前网上讯息很丰富,找一下相关的象棋大师最新对局也不难,或者直接买相关的象棋书籍来看也是可行的。对于下棋思维和习惯来说,短时间内是改变不了的,希望棋友们下完一盘棋可以及时去复盘、总结,把输赢得失的关键地方找出来,从而提高自己的水平。

  六:从生理上说,一般认为人的智力巅峰在30岁左右,所以专业棋手一过30就容易走下坡路。但是,人脑的实际潜能远未充分开发,只要静心钻研,棋力完全有提高可能。

  以传播更广泛的围棋为例,已仙逝的藤泽秀行老先生,60多岁时仍有新创意,把年轻棋手虐得不要不要的,是中日围棋界共同佩服的老师。还有现在仍活跃的小林光一,50多岁时还能斩获世界冠军,60多岁时还经常妙手战胜年轻冠军。

  认为年龄大后棋力无法提高的主要原因是,年纪越大,琐事越多,很难静心学习。所以,年龄不是问题,心态才是决定因素。

  首先不可否认的是,人的年纪越大,脑力和智力肯定会比年轻时候有所下降,这个是实事,不可否认!但是对于你所说的50岁还能不能再提升象棋水平,我认为这是肯定的,毕竟才50岁而已,又不是890岁。古话说的好,活到老,学到老!象棋也是下的越多,经验就越多,水平肯定也会越来越高!关键就是到底能提升多少,这个因人而异啦,跟你的学习方法或者说是悟性有关系!

  只要肯下功夫,进步肯定是会有的。但期望值必须要合理了。只要把象棋作为爱好,看淡输赢,以一种积极的心态投入其中,那你会收获喜悦和成就感。如果在下棋的过程中,能系统性的学习象棋理论,加深基本功,同时养成复盘的好习惯,不要说50,就是60岁也会提高棋力,但一个不怕输,只求进步的健康心态是必不可少的。

  象棋,可谓是中华传统的流传。在全国各地,象棋成为非常受欢迎的休闲消遣方式,甚至已经走向世界,深受全世界人民的喜爱。

  象棋一类的娱乐消遣游戏,工作累了、心情不好的时候,找几个棋友一起下下象棋,消磨一下时光,转移不好的事件注意力,挥发一下那些不好的情绪,这样无伤大雅、其实蛮好的!

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

【蓝笨笨按:根据阿尔法狗的原理,可以看出,卷积神经网络使围棋AI的模仿能力有了极大的提高,使用神经网络学习的局面策略加蒙特卡洛算法的赢棋概率,再加上左右互搏的练*,使AI的棋力有了大幅度提高。但这个提高是有上限的,这个办法也会导致在策略上有效的同时降低了部分计算路径的深度,也就是说,AI越来越像人的同时,也拥有了越来越多的人类思维的缺点,假如这个上限是职业普通一流棋手,那么AI离战胜李世石还是有很大的距离。柯洁在微博上,罗洗河等嘉宾在围棋TV网站也表达了类似的看法。】

罗洗河四子宣战AlphaGo---解密人工智能(三)

左右互搏,青出于蓝而胜于蓝?—阿尔法狗原理解析
集智俱乐部深度学习读书会:  袁行远、肖达
作者简介:袁行远,爱公益、爱科幻、爱气象的工程师,彩云天气项目发起人,北京彩彻区明科技有限公司CEO。2009年山东科技大学数学系毕业。年任普加网搜索与数据挖掘技术经理,年在淘宝网担任高级算法工程师和项目经理,负责淘宝搜索排序和用户行为分析。2013年通过竞选成为北京LEAD阳光志愿者俱乐部副主席,也是集智科学委员会学年成员。 

肖达,博士毕业于清华大学计算机系,现为北京邮电大学计算机学院讲师,彩云天气联合创始人。目前研究兴趣为认知与计算神经科学、机器学习、深度学习及其在天气预报、量化交易等领域的应用

左右互搏,青出于蓝而胜于蓝?

这些天都在没日没夜地关注一个话题,谷歌人工智能程序AlphaGo(国内网友亲切地称为“阿尔法狗”)击败欧洲职业围棋冠军樊麾二段,在围棋游戏中达到了人类职业棋手的水平。
19年前计算机击败国际象棋冠军卡斯帕罗夫的情景还历历在目,现在计算机又要来攻克围棋了吗!?
虚竹在天龙八部里自填一子,无意中以“自杀”破解“珍笼”棋局,苏星河方才亲传掌门之位。难道以后“阿尔法狗”要出任逍遥派掌门了?
1933年,东渡日本19岁的吴清源迎战当时的日本棋坛霸主、已经60岁的本因坊秀哉,开局三招即是日本人从未见过的三三、星、天元布阵,快速进击逼得对方连连暂停“打卦”和弟子商量应对之策。随后以“新布局”开创棋坛新纪元。难道阿尔法狗会再造一个“新新布局”?
作为一个关心人工智能和人类命运的理科生,近些天刷了好些报道,记者们说“阿尔法狗是个‘价值神经网络’和‘策略神经网’络综合蒙特卡洛搜索树的程序”,但我觉得光知道这些概念是不够的。我想看看“阿尔法狗”的庐山真面目。
准备好棋盘和脑容量,一起来探索吧?

围棋棋盘是19x19路,所以一共是361个交叉点,每个交叉点有三种状态,可以用1表示黑子,-1表示白字,0表示无子,考虑到每个位置还可能有落子的时间、这个位置的气等其他信息,我们可以用一个361 * n维的向量来表示一个棋盘的状态。我们把一个棋盘状态向量记为s。

当状态s下,我们暂时不考虑无法落子的地方,可供下一步落子的空间也是361个。我们把下一步的落子的行动也用361维的向量来表示,记为a。
这样,设计一个围棋人工智能的程序,就转换成为了,任意给定一个s状态,寻找最好的应对策略a,让你的程序按照这个策略走,最后获得棋盘上最大的地盘。
如果你想要设计一个特别牛逼惊世骇俗的围棋程序,你会从哪里开始呢?对于在谷歌DeepMind工作的黄世杰和他的小伙伴而言,第一招是:


深度卷积神经网络早在98年就攻克了手写数字识别,近些年在人脸识别、图像分类、天气预报等领域无往而不利,接连达到或超过人类的水平,是深度学习火遍大江南北的急先锋。我们现在看到的Picasa照片自动分类,Facebook照片识别好友,以及彩云天气高精度天气预报(软广出现,不要打我)都是此技术的应用。这等天赐宝物,如果可以用来下围棋,岂不是狂拽酷炫吊炸天?
所以2015年黄世杰发表在ICLR的论文[3]一上来就使出了“深度神经网络”的杀招,从网上的围棋对战平台KGS(外国的qq游戏大厅)可以获得人类选手的围棋对弈的棋局。观察这些棋局,每一个状态s,都会有一个人类做出的落子a,这不是天然的训练样本<s,a>吗?如此可以得到3000万个样本。我们再把s看做一个19x19的二维图像(具体是19x19 x n,n是表示一些其他feature),输入一个卷积神经网络进行分类,分类的目标就是落子向量a’,不断训练网络,尽可能让计算机得到的a’接近人类高手的落子结果a,不就得到了一个模拟人类棋手下围棋的神经网络了吗?
于是我们得到了一个可以模拟人类棋手的策略函数P_human,给定某个棋局状态s,它可以计算出人类选手可能在棋盘上落子的概率分布a = P_human(s),如下图:

红圈就是P_human觉得最好的落子方案。每一步都选择概率最高的落子,对方对子后再重新计算一遍,如此往复就可以得到一个棋风类似人类的围棋程序。
这个基于“狂拽酷炫”深度学习的方案棋力如何呢?

不咋地。黄世杰说P_human已经可以和业余6段左右的人类选手过招,互有胜负,但还未能超过当时最强的电脑程序CrazyStone,距离人类顶尖玩家就差得更远了。

所以,为求更进一步,黄世杰打算把P_human和CrazyStone的算法结合一下,师夷长技以制夷,先击败所有的其他围棋AI再说。

哦,那个算法是黄世杰的老师Remi Coulum在2006年对围棋AI做出的另一个重大突破:
MCTS,蒙特卡洛搜索树

Search)是一种“大智若愚”的方法。面对一个空白棋盘S0,黄世杰的老师Coulum最初对围棋一无所知,便假设所有落子方法分值都相等,设为1。然后扔了一个骰子,从361种落子方法中随机选择一个走法a0。Coulum想象自己落子之后,棋盘状态变成S1,然后继续假设对手也和自己一样二逼,对方也扔了一个筛子,随便瞎走了一步,这时棋盘状态变成S2,于是这两个二逼青年一直扔骰子下棋,一路走到Sn,最后肯定也能分出一个胜负r,赢了就r记为1,输了则为0,假设这第一次r=1。这样Coulum便算是在心中模拟了完整的一盘围棋。

Coulum心想,这样随机扔骰子也能赢?运气不错啊,那把刚才那个落子方法(S0,a0)记下来,分值提高一些:
新分数= 初始分+ r
我刚才从(S0, a0)开始模拟赢了一次,r=1,那么新分数=2,除了第一步,后面几步运气也不错,那我把这些随机出的局面所对应落子方法(Si,ai)的分数都设为2吧。然后Coulum开始做第二次模拟,这次扔骰子的时候Coulum对围棋已经不是一无所知了,但也知道的不是太多,所以这次除(S0, a0)的分值是2之外,其他落子方法的分数还是1。再次选择a0的概率要比其他方法高一点点。

那位假想中的二逼对手也用同样的方法更新了自己的新分数,他会选择一个a1作为应对。如法炮制,Coulum又和想象中的对手又下了一盘稍微不那么二逼的棋,结果他又赢了,Coulum于是继续调整他的模拟路径上相应的分数,把它们都+1。随着想象中的棋局下得越来越多,那些看起来不错的落子方案的分数就会越来越高,而这些落子方案越是有前途,就会被更多的选中进行推演,于是最有“前途”的落子方法就会“涌现”出来。

最后,Coulum在想象中下完10万盘棋之后,选择他推演过次数最多的那个方案落子,而这时,Coulum才真正下了第一步棋。
蒙特卡洛搜索树华丽转身为相当深刻的方法,可以看到它有两个很有意思的特点:
    1)没有任何人工的feature,完全依靠规则本身,通过不断想象自对弈来提高能力。这和深蓝战胜卡斯帕罗夫完全不同,深蓝包含了很多人工设计的规则。MCTS靠的是一种类似遗传算法的自我进化,让靠谱的方法自我涌现出来。让我想起了卡尔文在《大脑如何思维》中说的思维的达尔文主义[6]。

2)MCTS可以连续运行,在对手思考对策的同时自己也可以思考对策。Coulum下完第一步之后,完全不必要停下,可以继续进行想象中的对弈,直到对手落子。Coulum随后从对手落子之后的状态开始计算,但是之前的想象中的对弈完全可以保留,因为对手的落子完全可能出现在之前想象中的对弈中,所以之前的计算是有用的。这就像人在进行对弈的时候,可以不断思考,不会因为等待对手行动而中断。这一点Coulum的程序非常像人,酷毙了。
但黄世杰很快意识到他老师的程序仍然有局限:初始策略太简单。我们需要更高效地扔骰子。
如何更高效的扔骰子呢?

黄世杰改进了MCTS,一上来不再是二逼青年随机掷骰子,而是先根据P_human的计算结果来得到a可能的概率分布,以这个概率来挑选下一步的动作。一次棋局下完之后,新分数按照如下方式更新:
新分数= 调整后的初始分+ 通过模拟得到的赢棋概率

如果某一步被随机到很多次,就应该主要依据模拟得到的概率而非P_human
所以P_human的初始分会被打个折扣:
调整后的初始分= P_human/(被随机到的次数+ 1)
这样就既可以用P_human快速定位比较好的落子方案,又给了其他位置一定的概率。看起来很美,然后实际操作中却发现:“然并卵”。因为,P_human()计算太慢了。
一次P_human()计算需要0.3ms,相对于原来随机扔骰子不到1us,慢了3000倍。如果不能快速模拟对局,就找不到妙招,棋力就不能提高。所以,黄世杰训练了一个简化版的P_human_fast(),把神经网络层数、输入特征都减少,耗时下降到了2us,基本满足了要求。先以P_human()来开局,走前面大概20多步,后面再使用P_human_fast()快速走到最后。兼顾了准确度和效率。
这样便综合了深度神经网络和MCTS两种方案,此时黄世杰的围棋程序已经可以战胜所有其他电脑,虽然距离人类职业选手仍有不小的差距,但他在2015年那篇论文的最后部分信心满满的表示:“我们围棋软件所使用的神经网络和蒙特卡洛方法都可以随着训练集的增长和计算力的加强(比如增加CPU数)而同步增强,我们正前进在正确的道路上。”
看样子,下一步的突破很快就将到来。同年2月,黄世杰在Deepmind的同事在顶级学术期刊nature上发表了“用神经网络打游戏”的文章[2]。这篇神作,为进一步提高MCTS的棋力,指明了前进的新方向:
左右互搏,自我进化
红白机很多人小时候都玩过,你能都打通吗?黄世杰的同事通过“强化学习”方法训练的程序在类似红白机的游戏机上打通了200多个游戏,大多数得分都比人类还好。

“强化学习”是一类机器学习方法,Agent通过和环境s的交互,选择下一步的动作a,这个动作会影响环境s,给Agent一个reward,Agent然后继续和环境交互。游戏结束的时候,Agent得到一个最后总分r。这时我们把之前的环境状态s、动作a匹配起来就得到了一系列<s,a>,设定目标为最后的总得分r,我们可以训练一个神经网络去拟合在状态s下,做动作a的总得分。下一次玩游戏的时候,我们就可以根据当前状态s,去选择最后总得分最大的动作a。通过不断玩游戏,我们对<s,a>下总得分的估计就会越来越准确,游戏也玩儿得越来越好。
打砖块游戏有一个秘诀:把球打到墙的后面去,球就会自己反弹得分。强化学习的程序在玩了600盘以后,学到这个秘诀:球快要把墙打穿的时候评价函数v的分值就会急剧上升。   

黄世杰考虑给围棋也设计一个评价函数v(s),在P_human()想象自己开局走了20多步之后,不需要搜索到底,如果有一个v(s)可以直接判断是否能赢,得到最后的结果r,这样肯定能进一步增加MCTS的威力。
黄世杰已经有了国外的qq游戏大厅KGS上的对局,但是很遗憾这些对局数量不够,不足以得到局面评价函数v。但是没关系,我们还可以左右互搏自对弈创造新的对局。
机器学习的开山鼻祖Samuel早在1967年就用自对弈的方法来学习国际跳棋[7],而之前的蒙特卡洛搜索树也是一个自对弈的过程。但是现在黄世杰不仅有一个从人类对弈中学习出的P_human这样一个高起点,而且有一个神经网络可以从对弈样本中学习,有理由相信这次会有更好的结果。

先用P_human和P_human对弈,比如1万局,就得到了一万个新棋谱,加入到训练集当中,训练出P_human_1。然后再让P_human_1和P_human_1对局,得到另外一万个新棋谱,这样可以训练出P_human_2,如此往复,可以得到P_human_n。P_human_n得到了最多的训练,棋力理应比原来更强。我们给最后这个策略起一个新名字:P_human_plus。这时,再让P_human_plus和P_human对局,在不用任何搜索的情况下胜率可达80%,不加任何搜索策略的P_human_plus和开源的MCTS相比也有85%的胜率。自对弈方法奏效了。
既然P_human_plus这么强,我们先代入到MCTS中试试,用P_human_plus来开局,剩下的用P_human_fast。可惜,这样的方法棋力反而不如用P_human。黄世杰认为是因为P_human_plus走棋的路数太集中,而MCTS需要发散出更多的选择才好。看来,P_human_plus练功还是太死板,还没有进入无招胜有招的境界。
没关系,黄世杰还有局面评价函数v(s)这一招,有了v(s),如果我可以一眼就看到“黑棋大势已去”,我就不用MCTS在想象中自我对弈了。但考虑到P_human_plus的招法太过集中,黄世杰在训练v()的时候,开局还是先用P_human走L步,这样有利于生成更多局面。黄世杰觉得局面还不够多样化,为了进一步扩大搜索空间,在L+1步的时候,干脆完全随机掷一次骰子,记下这个状态SL+1,然后后面再用P_human_plus来对弈,直到结束获得结果r。如此不断对弈,由于L也是一个随机数,我们就得到了开局、中盘、官子不同阶段的很多局面s,和这些局面对应的结果r。有了这些训练样本<s,r>,还是使用神经网络,把最后一层的目标改成回归而非分类,黄世杰就可以得到一个v()函数,输出赢棋的概率。


 v()可以给出下一步落子在棋盘上任意位置之后,如果双方都使用P_human_plus来走棋,我方赢棋的概率。如果训练v()的时候全部都使用P_human不用P_human_plus呢?实验表明基于P_human_plus训练的v,比基于P_human训练的v’,棋力更强。强化学习确实有效。

万事俱备,只欠东风。准备好P_human(),MCTS,以及评价函数v(),黄世杰和小伙伴们继续进击,向着可以和人类专业选手过招的围棋AI前进:

黄世杰准备在MCTS框架之上融合局面评估函数v()。这次还是用P_human作为初始分开局,每局选择分数最高的方案落子,下到第L步之后,改用P_human_fast把剩下的棋局走完,同时调用v(SL),评估局面的获胜概率。然后按照如下规则更新整个树的分数:

新分数= 调整后的初始分+ 0.5 * 通过模拟得到的赢棋概率 + 0.5 * 局面评估分
前两项和原来一样,如果待更新的节点就是叶子节点,那局面评估分就是v(SL)。如果是待更新的节点是上级节点,局面评估分是该节点所有叶子节点v()的平均值。
如果v()表示大局观,“P_human_fast模拟对局”表示快速验算,那么上面的方法就是大局观和快速模拟验算并重。如果你不服,非要做一个0.5: 0.5之外的权重,黄世杰团队已经实验了目前的程序对阵其他权重有95%的胜率。
以上,便是阿尔法狗的庐山真面目。

上图演示了阿尔法狗和樊麾对弈时的计算过程,阿尔法狗执黑,红圈是阿尔法狗实际落子的地方。1、2、3和后面的数字表示他想象中的之后双方下一步落子的地方。白色方框是樊麾的实际落子。在复盘时,樊麾觉得位置1的走法更好。
深度学习、蒙特卡洛搜索树,自我进化三招齐出,所有其他围棋ai都毫无还手之力。99%的胜率不说,“阿尔法狗”还可以在让四子的情况下以77%的胜率击败crazystone。“阿尔法狗”利用超过170个GPU,粗略估算超过800万核并行计算,不仅有前期训练过程中模仿人类,自我对弈不断进化,还有实战时的模拟对局可以实时进化,已经把现有方法发挥到了极限,是目前人工智能领域绝对的巅峰之作。
围棋是NP-hard问题,如果用一个原子来存储围棋可能的状态,把全宇宙的原子加起来都不够储存所有的状态。于是我们把这样的问题转换为寻找一个函数P,当状态为S时,计算最优的落子方案a = P(s)。我们看到,无论是“狂拽酷炫”的深度学习,还是“大智若愚”的MCTS,都是对P(s)的越来越精确的估计,但即使引入了“左右互搏”来强化学习,黄世杰仍然做了大量的细节工作。所以只有一步一个脚印,面对挑战不断拆解,用耐心与细心,还有辛勤的汗水,才能取得一点又一点的进步,而这些进步积累在一起,终于让计算机达到了人类职业选手的水平。

据说谷歌接下来要增加20倍的算力,动用全球分布式集群,超过2000个GPU与前世界冠军李世乭决战。如此,计算机的棋力会提高20倍吗?从黄世杰团队公布的数据看,增加GPU并不能够带来棋力的线性增长,最终会有一个极限。

陈景润攻克(1+2)时,就是把当时所有的数学分析方法都用到了极限,但没有理论上的重大突破,还是很难攻克“哥德巴赫猜想”。这和今天的“阿尔法狗”有些类似。围棋世界冠军,前几天刚刚击败李世乭的19岁中国围棋天才少年柯洁也是这样认为。

因为一盘棋走一步需要0.3ms(P_human_plus遍历整个棋盘的时间),谷歌用大规模集群进行并行化计算,自我对弈3000万盘棋生成训练集只需要一天左右的时间[4],所以如果对弈更多棋局可以提高棋力的话,黄世杰他们早就做了。目前的方案可能已经达到了CNN网络能力的极限。完整的阿尔法狗不仅需要生成训练集,还要用训练集来生成局面评估函数v(),而这还使用了两周时间,这也许是阿尔法狗并没有能够完全使用强化学习,而仅仅是在整个过程的一小部分使用左右互搏的原因。左右互博用的还不够多,这是一个遗憾。
如果存在一个“围棋之神”,一个已经穷尽了所有的围棋步法的“上帝”,那他每一步都是最优应对。一些顶尖棋手在接受采访时表示[8],“围棋之神”对战人类选手可能还有让4子的空间,也就是说,就算下赢了人类,计算机也还有很大进步的空间。
面对一个如此高难度的问题,计算机和人类都无法在有限时间内找到完全的规律(柯洁和李世乭比赛是一人有3小时时间思考,阿尔法狗今年3月准备和李世乭进行的比赛则是每人1小时的快棋)。计算机和人都是在对问题做抽象,然后搜索最佳策略。要下好围棋所需要的能力已经接近人类智力的极限:要有大局观、要懂得取舍、还要会精打细算,治理一个国家也不过如此。计算机可以学会围棋,就能学会很多一样难度的技能。在未来,也许围棋、自动驾驶、同声传译都会被一一攻克。甚至在数论、量子场论等领域,深度学习和搜索相结合,可能也会带给我们更多惊喜,比如攻克“哥德巴赫猜想”。
那么,人工智能是否真的会很快登顶呢?

虽然在智力方面AI有希望登峰造极,但高智商只是人类众多能力的一个方面。吴清源先生在方寸之间纵横无敌,但仍然漂泊一生,被命运推着前进。早年他做段祺瑞的门客,棋盘上把段祺瑞打的落花流水,弄得下人都没有早饭吃;后来东渡日本,三易国籍,留下许多遗憾。如果把“强人工智能”比作一个天才少年,虽然智商爆表,但其他方面还需要我们悉心加以引导。创造出“德才兼备,匡扶济世”的人工智能,才是我辈真正应该努力实现的目标。
一起加油吧,科学少年们!

我要回帖

更多关于 国际象棋僵局判定 的文章

 

随机推荐