菜单

算法的棋道

2018年12月26日 - www.bway883.com

开场白

AlphaGo两番取胜了人类围棋世界的确实王牌,世界第二的南朝鲜大王李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出信息说打败了欧洲围棋冠军樊辉并打算挑衅李世石的时候,我个人是很谨慎地说本场交锋很难讲,但事实上内心觉得AlphaGo的赢面更大。只可是当时AlphaGo克制的樊辉虽说是南美洲亚军,但全球名次都不入百,实在算不得是大王牌。但AlphaGo的优势在于有半年多的刻钟足以不眠不休地上学加强,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加我所查获的人类原来的夜郎自大,这个战内战外的要素结合在一块,固然嘴巴上说这事难讲,但心中是认同了AlphaGo会赢得。

结果,李世石赛前说比赛应该会5:0或者4:1而团结的使命就是竭尽阻止这1的面世,但实际的战况却是现在AlphaGo以2:0的比分暂时超过。且,假如不出意外的话,最终的总比分应该是AlphaGo胜出——只但是到底是5:0如故4:1,那还有待事态发展。

这一幕不由地令人回首了当时的吴清源,将拥有不屑他的敌方一一斩落,最后敢让全球先。

本来了,当今世界棋坛第一人的柯洁对此可能是不允许的,但让自己说,假若下半年AlphaGo挑衅柯洁,或者柯洁主动挑衅AlphaGo,这我要么坚决地认为,AlphaGo可以克制柯洁。

但是,这里所要说的并不是上述这个时代背景。

机械领先人类唯有是一个时间的题材,当然还有一个生人是不是肯丢下脸面去肯定的问题[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是重大,为何会输怎么会赢,这才是重点。


AlphaGo的算法

首先局对弈中,李世石开局选拔所有人都并未走过的序曲,是为了试探AlphaGo。而中后盘又并发了有目共睹的恶手,所以人们常见可以认为AlphaGo是捕捉到了李世石本身的严重性失误,这才到位的逆袭。

骨子里李世石本人也是这般觉得的。

但到了第二局,事情就完全两样了。执黑的AlphaGo竟然让李世石认为自己一向就从不真的地占据过优势,从而得以认为是被一起抑制着走到了最终。

而且,无论是第一局仍然第二局,AlphaGo都走出了颇具事情棋手都有口皆碑的高手,或者是让具有职业棋手都皱眉不接的怪手。

众多时候,明明在生意棋手看来是不应有走的落子,最后却依旧发挥了千奇百怪的效率。就连赛前认为AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

事情棋手出生的李喆连续写了两篇著作来分析这两局棋,在对棋局的分析上本人本来是不能比他更专业的。我这里所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是哪些啊?


AlphaGo的算法,可以分成四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 方针网络
  2. 立即走子
  3. 估值网络
  4. 蒙特卡洛树物色

这多少个部分有机结合在协同,就组成了AlphaGo的算法。

本来,这么说相比干燥,所以让我们从蒙特卡洛树起先做一个粗略的介绍。

当大家在玩一个游戏的时候(当然,最好是围棋象棋这种信息完全透明公开且完备没有不可知成分的游艺),对于下一步应该怎么行动,最好的点子自然是将下一步所有可能的气象都列举出来,然后分析敌方具备可能的策略,再分析自己有着可能的回答,直到最终竞赛结束。这就一定于是说,以现行的层面为种子,每趟预判都举办自然数量的分岔,构造出一棵完备的“决策树”——这里所谓的全称,是说每一种可能的将来的变动都能在这棵决策树中被反映出来,从而没有跑出决策树之外的或是。

有了决策树,我们本来可以分析,哪些下一步的表现是对团结有利的,哪些是对团结伤害的,从而选取最有利于的那一步来走。

也就是说,当我们具有完备的决策树的时候,胜负基本已经定下了,或者说怎么样回应可以战胜,基本已经定下了。

更可是一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的策略[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

所以,原则上来说,在全知全能的上帝(当然是不存在的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、日本将棋),上帝都知晓怎么走必胜,或者最多最多就是你走的刚巧和上帝所预设的一致。

但,上述完全的全称的两全的决策树,即便理论上对此围棋这样的嬉戏的话是存在的,但实在我们鞭长莫及得到。

非不过说大家人类无法取得,更是说俺们的机器也不能拿到——围棋最终的框框恐怕有3361种可能,那多少个数目超过了人类可观看宇宙中的原子总数。

就此,现在的状况是:无论是人仍然机器,都只可以明白完全决策树的一片段,而且是可怜非凡小的一部分。

故而,上述神之棋路是我们人类和机器都不能够精晓的。

之所以,人和机器就应用了肯定的手腕来多决策树做简化,至上校其简化到祥和能处理的品位。

在这个过程中,一个最自然的点子(无论对机械依旧对人来说),就是只考虑少量层次的一点一滴展开,而在那多少个层次之后的裁定开展则是不完全的。

譬如,第一步有100种可能,我们都考虑。而这100种可能的落子之后,就会有第二部的选项,这里比如有99种可能,但我们并不都考虑,我们只考虑其中的9种。那么自然两层举行有9900种可能,现在我们就只考虑之中的900种,统计量自然是极为减弱。

这里,大方向人和机械是平等的,差距在于到底哪些筛选。

对机械来说,不完全的裁定举行所利用的是蒙特卡洛办法——假定对子决策的擅自采用中好与坏的分布与完全展开的事态下的遍布是相似的,那么我们就可以用少量的妄动取样来代表全盘采样的结果。

粗略就是:我任由选多少个可能的核定,然后最进一步分析。

此地当然就存在很大的风向了:如果恰巧有一对裁决,是即兴过程并未当选的,这不就蛋疼了么?

这一点人的做法并不相同,因为人并不完全是自由做出取舍。

此处就拉扯到了所谓的棋感或者大局观。

人们在落子的时候,并不是对具备可能的不少个采用中随机选一个出去试试将来的前进,而是采取棋形、定式、手筋等等通过对局或者学习而得来的经验,来判断出如何落子的势头更高,哪些位置的落子则着力得以无视。

于是,这就应运而生了AlphaGo与李世石对局中这多少人类棋手很莫名的棋着来了——按照人类的经验,从棋形、棋感、定式等等经历出发完全不应有去走的落子,AlphaGo就走了出去。

在传统只行使蒙特卡洛树搜索的算法中,由于对落子地方的抉择以随机为主,所以棋力无法再做出提高。这等于是说机器是一个通通没学过围棋的人,完全靠着强大的总计力来预测将来几百步的向上,但这几百步中的大多数都是随机走出的不容许之棋局,没有实际的参考价值。

脸书的DarkForest和DeepMind的AlphaGo所做的,就是将原先用来图形图像分析的纵深卷积神经网络用到了对棋局的分析上,然后将分析结果用到了蒙特卡洛树搜索中。

这边,深度卷积神经网络(DCNN)的效果,是经过对棋局的图形图像分析,来分析棋局背后所隐藏的规律——用人的话来说,就是棋形对所有棋局的熏陶规律。

下一场,将这个原理效能到对决策树的剪裁上,不再是全然通过自由的情势来判定下一步应该往哪走,而是使用DCNN来分析当下的棋形,从而分析当下棋形中哪些地点的落子具有更高的价值,哪些地方的落子几乎毫无价值,从而将无价值的可能落子从决策树中减除,而对哪些具有高价值的裁决举行进一步的辨析。

那就相当于是将学习来的棋形对棋局的影响规律运用到了对前途恐怕发展的选择策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,那种学习经验的接纳可以认为分为两片段。一个是估值网络,对任何棋局大势做分析;而另一个是全速走子,对棋局的一对特征做出分析匹配。

就此,一个负担“大局观”,而另一个负责“局部判断”,这六个最终都被用来做决策的剪裁,给出有丰富深度与准确度的分析。

与之相对的,人的裁定时怎么着制定的啊?


人类的欠缺

自己即便不是王牌,只是精通围棋规则和简易的多少个定式,但人的一大特征就是,人的好多思索情势是在生存的各种领域都通用的,一般不会产出一个人在下围棋时用的思路与干此外事时的思绪彻底不同这样的图景。

于是,我可以经过分析自己与考察旁人在通常生活中的行为以及咋样导致这种行为的来头,来分析下棋的时候人类的大面积一般性策略是如何的。

这就是——人类会按照我的人性与情怀等非棋道的元素,来举行裁决裁剪。

譬如,大家平常会说一个干将的作风是闭关自守的,而另一个王牌的风格是偏向于激进厮杀的——记得人们对李世石的风骨界定就是这么。

这表示什么?这事实上是说,当下一步可能的决定有100条,其中30条偏保守,30条偏激进,40条中庸,这么个状态下,一个棋风嗜血的大王可能会选择这激进的30条政策,而忽略其它70条;而一个棋风保守的,则可能采取保守的30条政策;一个棋风稳健的,则可能是这柔和的40条政策为主。

他俩采用策略的要素不是因为这个方针可能的胜率更高,而是这一个方针所能显示出的片段的棋感更符合自己的风骨——那是与是否能制伏无关的价值判断,甚至可以说是和棋本身无关的一种判断形式,依据仅仅是投机是不是喜欢。

更进一步,人类棋手还足以遵照对手的棋风、性格等元素,来筛选出对手所可能走的棋路,从而筛选出可能的国策举行反扑。

据此,也就是说:出于人脑不能处理这样宏大的音讯、决策分岔与可能,于是人脑索性利用自身的脾气与经历等要素,做出与处理问题无关的信息筛选。

这足以说是AlphaGo与人类棋手最大的不同。

人类棋手很可能会因为风格、性格、心绪等等因素的影响,而对一些可能性做出不够尊重的判定,但这种气象在AlphaGo的算法中是不存在的。

中间,激情可以透过各个手法来遏制,但权威个人的作风与更深层次的心性元素,却完全可能导致上述弱点在友好不能控制的气象下出现。但这是AlphaGo所不有所的欠缺——当然,这不是说AlphaGo没弱点,只不过没有人类的短处罢了。

究其根本,这种经过战局外的元一直筛选战局内的决策的状态于是会油可是生,原因在于人脑的音信处理能力的供不应求(当然倘若大家总计一个单位体积仍然单位质料的处理问题的能力来说,那么人脑应该依旧优于现在的微机很多众多的,这一点毋庸置疑),从而只好通过那种手段来下滑所需分析的信息量,以担保自己可以形成任务。

这是一种在有限资源下的选取策略,牺牲广度的同时来换取深度以及最终对问题的化解。

还要,又由于人脑的这种效果并不是为着某个特定任务而支出的,而是对于所有生活与生活的话的“通识”,因此这种舍去我只可以与人的私家有关,而与要拍卖的题目无关,从而无法完成AlphaGo这样完全只透过局面的辨析来做出筛选,而是通过棋局之外的因一直做出抉择。

这就是人与AlphaGo的最大不同,可以说是独家写在基因与代码上的命门。

更进一步,人类除了上述决定筛选的通用方案之外,当然是有指向一定问题的一定筛选方案的,具体在围棋上,这就是各类定式、套路以及各种成熟或者不成熟的关于棋形与趋势的驳斥,或者仅仅是感觉。

也就是说,人通过学习来控制一些与大局特征,并运用这多少个特点来做出决定,这么些手续本身和机具所干的是一致的。但不同点在于,人想必过于看重这个已部分经验总计,从而陷入可能出现而无人小心的骗局中。

这就是本次AlphaGo数次走出有违人类经历常理的棋着但随后发觉很有用很锋利的原由——我们并不知道自己数千年来总计下来的阅历到底能在多大程度上使用于新的棋局而依然有效。

但AlphaGo的算法没有这方面的烦扰。它就算依然是采用人类的棋谱所提交的经验,利用这一个棋谱中所显示出的大局或者部分的规律,但结尾依然会经过蒙特卡洛树物色将这多少个经验运用到对棋局的推理中去,而不是直接选择这一个原理做出定式般的落子。

因此,不但定式对AlphaGo是没意义的,所谓不走平常路的新棋路对AlphaGo来说威吓也不大——这一次率先局中李世石的新棋路不就一样失效了么?因而即使吴清源再世,或者秀哉再世(佐为??),他们即使开创出全新的棋路,也无法作为自然能打败AlphaGo的遵照。

辩论上的话,只要出现过的棋谱丰盛多,那么就能找出围棋背后的法则,而这就是机械学习要打通出来的。新的棋路,本质上只是是这种规律所演变出的一种无人见过的新场景,而不是新原理。

那么,AlphaGo的欠缺是哪些?它是不是全无弱点?

这点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人同样不容许对所有可能的裁决都做出分析,尽管可以接纳各个手法来做出价值判断,并对高价值的仲裁做出浓密解析,但归根结蒂不是成套,依旧会有遗漏。那一点我就证实:AlphaGo的设想不能是兼备的。

还要,很彰着的是,即使一个人类或者展开的政策在AlphaGo看来只会带来不高的胜率,那么这种策略本身就会被拔除,从而这种方针所带动的变通就不在AlphaGo当下的考虑中。

故此,要是说存在一种棋路,它在早期的多轮思考中都不会带来高胜率,那么这种棋路就是AlphaGo“出人意料”的。

而一旦这种每一步都未曾高胜率的棋路在若干步后方可交到一个对全人类来说绝佳的局面,从而让AlphaGo不可能逆转,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它在此之前,它的每一步铺垫都是低胜率的,而最后构造出的棋形却持有相对的高胜率,这种低开高走的棋路,是会被AlphaGo忽略的。

即便我们并不知道这种棋路是否留存,以及这种棋路假使存在的话应该长什么,但我们起码知道,从理论上来说,那种棋路是AlphaGo的死角,而这一死角的留存就遵照这么些谜底:无论是人要么AlphaGo,都不容许对拥有策略的拥有衍变都了解,从而无论咋样死角总是存在的。

自然,这一驳斥上的死穴的存在性并不可以支援人类赢球,因为这要求极深的眼光和预判能力,以及要组织出一个不怕AlphaGo察觉了也已回天乏力的几乎可以说是尘埃落定的框框,这两点本身的要求就相当高,尤其在思索深度上,人类可能本就比但是机器,从而这样的死角可能最终只有机器能成就——也就是说,我们可以本着AlphaGo的算法研发一款BetaGo,专门生成战胜AlphaGo的棋路,然后人类去学学。以算法克服算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但诸如此类到底是机械赢了,仍然人赢了吗?

另一方面,上述方法即使是辩论上的AlphaGo思维的死角,本人们并不容易控制。这有没有人们得以控制的AlphaGo的死角啊?

那一点可能十分难。我觉着李喆的眼光是这些有道理的,这就是利用人类现在和野史上的整体经验。

开立异的棋局就必须直面处理你协调都未曾充足面对丰富准备过的层面,这种场馆下人类拥有前边所说过的六个毛病从而要么思考不完全要么陷入过往经验与定式的坑中没能走出去,而机械却得以更匀称地对具有可能的层面尽可能分析,思考更健全周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

转头,倘假诺人类已经研商多年万分可怜熟知的范畴,已经远非新花样可以玩出来了,那么机器的无所不包考虑就未必能比人的千年经验更占用。

于是,面对AlphaGo,人类自以为傲的创制力恐怕反而是障碍,回归传统应用传统积累才有可能胜利。

但,这样的出奇制胜等于是说:我创立力不如机器,我用自家的经验砸死你。

人类引以为傲的成立力被丢掉,机器本应更擅长的被定式却成了救人稻草,这不是很虐心么?

那么,立异棋路是否确实无法制伏AlphaGo?那一点至少从当下来看,几乎不容许,除非——

假使李世石和其它人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很充裕的新棋路,但这套棋路一向不曾被以其余款式公开过,那么如此的新棋路对AlphaGo来说可能会促成麻烦,因为本来立异中AlphaGo的平衡系数考虑或者会败给李世石等人类棋手多年的演绎专修而来的共用经验。

据此,大家现在有了三条能够制伏AlphaGo的可能之路:

  1. 因此每一步低胜率的棋着结构出一个富有极高胜率的范畴,利用先前时期的低胜率骗过AlphaGo的国策剪枝算法,可以说是钻算法的尾巴;
  2. 应用人类千年的围棋经验总计,靠传统定式而非成立力战胜思考均衡的AlphaGo,可以说是用历史打败算法;
  3. 人类棋手秘而不宣地探究没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总计学习来的经验,可以说是用创建力制服算法。

中间,算法漏洞是必杀,但人类未必能控制,只好靠将来更提高的算法,所以不算是全人类的战胜;用历史打败算法,则足以说丢弃了人类的高傲与自豪,胜之有愧;而用创制力征服算法,大概算是最有范的,但却如故很难说必胜——而且万一AlphaGo自己与温馨的千万局对弈中早就发现了这种棋路,这人类依旧会惨败。

综述,要制伏AlphaGo,实在是一条充满了费劲杰出的征程,而且未必能走到头。


人相对AlphaGo的优势

就算如此说,在围棋项目上,人必然最终败在以AlphaGo为代表的处理器算法的眼前,但这并不代表AlphaGo为表示的围棋算法就真正已经领先了人类。

问题的关键在于:AlphaGo下棋的目标,是预设在算法中的,而不是其自己生成的。

也就是说,AlphaGo之所以会去下围棋,会去全力赢围棋,因为人类设定了AlphaGo要去这样做,这不是AlphaGo自己能决定的。

这可以说是人与AlphaGo之间做大的不等。

而,进一步来分析的话,我们不由地要问:人活在这些世界上是不是真的是无预设的,完全有自己说了算的呢?

或许未见得。

席卷人在内的保有生物,基本都有一个预设的靶子,这就是要力保自己能活下来,也即求生欲。

人得以因而各类先天的阅历来讲这么些目的压制下去,但这一目的本身是写在人类的基因中的。

从这一点来看,AlphaGo的题目或许并不是被预设了一个对象,而是当前还不抱有设置自己的对象的能力,从而就越来越谈不上以协调设置的靶子覆盖预设的靶子的或是了。

那么,如何让算法可以协调设定目标吗?这一个题材可能没那么容易来回应。

而,假使将这些问题局限在围棋领域,那么就成了:AlphaGo尽管知道要去赢棋,但并不知道赢棋这多少个目标能够分解为前中后三期的子目的,比如人类经常谈及的争大势、夺实地以及尾声的大败,那类子目的。

固然在好几小片段,DCNN似乎展现了足以将问题解释为子目的并加以解决的能力,但至少在开办总体目标那么些题材上,目前的算法看来还无法。

这种自助设定目的的力量的缺乏,恐怕会是一种对算法能力的制裁,因为子目标有时候会大幅度地简化策略搜索空间的布局与大小,从而避免统计资源的荒废。

一派,人超过AlphaGo的一方面,在于人拥有将各样不同的运动共通抽象出一种通用的原理的能力。

人人得以从平日生活、体育活动、工作学习等等活动中架空出一种通用的规律并收为己用,这种规律能够认为是世界观仍然价值观,也依然其它什么,然后将这种三观运用到比如写作与下棋中,从而形成一种通过这种求实活动而呈现出团结对人生对生活的眼光的非正规风格,那种力量目前电脑的算法并无法控制。

那种将各不同世界中的规律进一步融会贯通抽象出更深一层规律的能力,原则上来说并不是算法做不到的,但我们脚下从未看到的一个最要紧的原因,恐怕是随便AlphaGo依旧Google的Atlas或者其余什么品种,都是本着一个个一定领域规划的,而不是设计来对平常生活的一体举办处理。

也就是说,在算法设计方面,大家所持的是一种还原论,将人的能力分解还原为一个个世界内的特有能力,而还从未设想如何将这个解释后的能力再重复构成起来。

但人在本来衍变过程中却不是如此,人并不是透过对一个个品类的钻研,然后汇聚成一个人,人是在直接面对通常生活中的各类领域的问题,直接演变出了大脑,然后才用这一个大脑去处理一个个特定领域内的现实问题。

故此,算法是由底向上的计划方法,而人类却是由顶向下的筹划艺术,这恐怕是五头最大的不比啊。

这也就是说,尽管在某个具体问题上,以AlphaGo为表示的微处理器的锻练样本是远大于人的,但在一体化上来说,人的练习样本却可能是远超越总括机的,因为人可以行使围棋之外的其余平日生活的运动来锻练自己的大脑。

这也许是一种新的读书算法设计方向——先规划一种可以采纳所有可以探测到的位移来锻炼自己的神经网络衍生和变化算法,然后再使用那些算法已经转移的神经网络来上学某个特定领域的问题。

www.bway883.com,这种通用的神经网络算法相对于专门领域的算法到底是优是劣,这可能在那一天出来在此以前,人类是力不从心知晓的了。


人与AlphaGo的不同

末尾,让大家回到AlphaGo与李世石的博弈上。

俺们可以看来,在那两局中,最大的一个表征,就是AlphaGo所领会的棋道,与人所知晓的棋道,看来是存在很大的不同的。

这也就是,人所计划的下围棋的算法,与人团结对围棋的明白,是不同的。

这表示怎样?

这意味着,人为了化解某个问题而设计的算法,很可能会做出与人对这么些题目标领会不同的行事来,而这些行为满意算法本身对这多少个题材的了然。

这是一件细思极恐的事,因为这意味着所有更强力量的机械可能因为清楚的两样而做出与人不同的一言一行来。这种行为人不可能知晓,也无从判断究竟是对是错是好是坏,在最终后果到来以前人根本不知道机器的行事到底是何目标。

因而,完全可能出现一种很科幻的规模:人计划了一套“能将人类社会变好”的算法,而这套算法的所作所为却令人统统不可以知晓,以至于最后的社会可能更好,但中间的行为以及给人带来的范畴却是人类有史以来想不到的。

这大概是最令人担忧的吗。

本来,就当下的话,这一天的到来大概还早,近年来我们还不用太担心。


结尾

前天是AlphaGo与李世石的第三轮对决,希望能抱有惊喜啊,当然我是说AlphaGo能为人类带来更多的大悲大喜。


正文坚守编写共享CC BY-NC-SA
4.0磋商

透过本协议,您能够大快朵颐并修改本文内容,只要您遵守以下授权条款规定:姓名标示
非商业性一如既往格局分享
具体内容请查阅上述协议声明。

正文禁止所有纸媒,即印刷于纸张之上的上上下下协会,包括但不制止转载、摘编的其他利用和衍生。网络平台如需转载必须与自家联系确认。


假诺喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的稿子》《庄重码匠圈》</small>


  1. 对,是世界第二,因为就在新年他刚好被中国围棋天才柯洁斩落马下,所以柯洁现在是社会风气第一,李世石很不佳地降落到了世界第二。当然了,AlphaGo背后的DeepMind团队打算挑衅李世石的时候,他依然世界首先。

  2. 有一个很风趣的效益,称为“AI效应”,大意就是说假若机器在某个世界跨越了人类,那么人类就会发布这一天地无法表示人类的灵性,从而从来维持着“AI不能抢先人类”的框框。这种掩耳盗铃的鸵鸟政策其实是让人叹为观止。

  3. 这一部分可以看非死不可围棋项目DarkForest在搜狐的篇章:AlphaGo的分析

  4. 策梅洛于1913年指出的策梅洛定理代表,在二人的点滴游戏中,借使双方皆具有完全的消息,并且运气因素并不牵扯在娱乐中,这先行或后行者当中必有一方有胜利/必不败的政策。

  5. 这方面,有人已经研商了一种算法,可以特意功课基于特定神经网络的上学算法,从而构造出在人看来无意义的噪声而在总括机看来却能识别出各个不存在的图样的图像。以后这种针对算法的“病毒算法”恐怕会比上学算法本身有所更大的商海和更高的关注。

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图