菜单

算法的棋道

2018年12月25日 - bway883必威官网

开场白

AlphaGo两番折桂了人类围棋世界的着实上手,世界第二的韩国大王李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出音讯说克服了亚洲围棋亚军樊辉并打算挑衅李世石的时候,我个人是很小心地说本场交锋很难讲,但其实内心觉得AlphaGo的赢面更大。只可是当时AlphaGo克制的樊辉虽说是非洲冠军,但全球排行都不入百,实在算不得是大王牌。但AlphaGo的优势在于有半年多的岁月足以不眠不休地读书加强,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加自己所获悉的人类原来的夜郎自大,这一个战内战外的要素构成在一块儿,即使嘴巴上说这事难讲,但内心是确认了AlphaGo会赢得。

结果,李世石赛前说竞技应该会5:0或者4:1而自己的使命就是拼命三郎阻止这1的产出,但实则的战况却是现在AlphaGo以2:0的比分暂时超越。且,假设不出意外的话,最后的总比分应该是AlphaGo胜出——只可是到底是5:0依然4:1,这还有待事态发展。

这一幕不由地令人想起了当初的吴清源,将有着不屑他的敌方一一斩落,最后敢让中外先。

当然了,当今世界棋坛第一人的柯洁对此可能是不同意的,但让自身说,假如下半年AlphaGo挑衅柯洁,或者柯洁主动挑衅AlphaGo,这我仍然坚决地以为,AlphaGo可以摆平柯洁。

可是,这里所要说的并不是上述这多少个时代背景。

机械超过人类只有是一个时辰的问题,当然还有一个生人是不是肯丢下脸面去肯定的题目[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是紧要,为何会输怎么会赢,这才是第一。


AlphaGo的算法

第一局对弈中,李世石开局选取所有人都没有走过的起初,是为着试探AlphaGo。而中后盘又出现了有目共睹的恶手,所以人们普遍可以认为AlphaGo是捕捉到了李世石本身的重要失误,这才形成的翻盘。

实质上李世石本人也是如此认为的。

但到了第二局,事情就完全不同了。执黑的AlphaGo竟然让李世石认为自己有史以来就一向不当真地占有过优势,从而能够认为是被一并抑制着走到了最后。

而且,无论是第一局仍旧第二局,AlphaGo都走出了拥有职业棋手都叹为观止的大王,或者是让拥有事情棋手都皱眉不接的怪手。

有的是时候,明明在职业棋手看来是不应当走的落子,最终却仍旧发挥了奇幻的效率。就连赛前认为AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

工作棋手出生的李喆连续写了两篇作品来分析这两局棋,在对棋局的剖析上我本来是不能比她更规范的。我这里所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是咋样吧?


AlphaGo的算法,可以分为四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 政策网络
  2. 高效走子
  3. 估值网络
  4. 蒙特卡洛树寻找

这两个部分有机构成在一起,就整合了AlphaGo的算法。

本来,这么说相比干燥,所以让我们从蒙特卡洛树启幕做一个简练的介绍。

当我们在玩一个游戏的时候(当然,最好是围棋象棋这种信息通通透明公开且完备没有不可知成分的一日游),对于下一步应该怎么着行动,最好的艺术自然是将下一步所有可能的情况都列举出来,然后分析敌方具备可能的国策,再分析自己独具可能的答应,直到最后比赛截止。这就相当于是说,以明日的框框为种子,每四次预判都举办自然数量的分岔,构造出一棵完备的“决策树”——这里所谓的全称,是说每一种可能的前途的生圣多明各能在这棵决策树中被反映出来,从而没有跑出决策树之外的或者。

有了决策树,大家自然可以分析,哪些下一步的行事是对协调有利的,哪些是对友好伤害的,从而选用最利于的那一步来走。

也就是说,当我们所有完备的决策树的时候,胜负基本已经定下了,或者说如何应对可以制伏,基本已经定下了。

更极端一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的政策[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

据此,原则上的话,在全知全能的上帝(当然是不设有的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、日本将棋),上帝都了解怎么走必胜,或者最多最多就是您走的刚巧和上帝所预设的一律。

但,上述完全的全称的全面的决策树,即使理论上对此围棋这样的嬉戏的话是存在的,但实在我们鞭长莫及赢得。

非可是说俺们人类无法得到,更是说咱俩的机械也无能为力得到——围棋最终的局面可能有3361种可能,那么些数据超越了人类可观看宇宙中的原子总数。

之所以,现在的情事是:无论是人或者机器,都只能了然完全决策树的一有的,而且是那么些特别小的一局部。

由此,上述神之棋路是我们人类和机具都心有余而力不足控制的。

于是,人和机器就动用了自然的一手来多决策树做简化,至将官其简化到自己能处理的品位。

在这一个历程中,一个最自然的法门(无论对机器如故对人的话),就是只考虑少量层次的一心展开,而在这个层次之后的核定举办则是不完全的。

譬如,第一步有100种可能,大家都考虑。而这100种可能的落子之后,就会有第二部的取舍,这里比如有99种可能,但我们并不都考虑,大家只考虑其中的9种。那么自然两层举行有9900种可能,现在大家就只考虑其中的900种,总计量自然是极为减弱。

此间,大方向人和机械是同一的,差距在于到底怎么样筛选。

对机器来说,不完全的仲裁开展所采纳的是蒙特卡洛办法——假定对子决策的妄动选择中好与坏的遍布与完全展开的意况下的分布是形似的,那么大家就足以用少量的肆意取样来代表全盘采样的结果。

简单易行就是:我不管选多少个可能的决定,然后最进一步分析。

这边当然就存在很大的风向了:倘诺恰巧有一对核定,是即兴过程没有入选的,这不就蛋疼了么?

那点人的做法并不相同,因为人并不完全是自由做出取舍。

这里就牵涉到了所谓的棋感或者大局观。

众人在落子的时候,并不是对富有可能的众三个选取中随机选一个出去试试未来的开拓进取,而是采用棋形、定式、手筋等等通过对局或者学习而得来的经验,来判定出什么样落子的方向更高,哪些地点的落子则基本可以无视。

所以,这就应运而生了AlphaGo与李世石对局中那个人类棋手很莫名的棋着来了——遵照人类的经历,从棋形、棋感、定式等等经历出发完全不应有去走的落子,AlphaGo就走了出来。

在传统只行使蒙特卡洛树搜索的算法中,由于对落子地点的采取以随机为主,所以棋力不可能再做出提高。这等于是说机器是一个通通没学过围棋的人,完全靠着强大的统计力来预测未来几百步的迈入,但这几百步中的大多数都是随机走出的不能够之棋局,没有实际的参考价值。

非死不可的DarkForest和DeepMind的AlphaGo所做的,就是将本来用以图形图像分析的吃水卷积神经网络用到了对棋局的辨析上,然后将分析结果用到了蒙特卡洛树搜索中。

此地,深度卷积神经网络(DCNN)的效应,是通过对棋局的图形图像分析,来分析棋局背后所隐藏的原理——用人的话来说,就是棋形对所有棋局的影响规律。

下一场,将这些原理效率到对决策树的剪裁上,不再是一心通过自由的措施来判定下一步应该往哪走,而是使用DCNN来分析当下的棋形,从而分析当下棋形中什么地点的落子具有更高的市值,哪些地方的落子几乎毫无价值,从而将无价值的可能落子从决策树中减除,而对怎么着具有高价值的裁定举行更加的辨析。

这就相当于是将学习来的棋形对棋局的影响规律运用到了对前途恐怕发展的选项策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,这种上学经验的使用可以认为分为两有的。一个是估值网络,对全体棋局大势做分析;而另一个是迅速走子,对棋局的有的特征做出分析匹配。

之所以,一个顶住“大局观”,而另一个担负“局部判断”,这多少个最后都被用来做决定的剪裁,给出有充分深度与准确度的辨析。

与之相对的,人的仲裁时怎么制订的吗?


人类的缺点

本身即便不是王牌,只是精晓围棋规则和简易的几个定式,但人的一大特色就是,人的多多思考模式是在生活的各种领域都通用的,一般不会出现一个人在下围棋时用的笔触与干此外事时的笔触彻底不同那样的场馆。

据此,我得以因此分析自己与考察外人在通常生活中的行为以及哪些造成这种表现的由来,来分析下棋的时候人类的大规模一般性策略是哪些的。

这就是——人类会遵照自己的性情与心情等非棋道的元素,来进展表决裁剪。

譬如说,大家平日会说一个一把手的品格是因循守旧的,而另一个大师的作风是偏向于激进厮杀的——记得人们对李世石的风格界定就是这么。

这代表什么样?这实际上是说,当下一步可能的仲裁有100条,其中30条偏保守,30条偏激进,40条中庸,这么个情景下,一个棋风嗜血的大王可能会选拔这激进的30条政策,而忽视此外70条;而一个棋风保守的,则可能选取保守的30条政策;一个棋风稳健的,则可能是这柔和的40条方针为主。

他俩采纳策略的元素不是因为那一个方针可能的胜率更高,而是这个政策所能展现出的片段的棋感更切合自己的风骨——这是与是否能打败无关的市值判断,甚至可以说是和棋本身无关的一种判断情势,遵照仅仅是团结是不是喜欢。

更进一步,人类棋手还是可以够依据对手的棋风、性格等因素,来筛选出对手所可能走的棋路,从而筛选出可能的国策进行回击。

之所以,也就是说:是因为人脑不可能处理这样宏大的音讯、决策分岔与可能,于是人脑索性利用自身的秉性与经验等因素,做出与拍卖问题无关的消息筛选。

那足以说是AlphaGo与人类棋手最大的例外。

人类棋手很可能会因为风格、性格、心理等等因素的影响,而对少数可能性做出不够尊重的判定,但这种景观在AlphaGo的算法中是不存在的。

中间,心思可以经过各个手法来抑制,但权威个人的品格与更深层次的心性元素,却浑然可能导致上述弱点在温馨无法控制的景色下出现。但这是AlphaGo所不具有的毛病——当然,这不是说AlphaGo没弱点,只不过没有人类的通病罢了。

究其一向,这种通过战局外的因从来筛选战局内的决定的状况于是会出现,原因在于人脑的音讯处理能力的供不应求(当然假使我们总计一个单位体积依然单位质地的处理问题的力量来说,那么人脑应该仍旧优于现在的微机很多众多的,这点毋庸置疑),从而只好通过这种手法来降低所需分析的新闻量,以担保自己可以成功任务。

这是一种在有限资源下的拔取策略,牺牲广度的还要来换取深度以及最终对题目的缓解。

并且,又由于人脑的这种效应并不是为着某个特定任务而支付的,而是对于所有生存与生存的话的“通识”,因而这种舍去自己只可以与人的私有有关,而与要处理的问题无关,从而不能够完成AlphaGo这样完全只通过局面的辨析来做出筛选,而是经过棋局之外的元平昔做出取舍。

这就是人与AlphaGo的最大不同,可以说是个别写在基因与代码上的命门。

更进一步,人类除了上述决定筛选的通用方案之外,当然是有指向一定问题的一定筛选方案的,具体在围棋上,这就是各种定式、套路以及各样成熟或者不成熟的有关棋形与动向的争鸣,或者仅仅是觉得。

也就是说,人通过学习来支配一些与大局特征,并采纳这个特色来做出决定,这一个手续本身和机器所干的是千篇一律的。但不同点在于,人可能过于看重这一个已有些经验统计,从而陷入可能出现而无人专注的骗局中。

这就是本次AlphaGo数次走出有违人类经历常理的棋着但后来发觉很有用很辛辣的因由——大家并不知道自己数千年来总计下来的经验到底能在多大程度上行使于新的棋局而依然有效。

但AlphaGo的算法没有这下面的苦恼。它尽管依旧是运用人类的棋谱所提交的阅历,利用这几个棋谱中所呈现出的全局或者有些的法则,但结尾依旧会经过蒙特卡洛树找寻将这一个经验运用到对棋局的推理中去,而不是直接利用这么些原理做出定式般的落子。

由此,不但定式对AlphaGo是没意义的,所谓不走经常路的新棋路对AlphaGo来说威吓也不大——本次先是局中李世石的新棋路不就同一失效了么?因而即使吴清源再世,或者秀哉再世(佐为??),他们不怕开创出全新的棋路,也不可能看做自然能打败AlphaGo的按照。

理论上的话,只要出现过的棋谱丰硕多,那么就能找出围棋背后的法则,而这就是机器学习要挖掘出来的。新的棋路,本质上不过是这种规律所演变出的一种无人见过的新景色,而不是新原理。

这就是说,AlphaGo的缺点是怎样?它是不是全无弱点?

这一点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人同样无法对所有可能的裁决都做出分析,虽然可以行使各类手段来做出价值判断,并对高价值的仲裁做出深切剖析,但毕竟不是全方位,仍旧会有遗漏。这一点自己就印证:AlphaGo的考虑无法是齐全的。

还要,很醒目标是,倘若一个人类或者开展的策略在AlphaGo看来只会带来不高的胜率,那么这种政策本身就会被消除,从而这种策略所带来的生成就不在AlphaGo当下的考虑中。

故而,即便说存在一种棋路,它在最初的多轮思考中都不会带动高胜率,那么这种棋路就是AlphaGo“意想不到”的。

而一旦这种每一步都未曾高胜率的棋路在多少步后方可交给一个对人类来说绝佳的范围,从而让AlphaGo不可以逆转,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它前面,它的每一步铺垫都是低胜率的,而结尾构造出的棋形却有着绝对的高胜率,这种低开高走的棋路,是会被AlphaGo忽略的。

即便如此大家并不知道这种棋路是否存在,以及那种棋路要是存在的话应当长什么样,但我们足足知道,从理论上的话,这种棋路是AlphaGo的死角,而这一死角的留存就遵照那么些实际:无论是人或者AlphaGo,都无法对负有策略的保有衍变都控制,从而无论如何死角总是存在的。

自然,这一驳斥上的死穴的存在性并无法帮忙人类赢球,因为这要求极深的眼光和预判能力,以及要结构出一个尽管AlphaGo察觉了也已回天乏力的几乎可以说是注定的范畴,这两点本身的要求就非凡高,尤其在盘算深度上,人类可能本就比不过机器,从而这样的死角可能最终只有机器能不负众望——也就是说,大家得以针对AlphaGo的算法研发一款BetaGo,专门生成战胜AlphaGo的棋路,然后人类去学学。以算法制伏算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但诸如此类到底是机械赢了,仍然人赢了吗?

一边,上述模式即使是辩论上的AlphaGo思维的死角,本人们并不容易控制。这有没有人们得以控制的AlphaGo的死角啊?

这一点或者非常难。我以为李喆的理念是老大有道理的,这就是运用人类现在和野史上的共同体经验。

创办新的棋局就非得面对处理你自己都尚未丰盛面对充足准备过的规模,这种情景下人类抱有前边所说过的三个毛病从而要么思考不完全要么陷入过往经验与定式的坑中没能走出去,而机械却足以更均匀地对具有可能的范围尽可能分析,思考更健全周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

扭曲,淌假设人类已经研究多年充足丰裕熟谙的范畴,已经远非新花样可以玩出来了,那么机器的宏观考虑就未必能比人的千年经验更占用。

由此,面对AlphaGo,人类自以为傲的创设力恐怕反而是障碍,回归传统应用传统积累才有可能胜利。

但,这样的大捷等于是说:我成立力不如机器,我用自己的经验砸死你。

人类引以为傲的创制力被丢掉,机器本应更善于的被定式却成了救人稻草,这不是很虐心么?

那么,立异棋路是否确实不可以打败AlphaGo?那点至少从当下来看,几乎不容许,除非——

假定李世石和其余人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很充足的新棋路,但这套棋路一直没有被以其余款式公开过,那么如此的新棋路对AlphaGo来说可能会促成麻烦,因为本来立异中AlphaGo的动态平衡周全考虑或者会败给李世石等人类棋手多年的演绎专修而来的共用经验。

因此,大家现在有了三条可以克制AlphaGo的可能之路:

  1. 经过每一步低胜率的棋着布局出一个具有极高胜率的框框,利用先前时期的低胜率骗过AlphaGo的政策剪枝算法,能够说是钻算法的尾巴;
  2. 利用人类千年的围棋经验总计,靠传统定式而非创制力战胜思考均衡的AlphaGo,可以说是用历史打败算法;
  3. 人类棋手秘而不宣地商量没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总括学习来的阅历,可以说是用创设力克服算法。

内部,算法漏洞是必杀,但人类未必能通晓,只可以靠将来更上进的算法,所以不算是人类的制胜;用历史制服算法,则可以说摒弃了人类的耀武扬威与自豪,胜之有愧;而用成立小胜服算法,大概算是最有范的,但却依然很难说必胜——而且万一AlphaGo自己与友爱的千万局对弈中早就发现了那种棋路,这人类依旧会小败。

概括,要克服AlphaGo,实在是一条充满了坚苦突出的征途,而且未必能走到头。


人相对AlphaGo的优势

虽说说,在围棋项目上,人一定最终败在以AlphaGo为表示的电脑算法的眼前,但那并不代表AlphaGo为表示的围棋算法就真的已经抢先了人类。

问题的关键在于:AlphaGo下棋的目的,是预设在算法中的,而不是其和好生成的。

也就是说,AlphaGo之所以会去下围棋,会去全力赢围棋,因为人类设定了AlphaGo要去这样做,这不是AlphaGo自己能说了算的。

这可以说是人与AlphaGo之间做大的例外。

而,进一步来分析的话,我们不由地要问:人活在这多少个世界上是不是确实是无预设的,完全有协调决定的啊?

莫不未见得。

席卷人在内的兼具生物,基本都有一个预设的对象,这就是要保证自己能活下来,也即求生欲。

人方可经过各个后天的经历来讲这多少个目的压制下去,但这一对象本身是写在人类的基因中的。

从这一点来看,AlphaGo的题目可能并不是被预设了一个目的,而是当前还不享有设置自己的目的的力量,从而就进一步谈不上以自己设置的对象覆盖预设的目的的恐怕了。

那么,如何让算法可以自己设定目的呢?这个题目或许没那么容易来回答。

而,假使将以此题目局限在围棋领域,那么就成了:AlphaGo即使知道要去赢棋,但并不知道赢棋这个目的可以分解为前中后三期的子目的,比如人类日常谈及的争大势、夺实地以及最终的制胜,这类子目的。

虽说在好几小一些,DCNN似乎呈现了足以将问题解释为子目的并加以解决的力量,但起码在设立总体目的这一个题材上,最近的算法看来还不可以。

这种自助设定目的的力量的缺失,恐怕会是一种对算法能力的钳制,因为子目的有时候会极大地简化策略搜索空间的构造与大小,从而幸免统计资源的浪费。

一派,人超过AlphaGo的一方面,在于人所有将各个不同的活动共通抽象出一种通用的原理的力量。

人们得以从平常生活、体育活动、工作学习等等活动中架空出一种通用的法则并收为己用,这种规律可以认为是世界观仍旧价值观,也依然另外什么,然后将这种三观运用到比如写作与下棋中,从而形成一种通过这种现实活动而呈现出自己对人生对生活的视角的新鲜风格,这种力量近日总计机的算法并不能够操纵。

这种将各不同世界中的规律进一步融会贯通抽象出更深一层规律的力量,原则上的话并不是算法做不到的,但我们当下从不看到的一个最关键的因由,恐怕是不管AlphaGo依旧Google的Atlas或者另外什么类型,都是本着一个个特定领域规划的,而不是设计来对平时生活的方方面面举行处理。

也就是说,在算法设计方面,我们所持的是一种还原论,将人的能力分解还原为一个个天地内的故意能力,而还尚未考虑怎么将这多少个解释后的能力再重复结合起来。

但人在本来衍生和变化过程中却不是如此,人并不是由此对一个个档次的钻研,然后汇聚成一个人,人是在从来面对平日生活中的各样领域的题目,直接衍变出了大脑,然后才用这多少个大脑去处理一个个特定领域内的现实问题。

于是,算法是由底向上的设计艺术,而人类却是由顶向下的计划性情势,这或者是双方最大的不等呢。

这也就是,即便在某个具体问题上,以AlphaGo为表示的微机的练习样本是远大于人的,但在完全上来说,人的练习样本却可能是远超出总结机的,因为人可以应用围棋之外的另外经常生活的运动来锻练自己的大脑。

这说不定是一种新的就学算法设计方向——先规划一种可以拔取具有可以探测到的运动来训练自己的神经网络衍生和变化算法,然后再利用这些算法已经成形的神经网络来学学某个特定领域的题材。

这种通用的神经网络算法相对于专门领域的算法到底是优是劣,那说不定在那一天出来从前,人类是力不从心情解的了。


人与AlphaGo的不同

最后,让我们回去AlphaGo与李世石的博弈上。

大家可以看出,在这两局中,最大的一个特征,就是AlphaGo所明白的棋道,与人所了然的棋道,看来是存在很大的两样的。

这也算得,人所设计的下围棋的算法,与人和好对围棋的了然,是例外的。

这表示咋样?

这表示,人为了化解某个问题而规划的算法,很可能会做出与人对那么些题目标精晓不同的一言一行来,而以此作为满足算法本身对这多少个题目标知情。

这是一件细思极恐的事,因为这象征拥有更强力量的机械可能因为清楚的例外而做出与人不等的行事来。这种行为人不可能清楚,也无能为力断定究竟是对是错是好是坏,在终极结局到来往日人根本不晓得机器的作为到底是何目的。

之所以,完全可能出现一种很科幻的层面:人设计了一套“能将人类社会变好”的算法,而这套算法的行事却令人完全不可以清楚,以至于最终的社会可能更好,但中间的行为以及给人带来的范畴却是人类有史以来想不到的。

这大概是最令人担忧的吗。

当然,就目前以来,这一天的赶来大概还早,目前大家还不用太操心。


结尾

明天是AlphaGo与李世石的第三轮对决,希望能享有惊喜吧,当然我是说AlphaGo能为全人类带来更多的惊喜。


正文坚守撰写共享CC BY-NC-SA
4.0协商

经过本协议,您可以享受并修改本文内容,只要您遵从以下授权条款规定:姓名标示
非商业性同一方法分享
具体内容请查阅上述协议阐明。

正文禁止一切纸媒,即印刷于纸张之上的整套协会,包括但不限于转载、摘编的别样利用和衍生。网络平台如需转载必须与我联系确认。


一旦喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的篇章》《庄敬码匠圈》</small>


  1. 对,是世界第二,因为就在新年他正好被中国围棋天才柯洁斩落马下,所以柯洁现在是社会风气首先,李世石很不幸地回落到了社会风气第二。当然了,AlphaGo背后的DeepMind团队打算挑战李世石的时候,他仍旧世界首先。

  2. 有一个很有趣的效用,称为“AI效应”,大意就是说假若机器在某个圈子跨越了人类,那么人类就会宣布这一天地不能表示人类的灵气,从而一直维持着“AI无法逾越人类”的范畴。这种掩耳盗铃的鸵鸟政策其实是令人叹为观止。

  3. 这有些可以看非死不可围棋项目DarkForest在网易的稿子:AlphaGo的分析

  4. bway883必威官网,策梅洛于1913年提议的策梅洛定理代表,在二人的少数游戏中,假如两者皆享有完全的情报,并且运气因素并不牵扯在娱乐中,这先行或后行者当中必有一方有胜利/必不败的政策。

  5. 这下面,有人曾经研商了一种算法,可以特意功课基于特定神经网络的就学算法,从而构造出在人看来无意义的噪音而在微机看来却能识别出各个不设有的图形的图像。将来这种针对算法的“病毒算法”恐怕会比读书算法本身具有更大的市场和更高的关爱。

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图