菜单

算法的棋道

2018年12月28日 - 生物科技

开场白

AlphaGo两番折桂了人类围棋世界的实在王牌,世界第二的韩国权威李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出新闻说战胜了亚洲围棋冠军樊辉并打算挑衅李世石的时候,我个人是很严酷地说本场交锋很难讲,但实际心里觉得AlphaGo的赢面更大。只可是当时AlphaGo克服的樊辉虽说是北美洲冠军,但全球名次都不入百,实在算不得是大王牌。但AlphaGo的优势在于有半年多的年华足以不眠不休地读书加强,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加自己所获悉的人类原来的夜郎自大,这个战内战外的要素构成在一道,即便嘴巴上说这事难讲,但内心是确认了AlphaGo会赢得。

结果,李世石赛前说比赛应该会5:0或者4:1而友好的沉重就是尽量阻止这1的出现,但事实上的战况却是现在AlphaGo以2:0的比分暂时超越。且,假使不出意外的话,最终的总比分应该是AlphaGo胜出——只不过到底是5:0依然4:1,这还有待事态发展。

这一幕不由地令人想起了当时的吴清源,将有着不屑他的敌方一一斩落,最后敢让全球先。

理所当然了,当今世界棋坛第一人的柯洁对此可能是不允许的,但让自家说,假若下半年AlphaGo挑衅柯洁,或者柯洁主动挑衅AlphaGo,那自己仍旧坚决地觉得,AlphaGo能够摆平柯洁。

然则,这里所要说的并不是上述这么些时代背景。

机械领先人类只有是一个时辰的题材,当然还有一个人类是不是肯丢下脸面去肯定的题目[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是首要,为啥会输怎么会赢,这才是首要。


AlphaGo的算法

率先局对弈中,李世石开局选用所有人都并未走过的最先,是为了试探AlphaGo。而中后盘又出新了显眼的恶手,所以人们普遍可以认为AlphaGo是捕捉到了李世石本身的要紧失误,这才形成的恶化。

实际上李世石本人也是这么觉得的。

但到了第二局,事情就完全两样了。执黑的AlphaGo竟然让李世石认为自己一直就从不真的地占用过优势,从而得以认为是被一并抑制着走到了最终。

还要,无论是第一局依然第二局,AlphaGo都走出了拥有职业棋手都赞不绝口的权威,或者是让抱有工作棋手都皱眉不接的怪手。

多多时候,明明在事情棋手看来是不应该走的落子,最终却仍旧发挥了好奇的效能。就连赛前觉得AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

事情棋手出生的李喆连续写了两篇著作来分析这两局棋,在对棋局的分析上自己当然是无法比他更标准的。我这里所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是咋样啊?


AlphaGo的算法,可以分成四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 策略网络
  2. 快快走子
  3. 估值网络
  4. 蒙特卡洛树搜索

那六个部分有机结合在共同,就构成了AlphaGo的算法。

理所当然,这么说相比较干燥,所以让我们从蒙特卡洛树始发做一个粗略的牵线。

当我们在玩一个戏耍的时候(当然,最好是围棋象棋这种音讯完全透明公开且完备没有不可知成分的嬉戏),对于下一步应该怎么行动,最好的章程自然是将下一步所有可能的动静都列举出来,然后分析敌方具备可能的方针,再分析自己拥有可能的回答,直到最终比赛截止。这就一定于是说,以昨日的局面为种子,每趟预判都开展一定数额的分岔,构造出一棵完备的“决策树”——这里所谓的齐全,是说每一种可能的前景的浮动都能在那棵决策树中被反映出来,从而没有跑出决策树之外的可能。

有了决策树,我们本来可以分析,哪些下一步的表现是对友好方便的,哪些是对团结伤害的,从而采纳最有利于的那一步来走。

也就是说,当我们具有完备的决策树的时候,胜负基本已经定下了,或者说如何回答可以克制,基本已经定下了。

更不过一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的策略[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

从而,原则上来说,在全知全能的上帝(当然是不存在的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、日本将棋),上帝都理解怎么走必胜,或者最多最多就是您走的刚好和上帝所预设的等同。

但,上述完全的齐全的周详的决策树,即便理论上对于围棋这样的玩耍来说是存在的,但事实上我们不可能取得。

不仅仅是说咱俩人类不能赢得,更是说我们的机器也无力回天获取——围棋最终的层面恐怕有3361种可能,这些数量超越了人类可观看宇宙中的原子总数。

从而,现在的情景是:无论是人或者机器,都只好精通完全决策树的一局部,而且是非常丰裕小的一片段。

就此,上述神之棋路是我们人类和机器都爱莫能助控制的。

故此,人和机器就选取了肯定的一手来多决策树做简化,至大校其简化到祥和能处理的档次。

在那多少个过程中,一个最自然的方法(无论对机器还是对人来说),就是只考虑少量层次的一点一滴展开,而在这多少个层次之后的决策开展则是不完全的。

例如,第一步有100种可能,我们都考虑。而那100种可能的落子之后,就会有第二部的挑选,这里比如有99种可能,但大家并不都考虑,我们只考虑之中的9种。那么自然两层举行有9900种可能,现在大家就只考虑之中的900种,总括量自然是极为收缩。

此地,大方向人和机具是均等的,差异在于到底怎么着筛选。

对机器来说,不完全的决策开展所运用的是蒙特卡洛措施——假定对子决策的自由挑选中好与坏的分布与完全展开的场馆下的遍布是形似的,那么咱们就可以用少量的即兴取样来代表全盘采样的结果。

简短就是:我随便选多少个可能的裁定,然后最进一步分析。

那里当然就存在很大的风向了:假使恰巧有局部决定,是任意过程并未当选的,这不就蛋疼了么?

那一点人的做法并不相同,因为人并不完全是轻易做出抉择。

此地就牵涉到了所谓的棋感或者大局观。

人人在落子的时候,并不是对富有可能的浩大个选项中随机选一个出来试试以后的开拓进取,而是接纳棋形、定式、手筋等等通过对局或者学习而得来的阅历,来判定出什么落子的大势更高,哪些地点的落子则基本可以漠视。

故此,那就出现了AlphaGo与李世石对局中这一个人类棋手很莫名的棋着来了——遵照人类的阅历,从棋形、棋感、定式等等经历出发完全不应该去走的落子,AlphaGo就走了出去。

在传统只使用蒙特卡洛树搜索的算法中,由于对落子地方的选择以随机为主,所以棋力不可能再做出提升。这等于是说机器是一个通通没学过围棋的人,完全靠着强大的统计力来预测将来几百步的升华,但这几百步中的大多数都是随机走出的不容许之棋局,没有实际的参考价值。

非死不可的DarkForest和DeepMind的AlphaGo所做的,就是将原先用以图形图像分析的纵深卷积神经网络用到了对棋局的分析上,然后将分析结果用到了蒙特卡洛树搜索中。

此地,深度卷积神经网络(DCNN)的效率,是经过对棋局的图形图像分析,来分析棋局背后所隐藏的法则——用人的话来说,就是棋形对全体棋局的震慑规律。

接下来,将这个原理效能到对决策树的剪裁上,不再是截然通过任意的措施来判定下一步应该往哪走,而是使用DCNN来分析当下的棋形,从而分析当下棋形中咋样位置的落子具有更高的价值,哪些地点的落子几乎毫无价值,从而将无价值的或者落子从决策树中减除,而对什么具有高价值的决策开展更进一步的剖析。

这就等于是将学习来的棋形对棋局的震慑规律运用到了对前途可能进化的选项策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,这种上学经验的运用可以认为分为两有的。一个是估值网络,对任何棋局大势做分析;而另一个是神速走子,对棋局的部分特征做出分析匹配。

所以,一个负责“大局观”,而另一个顶住“局部判断”,这六个最终都被用来做决策的剪裁,给出有丰硕深度与准确度的辨析。

与之相对的,人的仲裁时怎么着制订的吗?


人类的欠缺

本身即使不是高手,只是了然围棋规则和概括的多少个定式,但人的一大特色就是,人的不少考虑情势是在生存的各样领域都通用的,一般不会现出一个人在下围棋时用的思绪与干另外事时的笔触彻底不同那样的场所。

就此,我得以由此分析自己与观望外人在平常生活中的行为以及怎么样造成这种表现的原故,来分析下棋的时候人类的宽泛一般性策略是怎样的。

这就是——人类会基于我的人性与心理等非棋道的因素,来进行裁定裁剪。

诸如,我们平日会说一个王牌的风骨是封建的,而另一个权威的风骨是偏向于激进厮杀的——记得人们对李世石的作风界定就是这般。

这象征如何?这事实上是说,当下一步可能的决定有100条,其中30条偏保守,30条偏激进,40条中庸,这么个情状下,一个棋风嗜血的棋手可能会选取这激进的30条政策,而忽略其它70条;而一个棋风保守的,则可能拔取保守的30条政策;一个棋风稳健的,则可能是这柔和的40条政策为主。

他们挑选策略的要素不是因为这多少个策略可能的胜率更高,而是这个方针所能显示出的一些的棋感更切合自己的风格——这是与是否能胜利无关的市值判断,甚至足以说是和棋本身无关的一种判断方法,依照仅仅是协调是否喜欢。

更进一步,人类棋手仍能够依照对手的棋风、性格等要素,来筛选出对手所可能走的棋路,从而筛选出可能的国策举行回击。

从而,也就是说:是因为人脑无法处理这样宏大的音讯、决策分岔与可能,于是人脑索性利用自身的秉性与经验等因素,做出与拍卖问题无关的信息筛选。

这可以说是AlphaGo与人类棋手最大的例外。

人类棋手很可能会因为风格、性格、心境等等因素的影响,而对少数可能性做出不够尊重的判定,但这种情景在AlphaGo的算法中是不设有的。

个中,心情可以透过各个招数来压制,但权威个人的作风与更深层次的秉性元素,却完全可能引致上述弱点在团结不能控制的情事下冒出。但这是AlphaGo所不有所的败笔——当然,这不是说AlphaGo没弱点,只可是没有人类的缺点罢了。

究其根本,这种经过战局外的元一直筛选战局内的决策的图景于是会油但是生,原因在于人脑的信息处理能力的阙如(当然假设我们统计一个单位体积如故单位质料的处理问题的力量来说,那么人脑应该依旧优于现在的电脑很多浩大的,那点毋庸置疑),从而只好通过这种手段来下滑所需分析的消息量,以担保自己可以完成任务。

这是一种在有限资源下的取舍策略,牺牲广度的同时来换取深度以及尾声对问题的化解。

并且,又由于人脑的这种意义并不是为着某个特定任务而支出的,而是对于整个生活与生活的话的“通识”,由此这种舍去我只好与人的村办有关,而与要拍卖的问题无关,从而无法成功AlphaGo这样完全只通过局面的剖析来做出筛选,而是经过棋局之外的元向来做出取舍。

这就是人与AlphaGo的最大不同,可以说是分别写在基因与代码上的命门。

更进一步,人类除了上述裁决筛选的通用方案之外,当然是有针对一定问题的一定筛选方案的,具体在围棋上,这就是各个定式、套路以及各样成熟或者不成熟的关于棋形与方向的理论,或者只有是深感。

也就是说,人经过学习来控制一些与全局特征,并接纳这么些特色来做出决定,这个手续本身和机器所干的是如出一辙的。但不同点在于,人想必过于倚重这多少个已有的经验总括,从而陷入可能现身而无人注意的圈套中。

这就是这一次AlphaGo数次走出有违人类经历常理的棋着但此后发觉很有用很尖锐的原由——我们并不知道自己数千年来总括下来的经验到底能在多大程度上应用于新的棋局而依然有效。

但AlphaGo的算法没有这上边的苦恼。它即便依旧是使用人类的棋谱所提交的经历,利用这一个棋谱中所展现出的大局或者有些的法则,但结尾仍旧会经过蒙特卡洛树物色将这么些经验运用到对棋局的推理中去,而不是间接使用这么些原理做出定式般的落子。

就此,不但定式对AlphaGo是没意义的,所谓不走平常路的新棋路对AlphaGo来说恐吓也不大——这一次先是局中李世石的新棋路不就一样失效了么?因而即使吴清源再世,或者秀哉再世(佐为??),他们就是开创出全新的棋路,也不可以作为自然能战胜AlphaGo的基于。

理论上的话,只要出现过的棋谱丰硕多,那么就能找出围棋背后的原理,而这就是机器学习要挖掘出来的。新的棋路,本质上但是是这种规律所衍变出的一种无人见过的新景观,而不是新原理。

这就是说,AlphaGo的欠缺是什么样?它是不是全无弱点?

这点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人一如既往不容许对拥有可能的决定都做出分析,即便可以利用各样招数来做出价值判断,并对高价值的裁定做出深切剖析,但终归不是总体,如故会有遗漏。这点我就阐明:AlphaGo的设想不容许是齐全的。

同时,很通晓的是,就算一个生人可能展开的方针在AlphaGo看来只会带动不高的胜率,那么那种政策本身就会被免除,从而这种策略所带来的转移就不在AlphaGo当下的设想中。

之所以,要是说存在一种棋路,它在早期的多轮思考中都不会带动高胜率,那么这种棋路就是AlphaGo“意想不到”的。

而一旦那种每一步都不曾高胜率的棋路在多少步后方可交到一个对人类来说绝佳的范围,从而让AlphaGo不可以翻盘,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它前边,它的每一步铺垫都是低胜率的,而结尾构造出的棋形却拥有相对的高胜率,这种低开高走的棋路,是会被AlphaGo忽略的。

即使大家并不知道这种棋路是否留存,以及这种棋路假使存在的话应该长什么,但我们起码知道,从理论上来说,这种棋路是AlphaGo的死角,而这一死角的存在就按照这一个事实:无论是人要么AlphaGo,都不容许对持有策略的具备衍变都领会,从而无论如何死角总是存在的。

自然,这一反驳上的死穴的存在性并无法接济人类获胜,因为那要求极深的慧眼和预判能力,以及要协会出一个就是AlphaGo察觉了也已回天乏力的几乎可以说是尘埃落定的范围,这两点本身的渴求就充足高,尤其在盘算深度上,人类或者本就比可是机器,从而那样的死角可能最后只有机器能成功——也就是说,我们可以本着AlphaGo的算法研发一款BetaGo,专门生成战胜AlphaGo的棋路,然后人类去学习。以算法征服算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但诸如此类到底是机器赢了,如故人赢了吗?

一面,上述模式即使是论战上的AlphaGo思维的死角,本人们并不便于控制。这有没有人们得以控制的AlphaGo的死角啊?

这点可能卓殊难。我认为李喆的理念是充足有道理的,那就是行使人类现在和野史上的一体化经验。

创办新的棋局就非得面对处理你自己都尚未充足面对丰裕准备过的范围,这种情景下人类拥有前边所说过的多个毛病从而要么思考不完全要么陷入过往经验与定式的坑中没能走出去,而机械却能够更匀称地对富有可能的层面尽可能分析,思考更完善周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

转头,假使是人类曾经研讨多年分外可怜熟识的范围,已经没有新花样可以玩出来了,那么机器的周到考虑就不一定能比人的千年经历更占用。

故此,面对AlphaGo,人类自以为傲的创建力恐怕反而是障碍,回归传统应用传统积累才有可能胜利。

但,这样的大胜等于是说:我成立力不如机器,我用本人的阅历砸死你。

人类引以为傲的创建力被摒弃,机器本应更善于的被定式却成了救人稻草,这不是很虐心么?

那么,改进棋路是否确实不可以克服AlphaGo?这一点至少从眼前来看,几乎不容许,除非——

假定李世石和另旁人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很充足的新棋路,但这套棋路平昔没有被以其他格局公开过,那么如此的新棋路对AlphaGo来说可能会促成麻烦,因为本来立异中AlphaGo的动态平衡系数考虑或者会败给李世石等人类棋手多年的推理专修而来的公家经验。

因此,大家明日有了三条可以打败AlphaGo的也许之路:

  1. 透过每一步低胜率的棋着结构出一个兼有极高胜率的局面,利用中期的低胜率骗过AlphaGo的政策剪枝算法,可以说是钻算法的纰漏;
  2. 接纳人类千年的围棋经验总结,靠传统定式而非创建力克服思考均衡的AlphaGo,可以说是用历史战胜算法;
  3. 人类棋手秘而不宣地钻探没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总结学习来的经历,能够说是用成立力征服算法。

里面,算法漏洞是必杀,但人类未必能操纵,只可以靠以后更先进的算法,所以不算是全人类的获胜;用历史战胜算法,则可以说摈弃了人类的自负与自豪,胜之有愧;而用创制小胜服算法,大概算是最有范的,但却照样很难说必胜——而且万一AlphaGo自己与友好的千万局对弈中早就发现了这种棋路,这人类依旧会小败。

归纳,要战胜AlphaGo,实在是一条充满了劳碌的征程,而且未必能走到头。


人相对AlphaGo的优势

尽管如此说,在围棋项目上,人必然最后败在以AlphaGo为代表的总计机算法的当前,但这并不代表AlphaGo为代表的围棋算法就真的已经超过了人类。

题材的关键在于:AlphaGo下棋的目的,是预设在算法中的,而不是其和谐生成的。

也就是说,AlphaGo之所以会去下围棋,会去拼命赢围棋,因为人类设定了AlphaGo要去这样做,这不是AlphaGo自己能决定的。

这可以说是人与AlphaGo之间做大的不等。

而,进一步来分析的话,我们不由地要问:人活在这么些世界上是否真正是无预设的,完全有温馨控制的吗?

唯恐未必。

概括人在内的拥有生物,基本都有一个预设的对象,那就是要保证自己能活下来,也即求生欲。

人得以通过各个先天的阅历来讲这多少个指标压制下去,但这一对象本身是写在人类的基因中的。

从那点来看,AlphaGo的问题可能并不是被预设了一个对象,而是当前还不负有设置自己的目的的力量,从而就进一步谈不上以温馨安装的靶子覆盖预设的对象的可能了。

这就是说,怎么样让算法可以团结设定目标吗?这些题目或许没那么容易来答复。

而,固然将这些题材局限在围棋领域,那么就成了:AlphaGo固然知道要去赢棋,但并不知道赢棋这多少个目的可以表达为前中后三期的子目的,比如人类平日谈及的争大势、夺实地以及最后的制胜,这类子目的。

尽管如此在某些小一些,DCNN似乎呈现了可以将问题解释为子目的并加以解决的力量,但最少在设置总体目的这多少个题目上,近来的算法看来还不能。

这种自助设定目的的能力的短缺,恐怕会是一种对算法能力的牵制,因为子目标有时候会极大地简化策略搜索空间的构造与大小,从而避免总结资源的浪费。

另一方面,人领先AlphaGo的一方面,在于人有着将各类不同的位移共通抽象出一种通用的法则的力量。

众人可以从平时生活、体育活动、工作学习等等活动中架空出一种通用的原理并收为己用,这种规律可以认为是世界观依然价值观,也依旧其它什么,然后将这种三观运用到比如写作与下棋中,从而形成一种通过这种现实活动而呈现出团结对人生对生存的眼光的特殊风格,这种能力近来总计机的算法并无法控制。

这种将各不同领域中的规律进一步融会贯通抽象出更深一层规律的力量,原则上来说并不是算法做不到的,但大家目前没有观察的一个最根本的案由,恐怕是不管AlphaGo依旧Google的Atlas或者此外什么品种,都是针对性一个个一定领域规划的,而不是计划性来对经常生活的整个举办处理。

也就是说,在算法设计方面,我们所持的是一种还原论,将人的能力分解还原为一个个领域内的蓄意能力,而还一贯不考虑咋样将这一个解释后的能力再另行构成起来。

但人在自然演变过程中却不是这么,人并不是透过对一个个品种的研商,然后汇聚成一个人,人是在直接面对经常生活中的各种领域的题目,直接演变出了大脑,然后才用这一个大脑去处理一个个特定领域内的现实问题。

因此,算法是由底向上的计划性格局,而人类却是由顶向下的计划方法,这也许是双方最大的例外吧。

这也就是说,虽然在某个具体问题上,以AlphaGo为表示的总计机的练习样本是远大于人的,但在全体上的话,人的操练样本却可能是远超出统计机的,因为人可以应用围棋之外的其它平日生活的位移来磨练自己的大脑。

这或者是一种新的上学算法设计方向——先规划一种能够使用所有可以探测到的移位来操练自己的神经网络演化算法,然后再使用这些算法已经转移的神经网络来上学某个特定领域的题目。

这种通用的神经网络算法相对于专门领域的算法到底是优是劣,这也许在那一天出来在此之前,人类是心有余而力不足了然的了。


人与AlphaGo的不同

末段,让大家再次来到AlphaGo与李世石的对弈上。

俺们得以看到,在这两局中,最大的一个特性,就是AlphaGo所领悟的棋道,与人所通晓的棋道,看来是存在很大的不比的。

那也就是,人所设计的下围棋的算法,与人团结对围棋的精晓,是例外的。

那象征怎么样?

这象征,人为了缓解某个问题而计划的算法,很可能会做出与人对这个题目标通晓不同的所作所为来,而以此作为知足算法本身对这些题材的了然。

这是一件细思极恐的事,因为这表示所有更强力量的机器可能因为清楚的不比而做出与人不等的作为来。这种行为人不可能知道,也不能断定究竟是对是错是好是坏,在终极结局到来往日人根本不理解机器的行为到底是何目标。

故此,完全可能出现一种很科幻的范围:人规划了一套“能将人类社会变好”的算法,而这套算法的行事却令人一齐无法知道,以至于最终的社会可能更好,但中间的所作所为以及给人带来的局面却是人类有史以来想不到的。

这大概是最令人担忧的呢。

理所当然,就目前来说,这一天的赶到大概还早,最近我们还不用太操心。


结尾

今天是AlphaGo与李世石的第三轮对决,希望能具备惊喜呢,当然我是说AlphaGo能为全人类带来更多的悲喜。


正文遵循写作共享CC BY-NC-SA
4.0协商

透过本协议,您可以享受并修改本文内容,只要你遵守以下授权条款规定:姓名标示
非商业性平等情势分享
具体内容请查阅上述协议讲明。

正文禁止任何纸媒,即印刷于纸张之上的整个社团,包括但不压制转载、摘编的其余利用和衍生。网络平台如需转载必须与自我联系确认。


设若喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的小说》《严穆码匠圈》</small>


  1. 对,是社会风气第二,因为就在新春她刚好被中国围棋天才柯洁斩落马下,所以柯洁现在是社会风气首先,李世石很不幸地下降到了世界第二。当然了,AlphaGo背后的DeepMind团队打算搦战李世石的时候,他依旧世界首先。

  2. 有一个很有意思的意义,称为“AI效应”,大意就是说假诺机器在某个世界跨越了人类,那么人类就会公布这一世界不可以表示人类的了解,从而一向维持着“AI不能够逾越人类”的局面。这种掩耳盗铃的鸵鸟政策其实是令人叹为观止。

  3. 这一部分可以看非死不可围棋项目DarkForest在网易的稿子:AlphaGo的分析

  4. 策梅洛于1913年提议的策梅洛定理表示,在二人的个别游戏中,假如两岸皆具有完全的情报,并且运气因素并不牵扯在打闹中,这先行或后行者当中必有一方有必胜/必不败的策略。

  5. 这下面,有人曾经探究了一种算法,可以专门功课基于特定神经网络的读书算法,从而构造出在人看来无意义的噪音而在电脑看来却能识别出各样不设有的图片的图像。将来这种针对算法的“病毒算法”恐怕会比学习算法本身持有更大的市场和更高的关切。

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图