算法的棋道必发bf88官网唯一

开场白

AlphaGo两番大败了人类围棋世界的实在上手,世界第二的南朝鲜高手李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出音信说打败了南美洲围棋冠军樊辉并打算挑衅李世石的时候,我个人是很谨慎地说这一场交锋很难讲,但其实内心觉得AlphaGo的赢面更大。只但是当时AlphaGo战胜的樊辉虽说是北美洲亚军,但全球排行都不入百,实在算不得是大高手。但AlphaGo的优势在于有半年多的时间可以不眠不休地读书进步,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加自己所获悉的人类固有的夜郎自大,这个战内战外的要素结合在一块儿,尽管嘴巴上说这事难讲,但心中是认可了AlphaGo会赢得。

结果,李世石赛前说竞技应该会5:0或者4:1而温馨的沉重就是竭尽阻止这1的出现,但实际的战况却是现在AlphaGo以2:0的比分暂时抢先。且,假诺不出意外的话,最终的总比分应该是AlphaGo胜出——只不过到底是5:0如故4:1,这还有待事态发展。

这一幕不由地令人记忆了当年的吴清源,将享有不屑他的敌方一一斩落,最后敢让全世界先。

理所当然了,当今世界棋坛第一人的柯洁对此可能是不允许的,但让自家说,如果下半年AlphaGo挑战柯洁,或者柯洁主动挑衅AlphaGo,这自己依旧坚决地觉得,AlphaGo能够摆平柯洁。

不过,这里所要说的并不是上述这一个时代背景。

机械超过人类唯有是一个时间的题材,当然还有一个人类是不是肯丢下脸面去肯定的问题[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是必不可缺,为什么会输怎么会赢,这才是任重而道远。


AlphaGo的算法

第一局对弈中,李世石开局拔取所有人都没有走过的前奏,是为着试探AlphaGo。而中后盘又出现了彰着的恶手,所以人们广泛可以认为AlphaGo是捕捉到了李世石本身的严重性失误,这才大功告成的逆袭。

实则李世石本人也是如此认为的。

但到了第二局,事情就完全不同了。执黑的AlphaGo竟然让李世石认为自己一直就从不真的地占据过优势,从而得以认为是被一道抑制着走到了最终。

再就是,无论是第一局仍旧第二局,AlphaGo都走出了具有职业棋手都叹为观止的能手,或者是让所有工作棋手都皱眉不接的怪手。

不少时候,明明在工作棋手看来是不应当走的落子,最后却仍然发挥了奇妙的机能。就连赛前觉得AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

工作棋手出生的李喆连续写了两篇著作来分析这两局棋,在对棋局的解析上自家自然是不容许比她更专业的。我这边所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是什么啊?


AlphaGo的算法,可以分为四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 政策网络
  2. 迅速走子
  3. 估值网络
  4. 蒙特卡洛树找寻

这三个部分有机整合在一齐,就重组了AlphaGo的算法。

理所当然,这么说相比较平淡,所以让我们从蒙特卡洛树始发做一个简单的介绍。

当我们在玩一个游戏的时候(当然,最好是围棋象棋这种音讯完全透明公开且完备没有不可知成分的嬉戏),对于下一步应该怎么着行动,最好的主意自然是将下一步所有可能的情状都列举出来,然后分析敌方具备可能的策略,再分析自己装有可能的回答,直到最终比赛截止。那就一定于是说,以前些天的范围为种子,每一回预判都进展一定数额的分岔,构造出一棵完备的“决策树”——这里所谓的全称,是说每一种可能的将来的转移都能在那棵决策树中被反映出来,从而没有跑出决策树之外的或是。

有了决策树,我们自然可以分析,哪些下一步的一言一行是对自己方便的,哪些是对协调伤害的,从而采用最便宜的那一步来走。

也就是说,当我们有着完备的决策树的时候,胜负基本已经定下了,或者说如何回答可以打败,基本已经定下了。

更可是一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的策略[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

于是,原则上来说,在全知全能的上帝(当然是不存在的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、扶桑将棋),上帝都晓得怎么走必胜,或者最多最多就是你走的恰恰和上帝所预设的均等。

但,上述完全的全称的完美的决策树,即使理论上对此围棋这样的游玩的话是存在的,但其实大家鞭长莫及赢得。

不只是说大家人类不可能得到,更是说大家的机械也无从赢得——围棋末了的局面恐怕有3361种可能,这一个数目领先了人类可观望宇宙中的原子总数。

为此,现在的情事是:无论是人或者机器,都只可以领会完全决策树的一有的,而且是那多少个可怜小的一局部。

故此,上述神之棋路是大家人类和机具都没法儿左右的。

于是,人和机具就利用了必然的招数来多决策树做简化,至中将其简化到温馨能处理的程度。

在那么些过程中,一个最自然的点子(无论对机器如故对人的话),就是只考虑少量层次的一心展开,而在这个层次之后的裁决举行则是不完全的。

例如,第一步有100种可能,我们都考虑。而这100种可能的落子之后,就会有第二部的挑三拣四,这里比如有99种可能,但我们并不都考虑,大家只考虑之中的9种。那么自然两层举办有9900种可能,现在大家就只考虑之中的900种,总计量自然是极为收缩。

这边,大方向人和机具是同等的,差距在于到底哪些筛选。

对机器来说,不完全的核定开展所接纳的是蒙特卡洛办法——假定对子决策的人身自由挑选中好与坏的遍布与完全展开的意况下的分布是一般的,那么我们就足以用少量的肆意取样来表示全盘采样的结果。

简简单单就是:我任由选多少个可能的决策,然后最进一步分析。

此处当然就存在很大的风向了:如若正好有局部裁决,是即兴过程没有入选的,这不就蛋疼了么?

这一点人的做法并不相同,因为人并不完全是轻易做出抉择。

此处就牵涉到了所谓的棋感或者大局观。

众人在落子的时候,并不是对负有可能的广大个选用中随机选一个出去试试以后的提高,而是拔取棋形、定式、手筋等等通过对局或者学习而得来的经验,来判断出咋样落子的大势更高,哪些地点的落子则着力可以漠视。

由此,这就应运而生了AlphaGo与李世石对局中那一个人类棋手很莫名的棋着来了——遵照人类的阅历,从棋形、棋感、定式等等经历出发完全不应该去走的落子,AlphaGo就走了出去。

在价值观只利用蒙特卡洛树搜索的算法中,由于对落子地方的选料以随机为主,所以棋力无法再做出提高。那等于是说机器是一个全然没学过围棋的人,完全靠着强大的总结力来预测将来几百步的开拓进取,但这几百步中的大多数都是轻易走出的不容许之棋局,没有实际的参考价值。

Facebook的DarkForest和DeepMind的AlphaGo所做的,就是将原来用来图形图像分析的吃水卷积神经网络用到了对棋局的剖析上,然后将分析结果用到了蒙特卡洛树搜索中。

这里,深度卷积神经网络(DCNN)的职能,是通过对棋局的图形图像分析,来分析棋局背后所隐藏的规律——用人的话来说,就是棋形对总体棋局的震慑规律。

然后,将这几个规律效率到对决策树的剪裁上,不再是截然通过自由的方法来判断下一步应该往哪走,而是利用DCNN来分析当下的棋形,从而分析当下棋形中咋样地点的落子具有更高的市值,哪些地方的落子几乎毫无价值,从而将无价值的或许落子从决策树中减除,而对什么具有高价值的决定开展更为的解析。

这就等于是将学习来的棋形对棋局的震慑规律运用到了对前途可能提高的选项策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,那种上学经验的拔取可以认为分为两局部。一个是估值网络,对全部棋局大势做分析;而另一个是快捷走子,对棋局的一些特征做出分析匹配。

故而,一个顶住“大局观”,而另一个担负“局部判断”,这多少个最终都被用来做定夺的剪裁,给出有充裕深度与准确度的解析。

与之绝对的,人的仲裁时咋样制订的吧?


人类的弱项

我即便不是王牌,只是明白围棋规则和简易的多少个定式,但人的一大特点就是,人的浩大思考情势是在生存的各类领域都通用的,一般不会产出一个人在下围棋时用的思路与干此外事时的思绪彻底不同这样的状态。

于是,我得以由此分析自己与观看旁人在通常生活中的行为以及怎么着促成这种表现的案由,来分析下棋的时候人类的广泛一般性策略是何等的。

这就是——人类会遵照自身的性情与心情等非棋道的元素,来展开裁决裁剪。

例如,我们平时会说一个国手的风骨是封建的,而另一个高手的品格是偏向于激进厮杀的——记得人们对李世石的作风界定就是这样。

这意味着怎么着?这其实是说,当下一步可能的裁决有100条,其中30条偏保守,30条偏激进,40条中庸,这么个情状下,一个棋风嗜血的好手可能会选用这激进的30条方针,而忽略其余70条;而一个棋风保守的,则可能选用保守的30条政策;一个棋风稳健的,则可能是这柔和的40条政策为主。

她俩采纳策略的要素不是因为这几个方针可能的胜率更高,而是那些方针所能体现出的有些的棋感更符合自己的品格——这是与是否能获胜无关的市值判断,甚至足以说是和棋本身无关的一种判断方法,遵照仅仅是上下一心是否喜欢。

更进一步,人类棋手还足以依照对手的棋风、性格等因素,来筛选出对手所可能走的棋路,从而筛选出可能的方针举办反扑。

就此,也就是说:由于人脑不可能处理这样巨大的音讯、决策分岔与可能,于是人脑索性利用自身的心性与经历等元素,做出与拍卖问题无关的消息筛选。

这足以说是AlphaGo与人类棋手最大的两样。

人类棋手很可能会因为风格、性格、心理等等因素的熏陶,而对某些可能性做出不够尊重的论断,但这种情景在AlphaGo的算法中是不存在的。

其间,心理可以经过各样招数来抑制,但权威个人的品格与更深层次的性格元素,却浑然可能引致上述弱点在和谐无法控制的状态下出现。但这是AlphaGo所不持有的缺陷——当然,这不是说AlphaGo没弱点,只不过没有人类的短处罢了。

究其平素,这种通过战局外的要平素筛选战局内的裁决的情状于是会现出,原因在于人脑的消息处理能力的欠缺(当然假设我们总计一个单位体积仍旧单位质量的拍卖问题的力量来说,那么人脑应该仍旧优于现在的处理器很多过多的,那一点毋庸置疑),从而只好通过这种手法来下滑所需分析的音讯量,以保险自己可以成功任务。

这是一种在少数资源下的精选策略,牺牲广度的还要来换取深度以及尾声对题目标解决。

再者,又由于人脑的这种效益并不是为着某个特定任务而支付的,而是对于所有生存与生存的话的“通识”,因而这种舍去自己只能与人的个人有关,而与要处理的题材无关,从而无法到位AlphaGo这样完全只经过局面的辨析来做出筛选,而是经过棋局之外的元一贯做出拔取。

这就是人与AlphaGo的最大不同,能够说是个别写在基因与代码上的命门。

更进一步,人类除了上述决定筛选的通用方案之外,当然是有针对一定问题的一定筛选方案的,具体在围棋上,这就是各类定式、套路以及各类成熟或者不成熟的有关棋形与动向的驳斥,或者仅仅是觉得。

也就是说,人通过学习来明白一些与大局特征,并选取这些特征来做出决定,这多少个手续本身和机械所干的是同样的。但不同点在于,人恐怕过于倚重那些已有的经验总括,从而陷入可能出现而无人瞩目标骗局中。

这就是这一次AlphaGo数次走出有违人类经历常理的棋着但后来发觉很有用很尖锐的因由——我们并不知道自己数千年来总括下来的经验到底能在多大程度上选拔于新的棋局而如故有效。

但AlphaGo的算法没有这方面的麻烦。它尽管仍旧是行使人类的棋谱所付出的经历,利用这一个棋谱中所显示出的全局或者有些的法则,但说到底仍然会通过蒙特卡洛树摸索将这么些经历运用到对棋局的演绎中去,而不是从来运用这么些规律做出定式般的落子。

因此,不但定式对AlphaGo是没意义的,所谓不走平时路的新棋路对AlphaGo来说威吓也不大——本次率先局中李世石的新棋路不就同样失效了么?由此即便吴清源再世,或者秀哉再世(佐为??),他们即使开创出全新的棋路,也无法同日而语自然能制服AlphaGo的基于。

反驳上的话,只要出现过的棋谱充分多,那么就能找出围棋背后的原理,而这就是机器学习要打通出来的。新的棋路,本质上不过是这种规律所衍变出的一种无人见过的新情景,而不是新原理。

这就是说,AlphaGo的毛病是什么?它是不是全无弱点?

这点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人一律不容许对负有可能的表决都做出分析,尽管可以运用各样手法来做出价值判断,并对高价值的决策做出深远剖析,但归根结底不是全部,仍旧会有遗漏。这一点我就印证:AlphaGo的设想不容许是万事俱备的。

与此同时,很明确的是,倘若一个生人可能开展的策略在AlphaGo看来只会带动不高的胜率,那么这种方针本身就会被清除,从而这种政策所带来的变化就不在AlphaGo当下的设想中。

为此,要是说存在一种棋路,它在初期的多轮思考中都不会带动高胜率,那么这种棋路就是AlphaGo“出人意料”的。

而假如这种每一步都没有高胜率的棋路在多少步后得以付出一个对人类来说绝佳的规模,从而让AlphaGo不可能逆袭,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它后边,它的每一步铺垫都是低胜率的,而最后构造出的棋形却有所相对的高胜率,那种低开高走的棋路,是会被AlphaGo忽略的。

即便大家并不知道那种棋路是否留存,以及这种棋路假使存在的话应该长什么,但我们足足知道,从理论上来说,这种棋路是AlphaGo的死角,而这一死角的留存就按照这些谜底:无论是人依旧AlphaGo,都不容许对富有策略的有所衍生和变化都领会,从而无论如何死角总是存在的。

当然,这一辩护上的死穴的存在性并不能够辅助人类获胜,因为这要求极深的观望力和预判能力,以及要结构出一个即便AlphaGo察觉了也已回天乏力的几乎可以说是决定的规模,这两点本身的要求就这多少个高,尤其在探究深度上,人类或者本就比但是机器,从而这样的死角可能最终只有机器能形成——也就是说,我们可以针对AlphaGo的算法研发一款BetaGo,专门生成制服AlphaGo的棋路,然后人类去读书。以算法战胜算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但这么到底是机械赢了,依旧人赢了吧?

单向,上述方法固然是辩论上的AlphaGo思维的死角,本人们并不容易控制。这有没有人们可以通晓的AlphaGo的死角啊?

这一点可能非凡难。我以为李喆的眼光是不行有道理的,这就是选取人类现在和野史上的总体经验。

创制新的棋局就必须直面处理你协调都未曾丰富面对充分准备过的框框,这种景观下人类拥有后面所说过的三个缺陷从而要么思考不完全要么陷入过往经验与定式的坑中没能走出来,而机械却能够更匀称地对所有可能的范畴尽可能分析,思考更周详周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

扭动,假设是全人类曾经研商多年百般充足熟稔的规模,已经远非新花样可以玩出来了,那么机器的通盘考虑就不一定能比人的千年经验更占用。

据此,面对AlphaGo,人类自以为傲的创立力恐怕反而是障碍,回归传统应用传统积累才有可能胜利。

但,这样的出奇制胜等于是说:我创制力不如机器,我用自身的阅历砸死你。

人类引以为傲的创制力被撇下,机器本应更善于的被定式却成了救人稻草,这不是很虐心么?

那么,改进棋路是否真正不容许克制AlphaGo?那一点至少从此时此刻来看,几乎不容许,除非——

要是李世石和此别人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很充足的新棋路,但这套棋路一向不曾被以此外格局公开过,那么这么的新棋路对AlphaGo来说可能会造成麻烦,因为原先改进中AlphaGo的年均周到考虑或者会败给李世石等人类棋手多年的演绎专修而来的公家经验。

从而,大家前些天有了三条可以克服AlphaGo的或是之路:

  1. 通过每一步低胜率的棋着结构出一个负有极高胜率的局面,利用中期的低胜率骗过AlphaGo的国策剪枝算法,可以说是钻算法的狐狸尾巴;
  2. 利用人类千年的围棋经验总计,靠传统定式而非创制力克服思考均衡的AlphaGo,可以说是用历史克服算法;
  3. 人类棋手秘而不宣地商量没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而总括学习来的经验,可以说是用创设力战胜算法。

其中,算法漏洞是必杀,但人类未必能操纵,只好靠将来更提升的算法,所以不算是全人类的赢球;用历史克制算法,则可以说废弃了人类的自用与自豪,胜之有愧;而用成立力征服算法,大概算是最有范的,但却照样很难说必胜——而且万一AlphaGo自己与投机的千万局对弈中早就发现了那种棋路,这人类依然会惜败。

综述,要战胜AlphaGo,实在是一条充满了费力的征程,而且未必能走到头。


人相对AlphaGo的优势

虽说说,在围棋项目上,人肯定最后败在以AlphaGo为代表的处理器算法的最近,但这并不意味AlphaGo为代表的围棋算法就着实已经超过了人类。

问题的关键在于:AlphaGo下棋的目标,是预设在算法中的,而不是其和好生成的。

也就是说,AlphaGo之所以会去下围棋,会去努力赢围棋,因为人类设定了AlphaGo要去这样做,这不是AlphaGo自己能说了算的。

这可以说是人与AlphaGo之间做大的例外。

而,进一步来分析的话,大家不由地要问:人活在这多少个世界上是不是真的是无预设的,完全有温馨主宰的啊?

唯恐未见得。

席卷人在内的持有生物,基本都有一个预设的靶子,这就是要保证自己能活下来,也即求生欲。

人可以通过各个先天的经历来讲这一个目的压制下去,但这一对象本身是写在人类的基因中的。

从这一点来看,AlphaGo的题材可能并不是被预设了一个目标,而是当前还不拥有设置自己的靶子的力量,从而就更加谈不上以投机安装的目的覆盖预设的目的的或是了。

这就是说,如何让算法可以团结设定目的吧?那多少个问题也许没那么容易来应对。

而,假若将以此问题局限在围棋领域,那么就成了:AlphaGo尽管知道要去赢棋,但并不知道赢棋这一个目标可以分解为前中后三期的子目的,比如人类通常谈及的争大势、夺实地以及尾声的胜利,这类子目的。

即使在少数小片段,DCNN似乎呈现了足以将问题解释为子目的并加以解决的能力,但至少在设置总体目标这多少个题材上,目前的算法看来还不能。

这种自助设定目的的能力的短缺,恐怕会是一种对算法能力的牵制,因为子目标有时候会大幅度地简化策略搜索空间的布局与大小,从而防止统计资源的荒废。

一方面,人超过AlphaGo的单方面,在于人有所将各类不同的活动共通抽象出一种通用的原理的力量。

人人得以从平常生活、体育活动、工作学习等等活动中架空出一种通用的法则并收为己用,这种规律可以认为是世界观仍然价值观,也仍然此外什么,然后将这种三观运用到比如写作与下棋中,从而形成一种通过这种求实活动而展示出团结对人生对生活的见识的特殊风格,这种能力如今总括机的算法并无法左右。

这种将各不同世界中的规律进一步融会贯通抽象出更深一层规律的能力,原则上来说并不是算法做不到的,但我们当前不曾见到的一个最着重的来由,恐怕是无论AlphaGo依然Google的Atlas或者其余什么项目,都是指向一个个一定领域规划的,而不是计划来对通常生活的成套举行拍卖。

也就是说,在算法设计方面,我们所持的是一种还原论,将人的力量分解还原为一个个领域内的故意能力,而还没有考虑怎么将这多少个解释后的能力再另行整合起来。

但人在自然衍生和变化过程中却不是这样,人并不是通过对一个个连串的研究,然后汇集成一个人,人是在平素面对平时生活中的各种领域的题目,间接衍变出了大脑,然后才用那个大脑去处理一个个一定领域内的实际问题。

为此,算法是由底向上的计划性艺术,而人类却是由顶向下的计划艺术,这说不定是双边最大的例外啊。

这也就是说,尽管在某个具体问题上,以AlphaGo为表示的处理器的磨练样本是远大于人的,但在一体化上来说,人的磨练样本却可能是远超越总括机的,因为人可以应用围棋之外的另外通常生活的活动来磨炼自己的大脑。

那也许是一种新的上学算法设计方向——先规划一种可以接纳所有可以探测到的移位来磨练自己的神经网络演变算法,然后再使用这些算法已经转移的神经网络来上学某个特定领域的问题。

这种通用的神经网络算法相对于专门领域的算法到底是优是劣,这可能在那一天出来从前,人类是无能为力了解的了。


人与AlphaGo的不同

说到底,让我们回去AlphaGo与李世石的博弈上。

我们得以看出,在这两局中,最大的一个风味,就是AlphaGo所精通的棋道,与人所知晓的棋道,看来是存在很大的不同的。

这也实属,人所设计的下围棋的算法,与人和好对围棋的精晓,是例外的。

这表示怎么着?

这意味着,人为领会决某个问题而规划的算法,很可能会做出与人对这么些问题的知晓不同的行为来,而这一个行为满足算法本身对这个题目标精晓。

这是一件细思极恐的事,因为这代表所有更强力量的机械可能因为精通的不同而做出与人不同的表现来。那种行为人不可能清楚,也不知道该肿么办判定究竟是对是错是好是坏,在终极结局到来往日人根本不知道机器的行为到底是何目标。

从而,完全可能出现一种很科幻的范围:人规划了一套“能将人类社会变好”的算法,而这套算法的行事却令人一齐不可以知道,以至于最后的社会可能更好,但中间的所作所为以及给人带来的层面却是人类有史以来想不到的。

这大概是最令人担忧的吧。

当然,就如今来说,这一天的赶来大概还早,方今大家还不用太担心。


结尾

今天是AlphaGo与李世石的第三轮对决,希望能具备惊喜呢,当然我是说AlphaGo能为人类带来更多的悲喜。


本文遵从行文共享CC BY-NC-SA
4.0商议

由此本协议,您可以享用并修改本文内容,只要你遵循以下授权条款规定:姓名标示
非商业性无异于方法分享
具体内容请查阅上述协议阐明。

正文禁止任何纸媒,即印刷于纸张之上的一切社团,包括但不制止转载、摘编的此外利用和衍生。网络平台如需转载必须与我联系确认。


即使喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的著作》《端庄码匠圈》</small>


  1. 对,是世界第二,因为就在开春他正好被中国围棋天才柯洁斩落马下,所以柯洁现在是社会风气第一,李世石很丧气地下降到了世道第二。当然了,AlphaGo背后的DeepMind团队打算挑衅李世石的时候,他依旧社会风气第一。

  2. 有一个很有趣的功力,称为“AI效应”必发bf88官网唯一,,大意就是说假使机器在某个世界跨越了人类,那么人类就会发布这一世界不可能代表人类的聪明,从而一直维持着“AI不能逾越人类”的范畴。这种掩耳盗铃的鸵鸟政策其实是令人叹为观止。

  3. 这部分可以看非死不可围棋项目DarkForest在微博的稿子:AlphaGo的分析

  4. 策梅洛于1913年指出的策梅洛定理表示,在二人的简单游戏中,假使双方皆具有完全的资讯,并且运气因素并不牵扯在打闹中,这先行或后行者当中必有一方有一路顺风/必不败的策略。

  5. 这下边,有人一度琢磨了一种算法,可以特意功课基于特定神经网络的求学算法,从而构造出在人看来无意义的噪音而在处理器看来却能识别出各样不存在的图形的图像。以后这种针对算法的“病毒算法”恐怕会比读书算法本身持有更大的市场和更高的眷顾。

发表评论

电子邮件地址不会被公开。 必填项已用*标注