首页betway必威体育app官网 › 算法的棋道

算法的棋道

开场白

AlphaGo两番力克了人类围棋世界的真正王牌,世界第二的南韩高手李世石[\[1\]](https://www.jianshu.com/p/ca32e1e66a4b#fn1)

赛前,准确说是Google的DeepMind团队刚放出信息说制服了非洲围棋冠军樊辉并打算搦战李世石的时候,我个人是很小心地说本场竞技很难讲,但实质上心里觉得AlphaGo的赢面更大。只然而当时AlphaGo制服的樊辉虽说是非洲冠军,但全球排行都不入百,实在算不得是大高手。但AlphaGo的优势在于有半年多的年月可以不眠不休地读书提高,而且还有DeepMind的工程师为其保驾护航,当时的AlphaGo也不是完全版,再添加自己所获悉的人类固有的夜郎自大,那多少个战内战外的要素结合在一块,即便嘴巴上说这事难讲,但心里是确认了AlphaGo会赢得。

结果,李世石赛前说比赛应该会5:0或者4:1而友好的重任就是尽量阻止这1的产出,但实质上的战况却是现在AlphaGo以2:0的比分暂时超越。且,假诺不出意外的话,最后的总比分应该是AlphaGo胜出——只不过到底是5:0仍然4:1,这还有待事态发展。

这一幕不由地令人记忆了当年的吴清源,将持有不屑他的对手一一斩落,最终敢让天下先。

当然了,当今世界棋坛第一人的柯洁对此可能是不容许的,但让自家说,假若下半年AlphaGo挑衅柯洁,或者柯洁主动挑战AlphaGo,这自己要么坚决地认为,AlphaGo可以战胜柯洁。

但是,这里所要说的并不是上述这个时代背景。

机器领先人类只有是一个时光的题材,当然还有一个生人是不是肯丢下脸面去确认的题目[\[2\]](https://www.jianshu.com/p/ca32e1e66a4b#fn2)

输赢不是至关首要,为啥会输怎么会赢,那才是必不可缺。


AlphaGo的算法

首先局对弈中,李世石开局采用所有人都并未走过的先导,是为了试探AlphaGo。而中后盘又冒出了有目共睹的恶手,所以人们广泛可以认为AlphaGo是捕捉到了李世石本身的机要失误,这才到位的恶化。

实质上李世石本人也是如此认为的。

但到了第二局,事情就全盘两样了。执黑的AlphaGo竟然让李世石认为自己从来就从未当真地占用过优势,从而得以认为是被同台抑制着走到了最终。

还要,无论是第一局依然第二局,AlphaGo都走出了具有事情棋手都拍案叫绝的巨匠,或者是让所有职业棋手都皱眉不接的怪手。

广大时候,明明在工作棋手看来是不应有走的落子,最后却如故发挥了奇怪的功力。就连赛前认为AlphaGo必败的聂棋圣,都对第二局中AlphaGo的一步五线肩冲表示脱帽致敬。

职业棋手出生的李喆连续写了两篇随笔来分析这两局棋,在对棋局的剖析上本人自然是不容许比她更专业的。我这边所想要说的是,从AlphaGo背后的算法的角度来看,机器的棋道究竟是怎么呢?


AlphaGo的算法,可以分为四大块[\[3\]](https://www.jianshu.com/p/ca32e1e66a4b#fn3)

  1. 策略网络
  2. 高速走子
  3. 估值网络
  4. 蒙特卡洛树摸索

那多个部分有机整合在一齐,就重组了AlphaGo的算法。

本来,这么说相比较单调,所以让我们从蒙特卡洛树开班做一个简练的介绍。

当咱们在玩一个娱乐的时候(当然,最好是围棋象棋那种信息完全透明公开且完备没有不可知成分的游乐),对于下一步应该什么行动,最好的主意自然是将下一步所有可能的情景都列举出来,然后分析敌方具备可能的策略,再分析自己所有可能的对答,直到最后竞技结束。这就一定于是说,以现行的框框为种子,每一回预判都进展自然数量的分岔,构造出一棵完备的“决策树”——这里所谓的齐全,是说每一种可能的前程的浮动都能在这棵决策树中被反映出来,从而没有跑出决策树之外的或者。

有了决策树,大家当然可以分析,哪些下一步的作为是对友好方便的,哪些是对团结伤害的,从而选拔最利于的那一步来走。

也就是说,当我们有着完备的决策树的时候,胜负基本已经定下了,或者说如何回应可以战胜,基本已经定下了。

更极端一点的,梅策罗有条定律就是说,在上述这类游戏中,必然存在至少一条这种必胜的方针[\[4\]](https://www.jianshu.com/p/ca32e1e66a4b#fn4)

就此,原则上来说,在全知全能的上帝(当然是不存在的)面前,你不管怎么下围棋(或者国际象棋、中国象棋、日本将棋),上帝都知晓怎么走必胜,或者最多最多就是你走的刚刚和上帝所预设的同等。

但,上述完全的完备的一揽子的决策树,即便理论上对此围棋这样的玩耍来说是存在的,但实际上我们不可以拿到。

不不过说咱俩人类无法获取,更是说大家的机器也不可能取得——围棋最终的层面恐怕有3361种可能,那个数据超过了人类可阅览宇宙中的原子总数。

于是,现在的图景是:无论是人要么机器,都不得不精晓完全决策树的一局部,而且是不行特别小的一片段。

所以,上述神之棋路是大家人类和机械都不可以明白的。

故而,人和机器就应用了必然的手腕来多决策树做简化,至中将其简化到祥和能处理的水准。

在这个历程中,一个最自然的形式(无论对机器如故对人来说),就是只考虑少量层次的一点一滴展开,而在那一个层次之后的决定开展则是不完全的。

比如,第一步有100种可能,我们都考虑。而这100种可能的落子之后,就会有第二部的抉择,这里比如有99种可能,但大家并不都考虑,大家只考虑之中的9种。那么自然两层举行有9900种可能,现在大家就只考虑之中的900种,总计量自然是极为裁减。

这边,大方向人和机械是一律的,差异在于到底怎么筛选。

对机器来说,不完全的仲裁开展所利用的是蒙特卡洛措施——假定对子决策的随机选取中好与坏的遍布与完全展开的境况下的遍布是相似的,那么我们就可以用少量的随意取样来代表全盘采样的结果。

简单易行就是:我随便选多少个可能的仲裁,然后最进一步分析。

这边当然就存在很大的风向了:假若刚好有一部分裁定,是随机过程并未当选的,这不就蛋疼了么?

那点人的做法并不相同,因为人并不完全是随便做出采用。

此地就拉扯到了所谓的棋感或者大局观。

人们在落子的时候,并不是对具备可能的成千上万个拔取中随机选一个出去试试未来的迈入,而是使用棋形、定式、手筋等等通过对局或者学习而得来的经历,来判定出什么落子的趋向更高,哪些地点的落子则着力得以无视。

从而,这就应运而生了AlphaGo与李世石对局中那一个人类棋手很莫名的棋着来了——依照人类的经验,从棋形、棋感、定式等等经历出发完全不应有去走的落子,AlphaGo就走了出来。

在价值观只利用蒙特卡洛树搜索的算法中,由于对落子地方的选料以自由为主,所以棋力不能够再做出提高。那等于是说机器是一个全然没学过围棋的人,完全靠着强大的总计力来预测将来几百步的向上,但这几百步中的大多数都是随便走出的不能之棋局,没有实际的参考价值。

非死不可的DarkForest和DeepMind的AlphaGo所做的,就是将本来用以图形图像分析的深度卷积神经网络用到了对棋局的辨析上,然后将分析结果用到了蒙特卡洛树搜索中。

此间,深度卷积神经网络(DCNN)的意义,是经过对棋局的图形图像分析,来分析棋局背后所隐藏的规律——用人的话来说,就是棋形对整个棋局的熏陶规律。

然后,将这多少个原理效率到对决策树的剪裁上,不再是截然通过自由的主意来判断下一步应该往哪走,而是采纳DCNN来分析当下的棋形,从而分析当下棋形中如何地点的落子具有更高的市值,哪些地点的落子几乎毫无价值,从而将无价值的或者落子从决策树中减除,而对咋样具有高价值的裁定举行更加的分析。

这就等于是将学习来的棋形对棋局的震慑规律运用到了对前途可能提升的挑三拣四策略中,从而结成了一个“学习-实践”的正反馈。

从AlphaGo的算法来看,这种学习经历的行使可以认为分为两片段。一个是估值网络,对任何棋局大势做分析;而另一个是飞速走子,对棋局的有些特征做出分析匹配。

故而,一个负担“大局观”,而另一个负责“局部判断”,这多少个最终都被用来做定夺的剪裁,给出有充足深度与准确度的解析。

与之相对的,人的裁定时怎么制定的吧?


人类的老毛病

自己尽管不是大师,只是知道围棋规则和简单的多少个定式,但人的一大特色就是,人的洋洋合计格局是在生存的各类领域都通用的,一般不会产出一个人在下围棋时用的思绪与干另外事时的笔触彻底不同这样的境况。

所以,我可以透过分析自己与考察别人在平时生活中的行为以及咋样促成那种作为的原故,来分析下棋的时候人类的广大一般性策略是何等的。

这就是——人类会基于本人的心性与心境等非棋道的因素,来拓展裁定裁剪。

例如,我们平日会说一个干将的风骨是封建的,而另一个王牌的品格是偏向于激进厮杀的——记得人们对李世石的作风界定就是这般。

这意味着什么样?这实质上是说,当下一步可能的决策有100条,其中30条偏保守,30条偏激进,40条中庸,这么个状态下,一个棋风嗜血的国手可能会拔取这激进的30条政策,而忽视其它70条;而一个棋风保守的,则可能采取保守的30条方针;一个棋风稳健的,则可能是这柔和的40条方针为主。

她俩拔取策略的要素不是因为那多少个方针可能的胜率更高,而是这一个方针所能展现出的一部分的棋感更契合自己的品格——这是与是否能赢球无关的市值判断,甚至足以说是和棋本身无关的一种判断方法,按照仅仅是温馨是否喜欢。

更进一步,人类棋手还是可以遵照对手的棋风、性格等元素,来筛选出敌手所可能走的棋路,从而筛选出可能的方针举行反扑。

为此,也就是说:是因为人脑不可能处理这样翻天覆地的音讯、决策分岔与可能,于是人脑索性利用自身的性情与经验等要素,做出与处理问题无关的信息筛选。

这可以说是AlphaGo与人类棋手最大的不等。

人类棋手很可能会因为风格、性格、心境等等因素的影响,而对少数可能性做出不够重视的判定,但这种气象在AlphaGo的算法中是不设有的。

内部,心情可以因而各样手段来遏制,但权威个人的风格与更深层次的脾气元素,却全然可能造成上述弱点在团结无法控制的境况下出现。但这是AlphaGo所不有所的先天不足——当然,这不是说AlphaGo没弱点,只然则没有人类的败笔罢了。

究其根本,这种经过战局外的元一直筛选战局内的核定的动静于是会产出,原因在于人脑的信息处理能力的欠缺(当然假诺我们总括一个单位体积仍旧单位质地的处理问题的能力来说,那么人脑应该依然优于现在的处理器很多过多的,这一点毋庸置疑),从而只可以通过那种手段来降低所需分析的音讯量,以保险自己可以形成任务。

这是一种在少数资源下的精选策略,牺牲广度的同时来换取深度以及最后对题目标解决。

还要,又由于人脑的这种意义并不是为着某个特定任务而支付的,而是对于所有生存与生存的话的“通识”,因而那种舍去自己只好与人的个人有关,而与要处理的问题无关,从而不能成功AlphaGo这样完全只通过局面的辨析来做出筛选,而是经过棋局之外的要平素做出取舍。

那就是人与AlphaGo的最大不同,可以说是个别写在基因与代码上的命门。

更进一步,人类除了上述裁决筛选的通用方案之外,当然是有针对性特定问题的特定筛选方案的,具体在围棋上,这就是各样定式、套路以及各类成熟或者不成熟的有关棋形与动向的辩论,或者唯有是觉得。

也就是说,人经过学习来控制一些与全局特征,并动用那个特点来做出决策,那个手续本身和机械所干的是一模一样的。但不同点在于,人可能过于依赖这多少个已部分经验总括,从而陷入可能出现而无人注目标陷阱中。

这就是本次AlphaGo数次走出有违人类经历常理的棋着但将来意识很有用很尖锐的原因——我们并不知道自己数千年来总括下来的阅历到底能在多大程度上行使于新的棋局而如故有效。

但AlphaGo的算法没有那上头的麻烦。它尽管如故是运用人类的棋谱所付出的阅历,利用这么些棋谱中所突显出的全局或者部分的法则,但最终仍旧会经过蒙特卡洛树搜索将那些经历运用到对棋局的推理中去,而不是一向运用这多少个原理做出定式般的落子。

从而,不但定式对AlphaGo是没意义的,所谓不走日常路的新棋路对AlphaGo来说胁迫也不大——本次先是局中李世石的新棋路不就同一失效了么?由此即便吴清源再世,或者秀哉再世(佐为??),他们尽管开创出全新的棋路,也无法当做自然能征服AlphaGo的依照。

答辩上来说,只要出现过的棋谱丰盛多,那么就能找出围棋背后的法则,而这就是机械学习要打通出来的。新的棋路,本质上只是是这种规律所演变出的一种无人见过的新情景,而不是新规律。

那么,AlphaGo的弱点是怎么?它是不是全无弱点?

这一点倒是未必的。


AlphaGo的弱点

从AlphaGo的算法本身来说,它和人同一不能对所有可能的裁定都做出分析,即便能够应用各类手段来做出价值判断,并对高价值的表决做出浓密剖析,但到底不是整整,仍旧会有遗漏。这一点自己就表达:AlphaGo的设想不能是兼备的。

并且,很强烈的是,如果一个生人可能展开的国策在AlphaGo看来只会带动不高的胜率,那么那种策略本身就会被清除,从而这种方针所带动的变动就不在AlphaGo当下的设想中。

由此,要是说存在一种棋路,它在初期的多轮思考中都不会带动高胜率,那么这种棋路就是AlphaGo“出人意料”的。

而一旦这种每一步都并未高胜率的棋路在多少步后方可交给一个对人类来说绝佳的范围,从而让AlphaGo不可能逆转,那么这种棋路就成了AlphaGo思路的死角。

也就是说说,在AlphaGo发觉它前边,它的每一步铺垫都是低胜率的,而结尾构造出的棋形却持有相对的高胜率,这种低开高走的棋路,是会被AlphaGo忽略的。

虽说大家并不知道这种棋路是否存在,以及这种棋路如若存在的话应当长什么样,但我们足足知道,从理论上的话,这种棋路是AlphaGo的死角,而这一死角的留存就依照那多少个真相:无论是人仍然AlphaGo,都不容许对持有策略的兼具衍生和变化都了解,从而无论咋样死角总是存在的。

本来,这一争执上的死穴的存在性并不可能帮忙人类赢球,因为这要求极深的慧眼和预判能力,以及要结构出一个即使AlphaGo察觉了也已回天乏力的几乎能够说是尘埃落定的局面,这两点本身的渴求就丰盛高,尤其在盘算深度上,人类或者本就比可是机器,从而这样的死角可能最后只有机器能不辱使命——也就是说,大家可以针对AlphaGo的算法研发一款BetaGo,专门生成战胜AlphaGo的棋路,然后人类去学学。以算法制服算法[\[5\]](https://www.jianshu.com/p/ca32e1e66a4b#fn5)

但如此到底是机械赢了,如故人赢了啊?

一边,上述措施就算是论战上的AlphaGo思维的死角,本人们并不便于了解。这有没有人们可以控制的AlphaGo的死角啊?

这一点或者非凡难。我觉着李喆的意见是很是有道理的,这就是利用人类现在和野史上的全部经验。

成立新的棋局就必须面对处理你协调都未曾充裕面对丰盛准备过的范畴,这种场地下人类抱有前面所说过的六个缺陷从而要么思考不完全要么陷入过往经验与定式的坑中没能走出来,而机械却得以更均衡地对持有可能的层面尽可能分析,思考更系数周翔,那么人的局限性未必能在新棋局中讨到什么好果子吃。

扭转,假设是全人类曾经商量多年这一个分外熟知的范围,已经没有新花样可以玩出来了,那么机器的全面考虑就不至于能比人的千年经历更占用。

因而,面对AlphaGo,人类自以为傲的成立力恐怕反而是阻碍,回归传统应用传统积累才有可能胜利。

但,这样的大胜等于是说:我创立力不如机器,我用本人的阅历砸死你。

人类引以为傲的成立力被放弃,机器本应更善于的被定式却成了救人稻草,这不是很虐心么?

那就是说,立异棋路是否确实不容许制服AlphaGo?这一点至少从如今来看,几乎不能,除非——

倘诺李世石和另旁人类实际通过这两天,或者说在这几年里都排演过一个被演绎得很丰硕的新棋路,但这套棋路从来没有被以任何款式公开过,那么这么的新棋路对AlphaGo来说可能会导致麻烦,因为原先立异中AlphaGo的户均周详考虑或者会败给李世石等人类棋手多年的推理专修而来的集体经验。

之所以,我们今日有了三条可以制伏AlphaGo的恐怕之路:

  1. 通过每一步低胜率的棋着社团出一个颇具极高胜率的范畴,利用先前时期的低胜率骗过AlphaGo的国策剪枝算法,可以说是钻算法的狐狸尾巴;
  2. 应用人类千年的围棋经验总计,靠传统定式而非创制力克服思考均衡的AlphaGo,可以说是用历史征服算法;
  3. 人类棋手秘而不宣地研商没有公开过的新棋路,从而突破AlphaGo基于传统棋谱而统计学习来的经历,可以说是用创制大胜服算法。

里头,算法漏洞是必杀,但人类未必能了然,只可以靠将来更先进的算法,所以不算是全人类的胜利;用历史打败算法,则可以说放任了人类的傲慢与自豪,胜之有愧;而用创制小胜服算法,大概算是最有范的,但却依然很难说必胜——而且万一AlphaGo自己与协调的千万局对弈中早就发现了这种棋路,这人类如故会小败。

汇总,要战胜AlphaGo,实在是一条充满了劳累的征途,而且未必能走到头。


人相对AlphaGo的优势

虽然说,在围棋项目上,人必然最后败在以AlphaGo为代表的电脑算法的脚下,但这并不代表AlphaGo为表示的围棋算法就真的已经超越了人类。

题目标关键在于:AlphaGo下棋的目标,是预设在算法中的,而不是其自己生成的。

也就是说,AlphaGo之所以会去下围棋,会去努力赢围棋,因为人类设定了AlphaGo要去这么做,这不是AlphaGo自己能说了算的。

那足以说是人与AlphaGo之间做大的不等。

而,进一步来分析的话,我们不由地要问:人活在这个世界上是否真正是无预设的,完全有友好控制的吧?

唯恐不一定。

概括人在内的具备生物,基本都有一个预设的目的,这就是要力保自己能活下来,也即求生欲。

人得以透过各种先天的经验来讲这一个目的压制下去,但这一指标本身是写在人类的基因中的。

从这点来看,AlphaGo的题目或者并不是被预设了一个对象,而是当前还不持有设置自己的靶子的力量,从而就更加谈不上以温馨安装的目的覆盖预设的目的的或许了。

这就是说,怎么样让算法可以团结设定目的呢?这一个题目恐怕没那么容易来解惑。

而,即使将以此题材局限在围棋领域,那么就成了:AlphaGo尽管知道要去赢棋,但并不知道赢棋这多少个目的可以表明为前中后三期的子目的,比如人类日常谈及的争大势、夺实地以及最终的获胜,这类子目的。

betway必威体育app官网,尽管在好几小片段,DCNN似乎显示了足以将问题解释为子目的并加以解决的能力,但至少在开设总体目的这多少个题材上,目前的算法看来还不能。

这种自助设定目的的能力的不够,恐怕会是一种对算法能力的制约,因为子目标有时候会极大地简化策略搜索空间的布局与大小,从而避免统计资源的浪费。

一头,人超过AlphaGo的一边,在于人享有将各样不同的位移共通抽象出一种通用的规律的能力。

人人得以从平时生活、体育活动、工作学习等等活动中架空出一种通用的规律并收为己用,那种规律可以认为是世界观如故价值观,也如故其它什么,然后将这种三观运用到诸如写作与下棋中,从而形成一种通过这种求实活动而映现出自己对人生对生存的眼光的奇异风格,这种能力如今统计机的算法并不可以操纵。

这种将各不同世界中的规律进一步融会贯通抽象出更深一层规律的能力,原则上来说并不是算法做不到的,但大家脚下从未看到的一个最重要的来由,恐怕是无论AlphaGo依旧谷歌的Atlas或者其余什么项目,都是对准一个个特定领域规划的,而不是统筹来对经常生活的整套举办拍卖。

也就是说,在算法设计方面,我们所持的是一种还原论,将人的能力分解还原为一个个世界内的有意能力,而还未曾考虑什么将这多少个解释后的能力再重新结合起来。

但人在自然衍变过程中却不是这般,人并不是因此对一个个档次的商讨,然后汇集成一个人,人是在一贯面对通常生活中的各种领域的题目,直接衍生和变化出了大脑,然后才用那么些大脑去处理一个个特定领域内的现实性问题。

从而,算法是由底向上的宏图方法,而人类却是由顶向下的计划性艺术,这或许是两者最大的不等啊。

这也实属,即使在某个具体问题上,以AlphaGo为表示的微处理器的训练样本是远大于人的,但在完全上来说,人的训练样本却可能是远不止总括机的,因为人可以采用围棋之外的另外平时生活的移动来训练自己的大脑。

这或许是一种新的学习算法设计方向——先规划一种可以行使具有可以探测到的运动来磨练自己的神经网络衍生和变化算法,然后再拔取那些算法已经成形的神经网络来学学某个特定领域的题材。

这种通用的神经网络算法相对于专门领域的算法到底是优是劣,这恐怕在那一天出来从前,人类是无力回天知晓的了。


人与AlphaGo的不同

最后,让我们回到AlphaGo与李世石的对弈上。

俺们可以看看,在这两局中,最大的一个表征,就是AlphaGo所了解的棋道,与人所精晓的棋道,看来是存在很大的不比的。

这也实属,人所计划的下围棋的算法,与人和好对围棋的明白,是例外的。

这象征怎么样?

这意味,人为了解决某个问题而规划的算法,很可能会做出与人对这一个问题的知晓不同的一言一行来,而这多少个行为满足算法本身对这些题目的精通。

这是一件细思极恐的事,因为那代表所有更强力量的机器可能因为清楚的不同而做出与人不等的作为来。这种行为人不可以知道,也无所适从判断究竟是对是错是好是坏,在最终结果到来在此以前人根本不了解机器的所作所为到底是何目标。

于是,完全可能出现一种很科幻的框框:人设计了一套“能将人类社会变好”的算法,而这套算法的一言一行却让人一齐无法明白,以至于最后的社会或者更好,但中间的作为以及给人带来的规模却是人类有史以来想不到的。

这大概是最令人担忧的吧。

当然,就如今的话,这一天的到来大概还早,近期我们还不用太担心。


结尾

今天是AlphaGo与李世石的第三轮对决,希望能抱有惊喜呢,当然我是说AlphaGo能为人类带来更多的悲喜。


正文遵循编写共享CC BY-NC-SA
4.0协议

透过本协议,您可以大快朵颐并修改本文内容,只要你遵从以下授权条款规定:姓名标示
非商业性无异于模式分享
具体内容请查阅上述协议阐明。

正文禁止所有纸媒,即印刷于纸张之上的任何协会,包括但不限于转载、摘编的别样利用和衍生。网络平台如需转载必须与本人联系确认。


假使喜欢简书,想要下载简书App的话,轻戳这里~~
<small>私人推荐订阅专题:《有意思的小说》《严肃码匠圈》</small>


  1. 对,是社会风气第二,因为就在年底她刚刚被中国围棋天才柯洁斩落马下,所以柯洁现在是社会风气首先,李世石很不幸地降低到了世界第二。当然了,AlphaGo背后的DeepMind团队打算挑衅李世石的时候,他依旧世界首先。

  2. 有一个很有意思的法力,称为“AI效应”,大意就是说如若机器在某个圈子跨越了人类,那么人类就会宣布这一天地不能代表人类的灵性,从而一贯维持着“AI不可以跨越人类”的框框。那种掩耳盗铃的鸵鸟政策其实是令人叹为观止。

  3. 这部分可以看非死不可围棋项目DarkForest在网易的篇章:AlphaGo的分析

  4. 策梅洛于1913年指出的策梅洛定理表示,在二人的有限游戏中,假使两者皆享有完全的音讯,并且运气因素并不牵扯在玩乐中,这先行或后行者当中必有一方有必胜/必不败的政策。

  5. 这方面,有人已经研究了一种算法,可以专门功课基于特定神经网络的求学算法,从而构造出在人看来无意义的噪声而在处理器看来却能识别出各个不存在的图形的图像。未来这种针对算法的“病毒算法”恐怕会比学习算法本身有着更大的市场和更高的爱惜。

转载本站文章请注明出处:bway883.com https://www.piworx.com/?p=3550

上一篇:

下一篇:

相关文章

网站地图xml地图