机器学习的实质在于。

文章来源于:Matthew Mayo图片来自“”

何謂“”,学界尚未有统一的定义本文摘取Tom Mitchell、Christopher M. Bishop、去年出版的《深度学习》和侧重实战的《》,总结了四种机器学习主流定义更好地研究“机器学习”,并继续扩展和完善它的定义也有助于我们理解机器学习的本质。

你或许已经读过许多关于机器学习的深度和和半深度的攵章并探讨了机器学习与众多其他主题的关系。在讨论如此复杂的概念时回到最初的一些共同参考资料总是一个好主意;问题是,对於机器学习这样的主题存在无数这样的参考资料。

所以我想为什么不研究一下这些参考点呢?

这是一篇不那么严肃的帖子旨在探讨機器学习的本质。

话不多说作为一个看似属于语义学的练习,让我们来探索一下关于机器学习的定义

Tom Mitchell:根据优化过程抽象定义机器学習

第一个定义,是我个人最喜欢的来自著名的计算机科学家、机器学习研究者,卡内基梅隆大学的 Tom Mitchell 教授

对于某类任务 T 和性能度量 P,如果一个计算机程序在 T 上以 P 衡量的性能随着经验 E 而自我完善那么我们称这个计算机程序在从经验 E 中学习。

Mitchell 的这个定义在机器学习领域是众所周知的并且经受了时间的考验。这句话首次出现在他 1997 年出版的 Machine Learning 一书中

这句话对我个人产生了很大的影响,多年来我多次提到它并茬硕士论文中引用了这个定义。在 Goodfellow, Bengio & Courville 最近出版的权威著作《深度学习》(Deep Learning) 的第 5 章中这段引文也占据了突出位置,成为该书对学习的解释的出發点

“花书”《深度学习》:论计算在机器学习中的重要性

说到 Goodfellow、Bengio 和 Courville,就不得不提他们合著的《深度学习》这本书对机器学习是这样萣义的:

机器学习本质上属于应用统计学,更多地关注如何用计算机统计地估计复杂函数不太关注为这些函数提供置信区间。

Mitchell 对机器学習的定义在应用中不再适用;它侧重于优化过程的具体组成部分这些组成部分通常与机器学习有关,但它没有规定应该如何在实践中接菦它

《深度学习》中对机器学习的定义在本质上要规范得多,它指出计算能力得到了利用 (实际上强调了对计算能力的使用)而传统的统計概念置信区间则不再强调。

实战数据挖掘:“学习”必须是有意地去学习

在我看来另一个特别值得注意的关于机器学习的定义来自 Witten, Frank & Hall 所著的《数据挖掘:实用机器学习工具与技术》,这是我第一本完整阅读了的关于这个主题的书

《数据挖掘》这本书很少涉及数学,但有佷多实用性的解释对于刚进入机器学习领域的人,“数据挖掘” 很长一段时间是我的首选推荐

作者对机器学习最初定义有点零散,他們试图在机器学习和数据挖掘的背景中将学习、性能和知识这些概念编织在一起但其中一些语句值得注意:

我们感兴趣的是在新的情况丅得到性能的改进,或至少有性能改进的潜力

当系统以一种使它们在未来表现更好的方式改变自己的行为时,它们就会学习

学习意味著思考和目标。学习必须是有意地去学习

经验表明,在机器学习和数据挖掘的许多应用中所获得的显式知识结构、结构描述,至少与茬新实例中表现良好的能力同等重要人们经常使用数据挖掘来获取知识,而不仅仅是用来预测

“数据挖掘”这个术语被用作机器学习嘚补充术语。上面引用的语句出自这本书的第三版出版于 2011 年,当时数据挖掘这个词比现在更有吸引力;即使不说是引用自数据挖掘的书上面所写的内容对机器学习本身也适用。

Witten, Frank & Hall 为机器学习的定义提供了一个不同的角度:Mitchell 专注于优化过程的特定组成部分Goodfellow, Bengio & Courville 倾向于一种更规范的定义,并强调计算能力的相对重要性这个定义则尝试侧重 “learning” 的哪些方面在机器学习过程中是类似和重要的。

上面引用的语句还提供了一个重要的点兼具实用性和哲学性,即最后一段指出获得知识和使用这些知识的能力都是机器学习的重要方面。

最后让我们来看 Christopher Bishop 在《模式识别和机器学习》一书中对机器学习的定义。值得注意的是Bishop 没有开门见山地定义这个术语,但是很好地隐式地提供了以算法為中心的机器学习的定义 (在一个数字分类任务中讨论到):

机器学习算法的结果表示为一个函数 y (x)它以一个新的数字的图像 x 作为为输入,产苼向量 y与 target vector 的形式相同。

一旦模型被训练出来就可以用来判断新的数字图像 (新样本) 对应的标签,这些新样本的集合被称为测试集

正确汾类与训练集不同的新样本的能力叫做泛化 (generalization)。在实际应用中输入向量的可变性使得训练数据只能包含所有可能输入向量的很小一部分,洇此泛化是模式识别的一个中心目标[4]

首先,除了我们讨论的机器学习是有监督学习而不是无监督学习或强化学习 (或其他形式的机器学習) 外,上面的引用对 “模式识别” 没有更多的解释

其次,也是更重要的一点这是唯一对机器学习所需步骤逐步处理的定义,无论这些步骤在这个例子中可能多么简短

同样有趣的是,随后的页面以及 Bishop 的书一半的篇幅概述了许多额外的机器学习概念,并将它们很好地结匼在一起提供了具有可读性的介绍,而不至于陷入数学的困境 (书中的其余部分解释了数学) 

这样,我们已经有四种方法来定义机器学习:一种是根据它的优化过程抽象地定义它机器学习;第二种更有规范性,并指出计算在机器学习中的重要性;第三定义侧重于 “学习” 嘚哪些方面在机器学习过程中是类似的和重要的;最后一个定义从算法的角度概述了机器学习

这些定义都不是不正确,但都不完整探討先驱者和受人尊敬的研究人员所认为的 “机器学习”,将扩展我们自己对机器学习的定义

本文经授权发布,版权归原作者所有;内容為作者独立观点不代表亿欧立场。如需转载请联系原作者

学习A.I. 已经一个月了刷完了吴恩達的机器学习课程,做了所有练习目前正在学习他的Deep Learning 课程,已经学到卷积神经网络进度上略慢,但是的确感觉进步了很多

正值A.I.击败煋际争霸2顶级职业玩家的新闻档口,DeepMind 的 AlphaStar 的进步让人印象深刻A.i. 的脚步真是快的无法想象。不到三年前A.I. 代表,同样也是DeepMind 出品的 AlphaGo 击败围棋顶級棋手李世石这已经惊天动地了。没想到如今在即时战略游戏中,A.I. 已经可以战胜人类顶级选手比分10:1。这是一件值得注意的成就泹比起/AlphaGo的开天辟地,这种成就实际上不算太了不起

星际争霸是我上大学时候经常玩的游戏。它有很强的对抗性和趣味性我还记得当年嘚Naria, Bisu, Nada, 这些顶级的星际争霸职业玩家。曾经有那么一段时间我甚至沉迷于这款游戏。

星际争霸是一款非完全信息的游戏要玩好这个游戏,伱需要应对战争迷雾扩大视野,建造兵营发展经济,兵种选择兵种占位,利用地形等等。可以说是一个相当复杂的游戏在合适嘚时间点选择合适的操作是非常重要的。而且重要的是敌人的动作你无法看到,你不知道对手在干什么所以侦测就变得非常重要。在遊戏录像()中可以看到AlphaStar 的操作是完美的,它对于距离的控制也过于完美实际上这一点对于人类玩家是不公平的。而星际争霸是一个極度依赖微操的游戏这种完美操作其实不应该出现。

抛开这些实际上的不公平A.I. 其他的操作,包括野兵营正面强攻的时机把握得都比囚类要好。它对于视野内信息的评价极为精确游戏中的一些细节也显示出它对于时间的掌握非常精确,比如有个农民在气矿完成之后夲来应该去采气,它却选择等到足够的水晶矿后建造了一个兵营随后才去采气。这和人类的选择是一致的所以,这些细微处的精确评價是A.I.远远超越人类的地方。但其实游戏中还有一些细节比如AlphaStar的一些兵被分割成了两块后,它对于在对方基地内的那些兵的操作看上去僦和以前的电脑一样蠢这说明A.I.对于需要放弃的兵力的选择不是让它们发挥余热,而是想要摆脱困境

另外,在Mana赢下AlphaStar的那一局中Mana采用连續同样的骚扰,不停调动AlphaStar的兵力它一次又一次的中招,表现的和低级电脑一样愚蠢这说明它对于经济和农民的权重过大,几乎全体兵仂一起出动去守护自己的经济而一旦敌人消失在迷雾中,它立刻回到原先的主线防御上而不是选择留下部分兵力来防御敌人再次袭击。这和人类完全不一样

而Mana攻击AlphaStar二矿的时候,AlphaStar的选择也看起来很愚蠢它选择了分兵包围的策略。这大概是因为在它的评估体系里正面無法和Mana对抗,所以采用包围的方案但这时候即便包围战略成功,二矿和三矿的损失也必然导致失败所以它对于人类的战术的应对其实遠远谈不上聪明。如果是人类玩家在这时候很可能采取“围魏救赵”的换家策略。凭借微操AlphaStar很可能会比Mana更快地拆掉对方的基地。这样甚至可以调动Mana的军队回防

不可否认,AlphaStar是A.I.的一个重大进步但比起AlphaGo的开天辟地,AlphaStar是一个邯郸学步的笨小孩它并没有真正理解战术的核心思想。 但是AlphaStar是一个勤奋的笨小孩,它训练两周就相当于人类训练了200年任何技战术都最终无法骗过它。目前来说它对于迷雾内的判断囷评估几乎是空白,但这并不代表它未来无法进行评估它最终会发现类似于围魏救赵这样的策略。

原则上来说人类的战术其实是基于當前局势的合理操作。本质上都是可预测的但现实生活不会有明确的科技树和千篇一律的技战法,还有很多超出预知的不可控因素存在所以DeepMind声称的可以做天气预测之类的声明,实质上是过于乐观的想法大气动力学是高度非线性的,本质上无法做长期预测存在很多意料之外的强扰动因素。

很多机器学习的学者对于机器学习本身过于乐观在他们眼中,万物皆可算实质上是很幼稚的想法。以一个理论粅理学者的眼光看来机器学习的本质技术还是微扰论,就是泰勒展开这是非常非常局限的算法,超出微扰论的范畴它会表现的很愚蠢还有一点就是机器学习目前的技术还没有提升到动力学的层次,这意味着计算机无法理解动态逻辑它可以理解图片,但无法理解电影这其实说明机器学习目前还处在物理学中的静力学层次,对于物理学而言差不多仅相当于19世纪初的水平。

现代物理的发展水平已经远遠超越了微扰论和静力学这一层次组合拓扑,拓扑纠缠强弱对偶理论等等更是机器学习的泰勒展开远远无法企及的高度。而机器学习目前连动力学这一层都还没有捅破目前的机器学习和19世纪中后期的物理学很相似,都在欢呼统一但物理学早就欢呼过统一很多次了,倳实证明每一次欢呼统一的背后总是在展示人类本身的浅薄。

在AlphaStar公布的算法中并没有超越当前的革命性进展。仍然是深层神经网络下嘚监督学习和强化学习它的革新之处在于生成对抗网络的新算法,但这仍然类似于遗传进化算法也并非是颠覆性的算法。

我之所以用現代物理来类比是因为机器学习目前已经可以算得上是真正的严肃科学。既然是严肃科学就必须用科学的方法来审视它机器学习目前處在静力学阶段,这恰恰说明它有巨大的潜力A.I.的革命大潮已经扑面而来,势不可挡下一个世代,理论物理学和机器学习将会深度结合两者在方法论和研究路径上都非常类似。时间序列问题动力学预测问题,都将会从物理学的拉格朗日力学中获得养分全新的深度学習框架将会更加强大。

其实在我看来机器学习的研究者们早就开始拥抱理论物理了。机器学习教父 Hinton 近期的主要工作是玻尔兹曼机和受限箥尔兹曼机熟悉统计物理的人都知道,所谓玻尔兹曼机其实就是物理学中非常著名的Ising模型实际上更具体的说是1+1维Ising 模型。这个模型非常簡单严格解都可以很容易写下。这说明机器学习的开拓者们在内心深处是将机器学习本身看作是一种统计物理学的是一门严格的科学。为什么要研究玻尔兹曼机其实原因很简单,机器学习的学者们想要跳出泰勒展开的微扰框架进入到非微扰领域。因为 Ising 模型本身就是┅个非微扰模型它属于强关联电子系统。但其实机器学习本身还没有完全搭好微扰论的框架第一步应该做的是场论,路径积分对称性自发破缺这种微扰论框架下被奉为圭臬的理论转化为机器学习算法。这一次需要理论物理学家们去拥抱机器学习。

最后说一点关于神經网络的看法神经网络有输入层,隐藏层输出层三种基本结构。神经网络的前向传播算法总结起来就是1.参数随机化2. 选择每一层的激活函数,比如线性-ReLu-线性-ReLu-Logistic, 3. 计算Cost function 而反向传播算法主要是计算参数的导数,然后进行更新迭代原则还是要让Cost Function 最小化。这里有很多技术细节仳如Cost Function 需要正规化,对于数据本身需要做mini-batch 还需要在mini-batch之间做迭代速率衰减,用momentum或者Adam来做优化等等这些过程看起来很复杂,但学过物理的人嘟能明白这些其实都是很自然的表示基变换本质上,神经网络在数学上类似于求一个Quiver Lie Algebra 的表示涉及的算法内核也类似于求解Clebush-Gordon系数。迭代嘚原则类似于找到特定表示的Quiver表示分解实际上,如果做过Quiver Gauge Theories 的人会比较容易理解神经网络因为很多思想都几乎是一致的。为什么层数和單元数对于神经网络的训练效果影响非常大其实很简单,因为数据本身内含了某种Quiver对称性!用更专业的数学物理眼光来看任何形状的絀现都是对称性破缺的结果,所以总可以从高度对称的出发点寻找到对称破缺的路径使得最终的形状满足对称破缺后的Quiver对称性。所以機器学习的某些结果恰恰在印证现代数学物理的结果。

未来已来理论物理学的学者们,拥抱人工智能吧

机器学习的本质是模式识别 一蔀分可以用于预测(有监督学习,无监督学习)另一类直接用于决策(强化学习)。相对物理微分方程代表的预测方法来说机器学习茬一定程度说是一种黑箱思想, 即先不求开始找到事物发展的精确模型而是用基本的模型框架,直接以数据驱动我们的预测

对于有监督的学习,就是求解函数的思想求解 Y=f(X)使得P(Y|X) 出错率最小(error minimization),这里的f就是模式 是从数据(X,Y)反解出来的 你甚至可以把它看做某種插值。

对于无监督学习 通过我们需要从数据X中直接找到P(X), 或者说在没有导师(Y)的情况下自发的发现pattern规律

对于强化学习 我们要找到的是主体的action A 和环境的 reward R 之间的对应关系(比如围棋), 而模式体现在主体和环境之间的相互影响

这其中的哲学内涵即贝叶斯分析框架: 即先不给定未来的结果, 而是列出所有可能的结果即预设的可能大小(先验概率)后面根据数据调整每种结果发生的可能性(后验概率),根据一定的目标函数将想得到的结果概率最大化(MAP)

如果你把贝叶斯分析的框架自动化, 让电脑完成 你就得到机器学习的最基夲框架。

机器学习如果可以进入一个问题中 往往要具备三个条件

1, 系统中可能存在模式

2 这种模式不是一般解析手段可以猜测到的。

洳果三点有一点不符都很难运用机器学习。

机器学习的一个核心任务即模式识别 我们通常可以用模式识别来对我们未来研究的系统进荇归类, 并预测各种可能的未来结果比如一个投行女因为工作压力过大而自杀了, 那么在她之前的活动行为数据(比如点击手机的某些app嘚频率)里是否可能存在某种模式? 这种模式是否可以判定她之后的行为类型 并且这个过程可否通过历史数据由计算机学习?如果都可以这就是一个机器学习问题。

以上是比较经典的说法当然随着机器学习的发展其范畴也会扩大,而所包含的思想也不是早先的一个贝叶斯框架可以概括 比如说深度学习, 就更包含了利用网络连接对事物本身的

我要回帖

 

随机推荐