这一小节介绍随机梯度下降法(stochastic gradient descent)在神经网络中的使用,这里首先回顾了第三讲中介绍的线性神经网络的误差曲面(error surface),如下图所示。线性神经网络对应的误差曲面的纵截面如碗装,横截面则如一组同心的椭圆。梯度下降法的作用就是不断调整参数,使得模型的误差由“碗沿”降到“碗底”,参数由椭圆外部移动到椭圆的中心附近。当然,这里说的是只有两个参数的情况,参数更多的情况则更复杂。
下图给出了梯度方向对梯度改变大小的影响。
下图说明了学习步长(learning rate)对损失函数改变的影响。过大的学习速率会导致损失函数越来越大,模型距离最优解(或次优解)越来越远。
上面是模型在所有的训练数据上做完梯度下降法之后再对参数进行修正的,这叫做批量梯度下降法(batch gradient descent)。而随机梯度下降法则是每一次计算某一个训练数据上的梯度或者某一组训练数据(训练数据集的一个很小的子集)的梯度,然后更新参数。在每一个训练数据上计算梯度然后更新参数的称之为在线学习(online learning),在一小组训练数据上计算梯度然后更新参数的称之为小批量梯度下降法(mini-batch gradient descent),后者的效果可能比前者好一些。
下图是对使用mini-batch gradient descent的几点建议。
A bag of tricks for mini-batch gradient descent
这一小节介绍使用小批量梯度下降法(mini-batch gradient descent)的一些技巧。下图是初始化权值参数的技巧。
下图介绍的是shifting the inputs,其是指给输入的每一个分量加上一个常数值,使不得输入的平均值为0。(这里的意思应该是给输入的每一个分量加上一个常数,不同分量的常数可能不同,使得训练数据集的所有输入加在一起是个零向量。当然,这是我自己的理解,可能有出入。)下图给出了一个二维的线性神经网络,且给出了两组训练数据及其相应向量参数对应的直线。可以看到上面的那两条直线夹角很小,二者结合在一起就会得到一个很狭长的椭圆的error surface,这样的是我们不喜欢的error surface,不利于快速找到最优解或次优解。下面我们给输入的每一个分量都加上一个-100,然后得到的error surface就有一个比较接近圆的形状,这样的是我们想要的,便于快速的找到最优解或次优解。另外这里还提到了对隐匿层神经单元的调整,比较了双曲正切函数(hyperbolic tangent function)和逻辑函数(logistic function),但是这里没听明白具体怎么使用。
下图介绍的是scaling the inputs,该情况针对的是输入向量的分量取值相差悬殊时,通过给分量乘上一个系数来使得error surface更接近圆形,从而便于快速找到最优解或次优解。
一个更thorough的方法是去除输入向量不同分量之间的相关性(decorrelate the input components),相关的方法很多,这里给出了主成分分析法(PCA, Principal Components Analysis)。在Andrew Ng的课程中详细介绍过PCA,详细内容请阅读Machine Learning第八周笔记:K-means和降维
。对于线性模型,PCA实现了降维,从而将椭圆形的error surface转换成了圆形的。
下图列出了在多层神经网络中经常遇到的两个问题。一个是,当我们以很大的学习步长(learning rate)开始训练网络时,隐匿单元的权重往往会取到很大的正数或很小的负数,而此时这些权重对应的梯度又很小,给我们造成一种模型好像取得了一个局部最小值。另一个是,在分类网络中,我们经常使用平方误差或者交叉熵误差,一个好的策略是让每一个输出单元的输出情况和实际上的输出比例相当(实际上输出1的比例是多少,那么输出单元的输出情况一个就是这样)。神经网络很快就会发现这一策略,但需要很长的时间才能一点点的优化网络,看起来就好像模型处于一个局部最小值附近。
下图提示我们不要太快得减小学习步长(learning rate)。
下面给出四种加快mini-batch learning的方法,前三种我们会在下面一一介绍,最后一种本课程不涉及,感兴趣的话请自行搜索。这些方法具有很强的技巧性,需要我们在应用中不断摸索。
The momentum method
这一小节详细介绍动量方法(the momentum method),其应用很广泛,在full-batch learning和mini-batch learning中都可以使用。下面给出了动量方法的intuition和计算公式。
Using momentum speeds up gradient descent learning because
Directions of consistent change get amplified.
Directions of fluctuations get damped.
Allows using much larger learning rates.
Momentum accumulates consistent components of the gradient and attenuates the fluctuating ones. It also allows us to use bigger learning rate because the learning is now more stable.
标准的动量方法(由Nesterov在1983年提出)是在当前位置计算梯度,然后在累积的更新梯度方向上做一个大的跳跃。下面给出了一种更好地动量方法(由IIya Sutskever在2012年提出),其先在先前累积的梯度方向上做一个大的跳跃,再计算新的梯度并修正错误。
下面对两种方法做了比较,图中蓝色箭头是做两次标准动量方法得到的;而图中棕色箭头是改进动量方法先做的一次大跳跃得到的,红色箭头是修正,绿色箭头是进行一次改进动量方法得到的。可以看到,改进的比标准的要快很多。
Adaptive learning rates for each connection
这一小节介绍the separate, adaptive learning rate for each connection(针对网络中每个连接的自适应学习步长)。其思想是在神经网络的每一个连接处都应该有该连接自己的自适应学习步长,并在我们调整该连接对应的参数时调整自己的学习步长:如果权值参数修正梯度,那就应该减小步长;反之,应该增大步长。
下图给出了intuition。我的理解是在多层神经网络中,不同层的梯度通常相差悬殊,最开始的几层对应的梯度可能比最后几层权值对应的梯度小几个数量级。另外一方面,网络中每一单元又受其扇入单元的影响,为了修正一个同样的错误,各个单元的“学习步长”应该是不同的。
一个可行的方法是有一个全局的学习步长,然后对每一个权值参数有一个local gain,用gij表示。初始时gij均取值为1,后每次迭代根据权值梯度的变化情况作出调整,具体调整公式如下图所示。
下图列出了几种提高自适应学习步长性能的几个技巧。
Rmsprop: Divide the gradient by a running average of its recent magnitude
这一小节介绍rmsprop算法。在网上找到一个python模块——climin,一个做优化的机器学习包,里面包含了很多优化算法。
首先介绍rprop算法。前面我们说过,不同权值参数的梯度的数量级可能相差很大,因此很难找到一个全局的学习步长。这时,我们想到了在full-batch learning中仅靠权值梯度的符号来选择学习步长。rprop算法正是采用这样的思想:对于网络中的每一个权值参数,当其对应的前面两个梯度符号相同时,则增大该权值参数对应的学习步长;反之,则减小对应的学习步长。并且,rprop算法将每一个权值对应的学习步长限制在百万分之一到50之间。
下图解释了prop算法为什么不能应用于mini-batch learning中。因为prop算法违背了随机梯度下降的原理:假设有一个在线学习系统,初始的学习步长较小,在其上应用prop算法。这里有十组训练数据,前九组都使得梯度符号与之前的梯度符号相同,那么学习步长就会增加九次;而第十次得来的梯度符号与之前的相反,那么学习步长就会减小一次。这样一个过程下来,学习步长会增长很多,如果系统的训练数据集非常之大,那学习步长可能频繁的来回波动,这样肯定是不利于学习的。
设想是否存在这样一种算法,其既能保持rprop算法的健壮性,又能应用在mini-batch learning上呢,rmsprop算法应运而生。rmsprop算法不再孤立地更新学习步长,而是联系之前的每一次梯度变化情况,具体如下。rmsprop算法给每一个权值一个变量MeanSquare(w,t)用来记录第t次更新步长时前t次的梯度平方的平均值,具体计算方法如下图所示(注意,其中的系数0.9和0.1只是个例子,具体取值还要看具体情况)。然后再用第t次的梯度除上MeanSquare(w,t)??????????????√得到学习步长的更新比例,根据此比例去得到新的学习步长。按我的理解,如果当前得到的梯度为负,那学习步长就会减小一点点;如果当前得到的梯度为正,那学习步长就会增大一点点。这里的MeanSquare(w,t)??????????????√是名称中RMS的由来。数据分析师培训
下图列出了关于rmsprop算法的一些研究,想了解详情的话请自行搜索。
最后一张图是对神经网络学习方法的一个小总结。
这几个算法都比较烧脑啊,全是凭大脑推理思考,回头要好好做实验。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析领域,Excel作为一种普及率极高且功能强大的工具,无疑为无数专业人士提供了便捷的解决方案。尽管Excel自带了丰富的功 ...
2025-01-17在这个瞬息万变的时代,许多人都在寻找能让他们脱颖而出的职业。而数据分析师,作为大数据和人工智能时代的热门职业,自然吸引了 ...
2025-01-14Python作为一门功能强大的编程语言,已经成为数据分析和可视化领域的重要工具。无论你是数据分析的新手,还是经验丰富的专业人士 ...
2025-01-10完全靠数据决策,真的靠谱吗? 最近几年,“数据驱动”成了商界最火的关键词之一,但靠数据就能走天下?其实不然!那些真正成功 ...
2025-01-09SparkSQL 结构化数据处理流程及原理是什么?Spark SQL 可以使用现有的Hive元存储、SerDes 和 UDF。它可以使用 JDBC/ODB ...
2025-01-09在如今这个信息爆炸的时代,数据已然成为企业的生命线。无论是科技公司还是传统行业,数据分析正在深刻地影响着商业决策以及未来 ...
2025-01-08“数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而言,数据指标体 ...
2025-01-07在职场中,当你遇到问题的时候,如果感到无从下手,或者抓不到重点,可能是因为你掌握的思维模型不够多。 一个好用的思维模型, ...
2025-01-06在现代企业中,数据分析师扮演着至关重要的角色。每天都有大量数据涌入,从社交媒体到交易平台,数据以空前的速度和规模生成。面 ...
2025-01-06在职场中,许多言辞并非表面意思那么简单,有时需要听懂背后的“潜台词”。尤其在数据分析的领域里,掌握常用术语就像掌握一门新 ...
2025-01-04在当今信息化社会,数据分析已成为各行各业的核心驱动力。它不仅仅是对数字进行整理与计算,而是在数据的海洋中探寻规律,从而指 ...
2025-01-03又到一年年终时,各位打工人也迎来了展示成果的关键时刻 —— 年终述职。一份出色的年终述职报告,不仅能全面呈现你的工作价值, ...
2025-01-03在竞争激烈的商业世界中,竞品分析对于企业的发展至关重要。今天,我们就来详细聊聊数据分析师写竞品分析的那些事儿。 一、明确 ...
2025-01-03在数据分析的江湖里,有两个阵营总是争论不休。一派信奉“大即是美”,认为数据越多越好;另一派坚守“小而精”,力挺质量胜于规 ...
2025-01-02数据分析是一个复杂且多维度的过程,从数据收集到分析结果应用,每一步都是对信息的提炼与升华。可视化分析结果,以图表的形式展 ...
2025-01-02在当今的数字化时代,数据分析师扮演着一个至关重要的角色。他们如同现代企业的“解密专家”,通过解析数据为企业提供决策支持。 ...
2025-01-02数据分析报告至关重要 一份高质量的数据分析报告不仅能够揭示数据背后的真相,还能为企业决策者提供有价值的洞察和建议。 年薪 ...
2024-12-31数据分析,听起来好像是技术大咖的专属技能,但其实是一项人人都能学会的职场硬核能力!今天,我们来聊聊数据分析的核心流程,拆 ...
2024-12-31提到数据分析,你脑海里可能会浮现出一群“数字控”抱着电脑,在海量数据里疯狂敲代码的画面。但事实是,数据分析并没有你想象的 ...
2024-12-31关于数据分析师是否会成为失业高危职业,近年来的讨论层出不穷。在这个快速变化的时代,技术进步让人既兴奋又不安。今天,我们从 ...
2024-12-30