梯度下降法分析
梯度下降法的基本思想是函数沿着其梯度方向增加最快,反之,沿着其梯度反方向减小最快。在前面的线性回归和逻辑回归中,都采用了梯度下降法来求解。梯度下降的迭代公式为:
\(\begin{aligned} \theta_j=\theta_j-\alpha\frac{\partial\;J(\theta)}{\partial\theta_j} \end{aligned} \)
在回归算法的实验中,梯度下降的步长\(\alpha\)为0.01,当时也指出了该步长是通过多次时间找到的,且换一组数据后,算法可能不收敛。为什么会出现这样的问题呢?从梯度下降法的出发点可以看到,算法指出了行进的方向,但没有明确要行进多远,那么问题就来了,步子太小,走个一千一万年都到不了终点,而步子太大,扯到蛋不说,还可能越跑越远。
如上图,蓝色为一个碗形函数,其最小值在\(x=2\)那点,假如从\(x=0\)开始迭代,即是图中点1,此时知道应该向右走,但步子太大,直接到点2 了,同样点2处知道该往左走,结果又跑太远到点3了,…,这样越走越偏离我们的终点了。此情况的验证可以直接把前面回归算法的步长改大,比如把线性回归迭代步长改为10,要不了几次迭代结果就是Nan了。
这样有一点需要说明下,同样的步长\(\alpha\),为何从1到2和2到3的长度不一致?因为1-6点的梯度是逐步增大的,故虽然步长相同,但移动的距离却越来越远,从而进入了一个恶性循环了。
解决方法 对于上面提出的问题,解决方法有多种,下面就大致来说说,若有新的方法此处未提及,欢迎补充。
1.手动测试法
顾名思义,此方法需要手动进行多次实验,不停调整参数,观测实验效果,最终来确定出一个最优的步长。那么如何判断实验效果的好坏呢?一种常用的方法是观察代价函数(对线性回归而言)的变化趋势,如果迭代结束后,代价函数还在不停减少,则说明步长过小;若代价函数呈现出振荡现象,则说明步长过大。如此多次调整可得到较合理的步长值。
显然,该方法给出的步长对于这组训练样本而言是相对较优的,但换一组样本,则需要重新实验来调整参数了;另外,该方法可能会比较累人~~
2.固定步进
这是一个非常保险的方法,但需要舍弃较多的时间资源。既然梯度下降法只给出方向,那么我们就沿着这个方向走固定路程,即将梯度下降迭代公式修改为:
\(\begin{aligned} \theta_j=\theta_j-\alpha\;sign({\frac{\partial\;J(\theta)}{\partial\theta_j}}) \end{aligned} \)
其中的\(sign\)是符号函数。
那么\(\alpha\)取多大呢?就取可容许的最小误差,这样的迭代方式可以保证必然不会跨过最终点,但需要耗费更多次迭代。
3.步长衰减
步长衰减主要考虑到越接近终点,每一步越需要谨慎,故把步长减小,宁肯多走几步也绝不踏错一步。在吴恩达公开课中,他也提到了可在迭代中逐步减少步长。那如何减少步长?通常可以有这么几种做法:
A.固定衰减。比如每次迭代后,步长衰减为前一次的某个比例(如95%)。
B.选择性衰减。根据迭代状态来确定本次是否衰减,可以根据梯度或代价函数的情况来确定。比如,若此次迭代后代价函数增加了,则说明上次迭代步长过大,需要减小步长,否则保持不变,这么做的一个缺点是需要不停计算代价函数,训练样本过多可能会大大增加耗时;也可以根据梯度变化情况来判断,我们知道我们的终点是梯度为0的地方,若本次迭代后的梯度与前一次的梯度方向相反,则说明跨过了终点,需要减小步长。
显然,采用步长衰减的方式,同样也依赖于初始步长,否则可能不收敛。当然其相对于固定步长,则会更具稳定性。
4.自适应步长
此方法思想来源与步长衰减。在每次迭代,按照下面步骤来计算步长:
A.设置一个较大的初始步长值
B.计算若以此步长移动后的梯度
C.判断移动前后梯度方向是否会改变,若有改变,将步长减半,再进行A步;否则,以此步长为本次迭代的步长。
还是以上面那个图像来说明下。首先,初始点1在\(x=0\)处,按照初始步长则应该移动到点2\(x=5\)处,可点1和2处梯度方向改变了,那边步长减半则应该到点A\(x=2.5\)处,点1与A的梯度还是不同,那再将步长减半,则移动到点B\(x=1.25\)处,由于点1与B的梯度方向相同,则此次迭代将从1移动到B。
显然,该方法不会收到初始步长的影响,每次自动计算使得不会跨过终点的最大步长值。另一方面,从计算量上讲,有可能会比原来的方式更大,毕竟有得有失,你不用自己去一次次修改参数->运行程序->观察结果->…->修改参数。具体代码只需对原回归算法的代码略做修改即可。
将原回归算法迭代中的2行代码
1 Grad = CalcGrad(TX, TY, Theta, fun);
2 Theta = Theta + Alpha .* Grad;
修改为
1 Alpha = 16 * ones(n, 1);
2 Theta0 = Theta;
3 Grad0 = CalcGrad(TX, TY, Theta0, fun);
4 while(min(Alpha) > eps)
5 Theta1 = Theta0 + Alpha .* Grad0;
6 Grad1 = CalcGrad(TX, TY, Theta1, fun);
7 s = sign(Grad1 .* Grad0);
8 if (min(s)>=0)
9 break;
10 end
11
12 s(s==-1) = 0.5;
13 s(s==0) = 1;
14 Alpha = Alpha .* s;
15 end
16 Grad = Grad0;
17 Theta=Theta1;
View Code
即可实现。
补充说明
上面的说明是针对每一维的,对于步长需要每一维计算。若需要所有维度使用同一个步长,请先将训练样本归一化,否则很可能收敛不到你想要的结果。数据分析师培训
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
“最近复购率一直在下降,我们的营销力度不小啊,为什么用户还是走了?” “是不是广告投放的用户质量不高?还是我们的产品问题 ...
2025-02-21以下文章来源于数有道 ,作者数据星爷 SQL查询是数据分析工作的基础,也是CDA数据分析师一级的核心考点,人工智能时代,AI能为 ...
2025-02-19在当今这个数据驱动的时代,几乎每一个业务决策都离不开对数据的深入分析。而其中,指标波动归因分析更是至关重要的一环。无论是 ...
2025-02-18当数据开始说谎:那些年我们交过的学费 你有没有经历过这样的场景?熬了三个通宵做的数据分析报告,在会议上被老板一句"这数据靠 ...
2025-02-17数据分析作为一门跨学科领域,融合了统计学、编程、业务理解和可视化技术。无论是初学者还是有一定经验的从业者,系统化的学习路 ...
2025-02-17挖掘用户价值本质是让企业从‘赚今天的钱’升级为‘赚未来的钱’,同时让用户从‘被推销’变为‘被满足’。询问deepseek关于挖 ...
2025-02-17近来deepseek爆火,看看deepseek能否帮我们快速实现数据看板实时更新。 可以看出这对不知道怎么动手的小白来说是相当友好的, ...
2025-02-14一秒精通 Deepseek,不用找教程,不用买资料,更不用报一堆垃圾课程,所有这么去做的,都是舍近求远,因为你忽略了 deepseek 的 ...
2025-02-12自学 Python 的关键在于高效规划 + 实践驱动。以下是一份适合零基础快速入门的自学路径,结合资源推荐和实用技巧: 一、快速入 ...
2025-02-12“我们的利润率上升了,但销售额却没变,这是为什么?” “某个业务的市场份额在下滑,到底是什么原因?” “公司整体业绩 ...
2025-02-08活动介绍 为了助力大家在数据分析领域不断精进技能,我们特别举办本期打卡活动。在这里,你可以充分利用碎片化时间在线学习,让 ...
2025-02-071、闺女,醒醒,媒人把相亲的带来了。 我。。。。。。。 2、前年春节相亲相了40个, 去年春节相亲50个, 祖宗,今年你想相多少个 ...
2025-02-06在数据科学的广阔领域中,统计分析与数据挖掘占据了重要位置。尽管它们常常被视为有关联的领域,但两者在理论基础、目标、方法及 ...
2025-02-05在数据分析的世界里,“对比”是一种简单且有效的方法。这就像两个女孩子穿同一款式的衣服,效果不一样。 很多人都听过“货比三 ...
2025-02-05当我们只有非常少量的已标记数据,同时有大量未标记数据点时,可以使用半监督学习算法来处理。在sklearn中,基于图算法的半监督 ...
2025-02-05考虑一种棘手的情况:训练数据中大部分样本没有标签。此时,我们可以考虑使用半监督学习方法来处理。半监督学习能够利用这些额 ...
2025-02-04一、数学函数 1、取整 =INT(数字) 2、求余数 =MOD(除数,被除数) 3、四舍五入 =ROUND(数字,保留小数位数) 4、取绝对值 =AB ...
2025-02-03作者:CDA持证人 余治国 一般各平台出薪资报告,都会哀嚎遍野。举个例子,去年某招聘平台发布《中国女性职场现状调查报告》, ...
2025-02-02真正的数据分析大神是什么样的呢?有人认为他们能轻松驾驭各种分析工具,能够从海量数据中找到潜在关联,或者一眼识别报告中的数 ...
2025-02-01现今社会,“转行”似乎成无数职场人无法回避的话题。但行业就像座围城:外行人看光鲜,内行人看心酸。数据分析这个行业,近几年 ...
2025-01-31