博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
衰减学习率真的有用吗?
阅读量:4517 次
发布时间:2019-06-08

本文共 284 字,大约阅读时间需要 1 分钟。

一、学习率衰减实验

 

二、不做衰减

 

三、结论

      由此可见,使用学习率衰减,使得训练集上的loss下降更快,迭代20轮时,不使用衰减,训练集loss是0.2033,而使用衰减的是0.05。所以,对于训练集loss难以进一步下降的场景,可以使用学习率衰减。

      但是,验证集上的loss和准确率并没有显著区别,都是1.6和0.73左右,原因是模型早已过拟合,验证集收敛的loss远远大于训练集。

      猜想,在不过拟合的情况下,衰减学习率能同时提高训练集和验证集的效果。

转载于:https://www.cnblogs.com/mimandehuanxue/p/9252459.html

你可能感兴趣的文章
类实例化(new)
查看>>
我是怎么定义微服务平台?
查看>>
C语言中多维数组的内存分配和释放(malloc与free)(转)
查看>>
python random
查看>>
互联网技术
查看>>
input输入框只允许输入数字/ 数字+小数点/ 文字+字母/ 等解决方法
查看>>
【翻译】西川善司「实验做出的游戏图形」「GUILTY GEAR Xrd -SIGN-」中实现的「纯卡通动画的实时3D图形」的秘密,前篇(2)...
查看>>
函数名、闭包及迭代器
查看>>
mysql 5.6 参数详解
查看>>
求旋转数组的最小元素
查看>>
jQuery ajax error函数(交互错误信息的获取)
查看>>
Gson解析Json数组
查看>>
Lintcode: Fast Power
查看>>
Pocket Gem OA: Log Parser
查看>>
枚举也能直接转换为对应的数值输出
查看>>
angularjs1-7,供应商
查看>>
BitSet
查看>>
Spring常用注解,自动扫描装配Bean
查看>>
(转载)深入理解WeakHashmap
查看>>
JAVA中的数组
查看>>