博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
卷积网络训练时的问题
阅读量:2184 次
发布时间:2019-05-02

本文共 284 字,大约阅读时间需要 1 分钟。

1.训练样本大量的情况下,计算偏导数的计算量过大

解决:随机梯度下降

将从样本中抽取部分样本分成若干份,然后做梯度下降。有利于放到GPU中做并行运算,以牺牲精确度换取时间。

 

2.梯度消失问题(梯度弥散问题)

激励函数在某一段的导数过小,导致Loss过早的不再下降,精确度过早的不再提高。

解决:

消除链式法则中发生的连乘式每一项绝对值小于1的情况。

1.初始化一个合适的w

有可能引发梯度爆炸

 

2.选个合适的激励函数

ReLU函数 : y=max(x,0)

优点:在第一象限中不会出现梯度消失的问题

由于导数为1,求解他的导数要比求解Sigmoid函数的导数代价要小。

转载地址:http://vylkb.baihongyu.com/

你可能感兴趣的文章
Oracle PL/SQL语言初级教程之完整性约束
查看>>
PL/SQL学习笔记
查看>>
如何分析SQL语句
查看>>
结构化查询语言(SQL)原理
查看>>
SQL教程之嵌套SELECT语句
查看>>
日本語の記号の読み方
查看>>
计算机英语编程中一些单词
查看>>
JavaScript 经典例子
查看>>
判断数据的JS代码
查看>>
js按键事件说明
查看>>
AJAX 初次体验!推荐刚学看这个满好的!
查看>>
AJAX 设计制作 在公司弄的 非得要做出这个养的 真晕!
查看>>
Linux 查看文件大小
查看>>
Java并发编程:线程池的使用
查看>>
redis单机及其集群的搭建
查看>>
Java多线程学习
查看>>
检查Linux服务器性能
查看>>
Java 8新的时间日期库
查看>>
Chrome开发者工具
查看>>
【LEETCODE】102-Binary Tree Level Order Traversal
查看>>