0%

机器学习笔记二:神经网络

记:

对输入层,层数为1:

对隐藏层:

对输出层,层数为L:

前向传播

代价函数

在逻辑分类中:

反向传播

由代价函数更新权重以及偏置矩阵,按梯度下降法有:

这里先使用代价函数为:

输出层

注意一下这里最后的代价函数是针对单个数据而言的,然后把他们汇总,再取平均,所以不是除以2m。

这里的t下标代表第几个数据

记:

隐藏层

注意一下这里的代价函数是针对单个数据而言的,然后把他们汇总,再取平均,所以不是除以2m。

即可有:

又已知:

可求解:

递归求解,反复迭代

偏置单元

偏置单元也是如此

对逻辑分类

之前就已经说明过一样的,这里也同理有结论

对正则化


参考:

https://www.cnblogs.com/lliuye/p/9183914.html

https://blog.csdn.net/qq_32865355/article/details/80260212