人工智能神经网络学习
神经网络学习
1、输出与输入的关系(感知基础):
$$
y=\begin{Bmatrix}
1 { \ overrightarrow { x } \ cdot \ overrightarrow { w } B0 } \
0 { \ override arrow { x } \ cdot \ override arrow { w } b \ leq plant 0 }
\end{Bmatrix}
$$
这个模型来源于生活,$\overrightarrow{x}$是代表各种情况的输入,$\overrightarrow{w}$代表各种情况的影响权重,$ \ overright arrow { x } \ CDOT \ overright arrow { w } $得到整体影响,b$是影响时的阈值(偏移量)。
2.为什么使用(乙状结肠神经元):
$$
y=\ frac { 1 } { 1 e^{-(\overrightarrow{x}\cdot \ override arrow { w } b } }
$$
感知基础是一个不连续的函数,\ Delta \ overrightarrow { w } $的微小变化可能会导致$y$的成交量发生变化。使用sigmoid neuron,使y与w和b有连续关系(微小的$\Delta \overrightarrow{w}$,y也是微小的变化),输出值在0到1之间,所以选择$ \ frac {1} {1 e {-x}} $
3.误差函数
输出和输入的关系最好如下,看起来很复杂。
误差函数是:
很多时候,使用平均误差函数。为什么我不明白?
梯度法是从导数方向调整W和B,使误差函数(代价函数)的值最小。(统计值最小,所以需要平均误差),其中权重和偏移量B的导数如下
看起来很复杂,反向传播的方式在计算上没有那么复杂。
导数的反方向是减少误差函数c的最快方向,给定$\eta$,为每次学习调整$ \ eta \ frac { \ alpha } { w _ { 11 _ 21 } }。
最后,C被最小化。
原文写于2019年12月5日,2021年12月8日改为减价。
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/139165.html