Update 09.4-神经网络非线性回归的实现.md (#776)

将:
均方差损失函数
改为:
均方误差损失函数
###################################################
为了修复图片不显示的问题
将:
|<img src="..\Images\5\setup.png"/>|<img src="./img/9/nn.png"/>|
改为:
|<img src="..\第2步%20-%20线性回归\img\5\setup.png"/>|<img src="./img/9/nn.png"/>|
This commit is contained in:
KnightLancelot 2023-03-24 12:01:58 +08:00 коммит произвёл GitHub
Родитель 16c52694ae
Коммит e4eb33eb9d
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: 4AEE18F83AFDEB23
1 изменённых файлов: 2 добавлений и 2 удалений

Просмотреть файл

@ -182,7 +182,7 @@ $$
#### 损失函数
均方差损失函数:
均方差损失函数:
$$loss(w,b) = \frac{1}{2} (z2-y)^2 \tag{4}$$
@ -196,7 +196,7 @@ $$loss(w,b) = \frac{1}{2} (z2-y)^2 \tag{4}$$
|第5章的神经网络|本章的神经网络|
|---|---|
|<img src="..\Images\5\setup.png"/>|<img src="./img/9/nn.png"/>|
|<img src="..\2步%20-%20线性回归\img\5\setup.png"/>|<img src="./img/9/nn.png"/>|
本章使用了真正的“网络”而第5章充其量只是一个神经元而已。再看本章的网络的右半部分从隐层到输出层的结构和第5章的神经元结构一摸一样只是输入为3个特征而第5章的输入为两个特征。比较正向计算公式的话也可以得到相同的结论。这就意味着反向传播的公式应该也是一样的。