🍑 CV专栏
1. 单个神经元
🍑 神经网络 即 模型
🍤 输入 四个参数 --> 结果
🍑 模型训练(学习) 例子
🍑 模型的输入x 乘权值ω 减去阈值θ --> 激活函数 f
🍑 输出 yi (向下传递 或 直接输出)
2. 经典网络结构
🍑 多个神经单元 有机组合
🍤 输入层 --> 隐层 --> 输出层
⭐ 调整 权值和阈值 使得模型准确
2. 神经网络工作流程
🍑 样本的自变量 --> 神经网络 --> 样本的目标值
🍑 不断训练,直接输出与目标值接近
🍤 不稳定 --> 加一层
🍤 改变每一层的权值和阈值
4. 梯度下降法(修正网络参数)
🍑 减小 E 的值
🍑 经典 sigmoid(x) 激活函数
🍑 梯度下降法
5. 网络工作原理推导
🍑 求偏导……
文章来源:https://www.toymoban.com/news/detail-423254.html
6. 网络搭建准备
🍑 -1 表示 减阈值
🍑 隐层神经单元 是 输入层 神经单元 数量的 1.9 倍左右
文章来源地址https://www.toymoban.com/news/detail-423254.html
7. 神经网络 python 代码实现
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x): # 网络激活函数
return 1/(1+np.exp(-x))
data_tr = pd.read_csv('BPdata_tr.txt') # 训练集样本
data_te = pd.read_csv('BPdata_te.txt') # 测试集样本
n = len(data_tr)
yita = 0.85 # 学习速率
out_in = np.array([0.0, 0, 0, 0, -1]) # 输出层的输入
w_mid = np.zeros([3, 4]) # 隐层神经元的权值&阈值
w_out = np.zeros([5]) # 输出层神经元的权值&阈值
delta_w_out = np.zeros([5]) # 输出层权值&阈值的修正量
delta_w_mid = np.zeros([3, 4]) # 中间层权值&阈值的修正量
Err = []
'''
模型训练
'''
for j in range(1000):
error = []
for it in range(n):
net_in = np.array([data_tr.iloc[it, 0], data_tr.iloc[it, 1], -1]) # 网络输入
real = data_tr.iloc[it, 2]
for i in range(4):
out_in[i] = sigmoid(sum(net_in * w_mid[:, i])) # 从输入到隐层的传输过程
res = sigmoid(sum(out_in * w_out)) # 模型预测值
error.append(abs(real-res))
# print(it, '个样本的模型输出:', res, 'real:', real)
delta_w_out = yita*res*(1-res)*(real-res)*out_in # 输出层权值的修正量
delta_w_out[4] = -yita*res*(1-res)*(real-res) # 输出层阈值的修正量
w_out = w_out + delta_w_out # 更新
for i in range(4):
delta_w_mid[:, i] = yita*out_in[i]*(1-out_in[i])*w_out[i]*res*(1-res)*(real-res)*net_in # 中间层神经元的权值修正量
delta_w_mid[2, i] = -yita*out_in[i]*(1-out_in[i])*w_out[i]*res*(1-res)*(real-res) # 中间层神经元的阈值修正量
w_mid = w_mid + delta_w_mid # 更新
Err.append(np.mean(error))
plt.plot(Err)
plt.show()
plt.close()
'''
将测试集样本放入训练好的网络中去
'''
error_te = []
for it in range(len(data_te)):
net_in = np.array([data_te.iloc[it, 0], data_te.iloc[it, 1], -1]) # 网络输入
real = data_te.iloc[it, 2]
for i in range(4):
out_in[i] = sigmoid(sum(net_in * w_mid[:, i])) # 从输入到隐层的传输过程
res = sigmoid(sum(out_in * w_out)) # 模型预测值
error_te.append(abs(real-res))
plt.plot(error_te)
plt.show()
np.mean(error_te)
from sklearn.neural_network import MLPRegressor
'''
调用sklearn实现神经网络算法
'''
data_tr = pd.read_csv('BPdata_tr.txt') # 训练集样本
data_te = pd.read_csv('BPdata_te.txt') # 测试集样本
model = MLPRegressor(hidden_layer_sizes=(10,), random_state=10, max_iter=800, learning_rate_init=0.3) # 构建模型
model.fit(data_tr.iloc[:, :2], data_tr.iloc[:, 2]) # 模型训练
pre = model.predict(data_te.iloc[:, :2]) # 模型预测
err = np.abs(pre - data_te.iloc[:, 2]).mean() # 模型预测误差
err
到了这里,关于人工神经网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!