由来
在神经网络的训练过程中,权重和偏差的初始值对模型的性能和训练过程的收敛速度都有影响。随机初始化是一种常用的权重和偏差初始值设置方法,它有助于打破对称性,避免网络陷入局部最优解。
概念
当所有权重和偏差都被设置为相同的初始值时,神经网络的每个神经元在反向传播时会计算相同的梯度,导致网络无法学到不同的特征。为了避免这种情况,我们使用随机初始化,即为每个权重和偏差分配随机的小值。文章来源:https://www.toymoban.com/news/detail-662528.html
通常,随机初始化的原则是使用均匀分布或正态分布生成随机数,并根据网络的规模和结构来调整初始化的尺度。文章来源地址https://www.toymoban.com/news/detail-662528.html
代码实现,一个简单的随机初始化示例,以正态分布为例
import numpy as np
def initialize_parameters(layers_dims):
"""
Initialize the parameters of the neural network.
Arguments:
layers_dims -- list containing the dimensions of each layer in the network
Returns:
parameters -- python dictionary containing your parameters "W1", "b1", ..., "WL", "bL":
Wl -- weight matrix of shape (layers_dims[l], layers_dims[l-1])
bl -- bias vector of shape (layers_dims[l], 1)
"""
np.random.seed(42)
parameters = {}
L = len(layers_dims) # number of layers
for l in range(1, L):
parameters['W' + str(l)] = np.random.randn(layers_dims[l], layers_dims[l - 1]) * 0.01
parameters['b' + str(l)] = np.zeros((layers_dims[l], 1))
return parameters
到了这里,关于神经网络基础-神经网络补充概念-24-随机初始化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!