【Python机器学习】深度学习——一些理论知识

这篇具有很好参考价值的文章主要介绍了【Python机器学习】深度学习——一些理论知识。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        深度学习在很多机器学习应用中都有巨大的潜力,但深度学习算法往往经过精确调整,只适用于特定的使用场景。先学习一些简单的方法,比如用于分类和回归的多层感知机(MLP),它可以作为研究更复杂的深度学习方法的起点。MPL也被称为(普通)前馈神经网络,有时也简称为神经网络。

        MLP可以被视为广义的线性模型,执行多层处理后得到的结论。

        将线性模型的公式可视化:

import mglearn
import matplotlib.pyplot as plt
from IPython.display import display
from graphviz import Digraph

graph=mglearn.plots.plot_logistic_regression_graph()
display(graph)
graph.render('example',view=True)

【Python机器学习】深度学习——一些理论知识,Python机器学习,python,机器学习,深度学习,神经网络,人工智能

        可以看到,左边的每个结点代表输入特征,连线代表学习到的系数,右边的结点代表输出,是输入加权求和。

        在MLP中,多次重复这个计算加权求和的过程,首先计算代表中间过程的隐单元,然后再计算这些隐单元的加权求和并得到最终结果。

【Python机器学习】深度学习——一些理论知识,Python机器学习,python,机器学习,深度学习,神经网络,人工智能

        这个模型需要学习更多的系数(权重):在每个输入与每个隐单元之间有一个系数,每个隐单元与输出之间也有一个系数。隐单元组成了隐层。

        从数学角度看,计算一系列加权求和与只计算一个加权求和是完全相同的。因此,为了让模型真正比线性模型更为强大,还需要一个技巧。在计算完每个隐单元的加权求和之后,对结果再应用一个非线性函数(通常是校正非线性或正切双曲线),然后将这个函数的结果应用于加权求和,计算得出输出y。

        两个函数的可视化效果:

import numpy as np
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

line=np.linspace(-3,3,1000)
plt.plot(line,np.tanh(line),label='tanh')
plt.plot(line,np.maximum(line,0),label='relu')
plt.legend(loc='best')
plt.xlabel('x')
plt.ylabel('relu(x),tanh(x)')
plt.show()

【Python机器学习】深度学习——一些理论知识,Python机器学习,python,机器学习,深度学习,神经网络,人工智能

        relu截断小于0 的值,而ranh在输入值较小时接近-1,在输入值较大时接近+1。有了这两种非线性函数,神经网络可以学习比线性O型复杂得多的函数。

        神经网络还可以添加到多个隐层:

【Python机器学习】深度学习——一些理论知识,Python机器学习,python,机器学习,深度学习,神经网络,人工智能

 文章来源地址https://www.toymoban.com/news/detail-793963.html

到了这里,关于【Python机器学习】深度学习——一些理论知识的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包