第一百零六章深度学习入门-吴恩达课程笔记(2/3)

作品:《学医路漫漫

学的实现),我们只能取一个足够小但并非充分小的值,只要误差小于必定值,我们就吸收。这和统计学的值的思想是一致的。

多变量函数的结构,可能是不同函数的复合,如(,b,)=3*(+b),因此求偏导数需要用到链式法则。我们一般情况只能视察到各个变量的渺小变更对其他变量的影响。从而能够根据这些数据来反过来推断变量的组织情势即函数的具体结构。以模块化的思想来解耦,将复杂函数分解为必定的模块函数,这是盘算机科学的分而治之的思想。只要变量足够多,理论上可以结构出任意持续函数,只是我们需要考虑盘算的代价,只能找到一个局部最优解。。最优化的思路,理论上存在着一组参数,能够使得算法有最好的性能,我们就是不断地逼近其,所以有各种调参和模型的组合等等操作。如从简略的神经网络的暗躲层不断增长,也有卷积神经网络等等的改良。

以线性代数的思想来定义各种数据,如以一维数组代表一个向量,从而能够将特定的信息映射到一个高维的空间,然后在这个基础上摸索各种关系。我们需要以表现定理来懂得。如线性方程组的求解对应于现实的方案问题。在具体的编程中,由于盘算机的离散特征,往往应用这些线性代数的对象如向量,矩阵来构建这些函数的映射关系。如梯度降落的学习率就是需要我们定义的一些常数。。

把现实的对象抽象到矩阵的情势,进行各种变换,可以找到不同矩阵的类似性,从而认为其对应的现实对象是类似的。有矩阵的各种运算如加减,矩阵的点积和叉积,求逆,转置等等,还有矩阵对角化可以求解特点值。范例的例子是图像是以像素矩阵来存储的。

向量化,利用库进行盘算可以减少盘算时间,由于矩阵运算有必定的优化。r,使得盘算加速。毕竟很多情况下我们需要处理稀疏矩阵的情况,运算量大,耗时长,只能采用某些快速的近似算法来盘算一个可以吸收的成果。

可视化是我们懂得数据的一个方法,的b库供给很多工具。

浅层神经网络:最简略的模型()=∑+b。是输进,经过这个中间的暗躲层的函数映射,能够产生必定的输出(),可以持续经过必定激活函数的处理如函数来得到特定的分类。暗躲层的嵌套和复合函数的结构是一致的。理论上,通过对参数的调剂,我们可以结构出任意满足我们需求的函数,如把图像输进映射到具体的文本输出,即图像辨认。当然,浅层的神经网络没有这么好的性能,需要更加复杂的神经网络结构才干结构出来,但深度学习的性能实在也是基于浅层神经网络的简略性能不断升维实现的,可以视为微积分的原函数。而神经网络的暗躲层就对应于不同对象的特点,最后能够通过参数的调剂实现高维层次的辨认,对应于线性代数的基底的线性组合(特点=基底)。于是就可以抽象为大规模的矩阵运算【】【】=【】【】*【】【】+b【】.应用向量矩阵的情势来表现数据是有理由的,一方面是盘算机存储和运算的需求,同时各种矩阵盘算的优化使得大规模的运算量减少,能够以能够遭遇的时间和空间开销得到比较满足的成果。

激活函数是非线性的,可以实现我们需要的功效,毕竟世界本来就是复杂的,只能以线性来逼近。而非线性函数的应用,能够更好地逼近现实情况。有函数1/(1+,^-1),r函数(0,),函数(^-^-)/(^+^-),r函数(0.001,)

激活函数同样可以求导,可以利用梯度降落法找到使得丧失函数最小的值。

反向流传算法br,根据丧失函数的求导来反过来对暗躲层的参数进行修正,如同一个反馈环的形成,初始输进产生丧失函数的必定的值,而通过丧失函数的梯度降落,对前面暗躲层的参数进行调剂,最后循环重复使得丧失函数的值最小,同时各个参数也收敛于特定的值。

批处理b到随机r处理来更改参数的值,从初始化到参数更新,如=-*,的初始值可以是随机的,而且学习率也是可以变更的。

足够多的矩阵运算能够使得模型的参数收敛,即练习出可以应用的算法。因此的应用带来的盘算能力的提升是算法施展出重要作用的基础,而大规模的数据使得运算具有更大的意义。

假如我们忽然患上重病,我们如何能够利用技巧来转变自己的命运?我们可以对疾病进行建模,通过各种特点如各种指标,血惯例,尿惯例,粪惯例等等,其他实验室检查,医学影像,病理检查等等,结构复杂的神经网络模型,通过已经收拾好的结构化数据即确诊疾病和对应的指标矩阵,来对这个模型进行练习,从而能够对疾病做出诊断。然后在这个基础上,一方面可以持续学习成熟的疗法与疾病的对应,另一方面可以结构出新的疗法,如断定特定疾病需要转变的指标,以及各种已知的能够对这些指标产生影响的处理,经过练习,能够得到每个人不同情况的不同疗法,可能这就能够在失看中抢救生命。

深层神经网络:基于浅层神经网络的叠加形成的更加复杂的模型,能够以更高的正确度来处
本章未完,请翻下一页继续阅读......... 学医路漫漫 最新章节第一百零六章深度学习入门-吴恩达课程笔记,网址:https://www.555d.org/383_383912/109.html