TensorFlow与神经网络PPT推荐.pptx
- 文档编号:14328002
- 上传时间:2022-10-22
- 格式:PPTX
- 页数:65
- 大小:10.22MB
TensorFlow与神经网络PPT推荐.pptx
《TensorFlow与神经网络PPT推荐.pptx》由会员分享,可在线阅读,更多相关《TensorFlow与神经网络PPT推荐.pptx(65页珍藏版)》请在冰豆网上搜索。
noise=0&
networkShape=3&
seed=0.84062&
showTestData=false&
discretize=false&
percTrainData=50&
x=true&
y=true&
xTimesY=false&
xSquared=false&
ySquared=false&
cosX=false&
sinX=false&
cosY=false&
sinY=false&
collectStats=false&
problem=classification&
initZero=false&
showTestData_hide=true&
learningRate_hide=true&
regularizationRate_hide=true&
percTrainData_hide=true&
numHiddenLayers_hide=true&
discretize_hide=true&
activation_hide=true&
problem_hide=true&
noise_hide=true&
regularization_hide=true&
dataset_hide=true&
batchSize_hide=true&
playButton_hide=false,神经网络的发展,定义:
在机器学习和认知科学领域,人工神经网络(artificialneuralnetwork,缩写ANN),简称神经网络(:
neuralnetwork,缩写NN)或类神经网络,是一种模仿生物神经网络的结构和功能的计算模型,用于对函数进行估计或近似。
神经网络的种类:
基础神经网络:
单层感知器,线性神经网络,BP神经网络,Hopfield神经网络等进阶神经网络:
玻尔兹曼机,受限玻尔兹曼机,递归神经网络等深度神经网络:
深度置信网络,卷积神经网络,循环神经网络,LSTM网络等,杰弗里埃弗里斯特辛顿(英语:
GeoffreyEverestHinton)(1947年12月6日)是一位英国出生的计算机学家和心理学家,以其在神经网络方面的贡献闻名。
辛顿是反向传播算法的发明人之一,也是深度学习的积极推动者。
GeoffreyHinton,YannLecun,YoshuaBengio,AndrewNg,神经网络的特点,输入向量的维度和输入神经元的个数相同每个连接都有个权值同一层神经元之间没有连接由输入层,隐层,输出层组成第N层与第N-1层的所有神经元连接,也叫全连接,结构(Architecture)例如,神经网络中的变量可以是神经元连接的权重激励函数(ActivityRule)大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。
学习规则(LearningRule)学习规则指定了网络中的权重如何随着时间推进而调整。
(反向传播算法),神经网络的组成,浅层人工神经网络模型,1、SoftMax回归2、损失计算API3、其他方法API介绍,Mnist数据集神经网络分析,one-hot编码分析,one-hotAPI介绍,fromtensorflow.examples.tutorials.mnistimportinput_datamnist=input_data.read_data_sets(FLAGS.data_dir,one_hot=True),获取数据,SoftMax回归,公式:
1、全连接-从输入直接到输出,特征加权:
tf.matmul(a,b,name=None)+biasreturn:
全连接结果,供交叉损失运算不需要激活函数(因为是最后的输出),想一想线性回归的损失函数,那么如何去衡量神经网络的损失?
损失计算-交叉熵损失公式(了解),公式:
注:
为神经网络结果,为真实结果。
每个类别都有一个损失结果最后需要求平均损失,2、SoftMax计算、交叉熵,tf.nn.softmax_cross_entropy_with_logits(labels=None,logits=None,name=None)计算logits和labels之间的交叉损失熵labels:
标签值(真实值)logits:
样本加权之后的值return:
返回损失值列表,损失值列表平均值计算,tf.reduce_mean(input_tensor)计算张量的尺寸的元素平均值,其他方法-损失下降API,tf.train.GradientDescentOptimizer(learning_rate)梯度下降优化learning_rate:
学习率,一般为minimize(loss):
最小化损失return:
梯度下降op,准确性计算,1、equal_list=tf.equal(tf.argmax(y,1),tf.argmax(y_label,1),2、accuracy=tf.reduce_mean(tf.cast(equal_list,tf.float32),准确率,Mnist数据集神经网络实现流程,1、准备数据2、全连接结果计算3、损失优化4、模型评估(计算准确性),深层的神经网络,深度学习网络与更常见的单一隐藏层神经网络的区别在于深度,深度学习网络中,每一个节点层在前一层输出的基础上学习识别一组特定的特征。
随着神经网络深度增加,节点所能识别的特征也就越来越复杂。
卷积神经网络,1、卷积神经网络与简单的全连接神经网络的比较2、卷积神经网络的发展历史3、卷积神经网络的结构分析4、卷积网络API介绍,全连接神经网络的缺点,参数太多,在cifar-10的数据集中,只有32*32*3,就会有这么多权重,如果说更大的图片,比如200*200*3就需要120000多个,这完全是浪费没有利用像素之间位置信息,对于图像识别任务来说,每个像素与周围的像素都是联系比较紧密的。
层数限制,卷积神经网络的发展历史,卷积神经网络错误率,卷积神经网络的结构分析,神经网络(neuralnetworks)的基本组成包括输入层、隐藏层、输出层。
而卷积神经网络的特点在于隐藏层分为卷积层和池化层(poolinglayer,又叫下采样层)。
卷积层:
通过在原始图像上平移来提取特征,每一个特征就是一个特征映射池化层:
通过特征后稀疏参数来减少学习的参数,降低网络的复杂度,(最大池化和平均池化),数据变化,卷积神经网络的结构,1、卷积层过滤器个数大小步长零填充卷积层输出深度、输出宽度深度由过滤器个数决定输出宽度:
1、激活函数1、池化层2、全连接层,卷积层计算过程(一个通道一个Filter一步长),卷积层计算过程(当步长为2的时候),卷积层的零填充,卷积核在提取特征映射时的动作称之为padding(零填充),由于移动步长不一定能整出整张图的像素宽度。
其中有两种方式,SAME和VALIDSAME:
越过边缘取样,取样的面积和输入图像的像素宽度一致。
VALID:
不越过边缘取样,取样的面积小于输入人的图像的像素宽度,如果需要卷积之后输出大小一样:
零填的大小为2,卷积网络API介绍,卷积层:
tf.nn.conv2d(input,filter,strides=,padding=,name=None)计算给定4-Dinput和filter张量的2维卷积input:
给定的输入张量,具有batch,heigth,width,channel,类型为float32,64filter:
指定过滤器的大小,filter_height,filter_width,in_channels,out_channelsstrides:
strides=1,stride,stride,1,步长padding:
“SAME”,“VALID”,使用的填充算法的类型,使用“SAME”。
其中”VALID”表示滑动超出部分舍弃,“SAME”表示填充,使得变化后height,width一样大,多通道图片-外围补充与多Filter,新的激活函数-Relu,第一,采用sigmoid等函数,反向传播求误差梯度时,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(求不出权重和偏置),激活函数:
tf.nn.relu(features,name=None)features:
卷积后加上偏置的结果return:
结果,池化层(Pooling)计算,Pooling层主要的作用是特征提取,通过去掉FeatureMap中不重要的样本,进一步减少参数数量。
Pooling的方法很多,最常用的是MaxPooling。
池化:
tf.nn.max_pool(value,ksize=,strides=,padding=,name=None)输入上执行最大池数value:
4-DTensor形状batch,height,width,channelsksize:
池化窗口大小,1,ksize,ksize,1strides:
步长大小,1,strides,strides,1padding:
“SAME”,“VALID”,使用的填充算法的类型,使用“SAME”,FullConnected层,分析:
前面的卷积和池化相当于做特征工程,后面的全连接相当于做特征加权。
最后的全连接层在整个卷积神经网络中起到“分类器”的作用。
Mnist手写数字图片识别卷积网络案例,Mnist数据集人工神经网络分析,Mnist数字识别卷积实现,流程:
1、准备数据2、卷积、激活、池化(两层)3、全连接层4、计算准确率,常见卷积网络模型的结构,LeNet:
1986年,AlexNet:
2012年,60M以上的参数总量,GoogleNet:
Thankyou!
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- TensorFlow 神经网络