matlab与人工计算对比matlab实验报告怎么写分析结论怎么写

专业文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买专业文档下载特权礼包的其他会员用户可用专业文档下载特权免费下载专业文档。只要带有以下“專业文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

信号分析与处理matlab实验报告怎么写(FFT)MATLAB 评分:

文档为本人课程实验结果绝对原创,处理分析对象是图像基于一维的信号处理,分析相關频谱图设计滤波器等,含有完整MATLAB代码

0 0

为了良好体验不建议使用迅雷下载

信号分析与处理matlab实验报告怎么写(FFT)MATLAB

会员到期时间: 剩余下載个数: 剩余C币: 剩余积分:0

为了良好体验,不建议使用迅雷下载

为了良好体验不建议使用迅雷下载

0 0

为了良好体验,不建议使用迅雷下載

您的积分不足将扣除 10 C币

为了良好体验,不建议使用迅雷下载

开通VIP会员权限免积分下载

你下载资源过于频繁,请输入验证码

若举报审核通过可返还被扣除的积分

信号分析与处理matlab实验报告怎么写(FFT)MATLAB


基于 MATLAB 的手写体数字识别算法的实現与分析


手写体数字识别是利用计算机自动辨认手写体阿拉伯数字的一种技术 是光 学字符识别技术的一个分支。 手写体数字识别在邮政編码、 财务报表、 银行票据、 各种凭证以及调查表格的识别等等方面有着重要应用 由于数字识别经常涉及财 会、金融领域,其严格性更昰不言而喻的所以,对识别系统的可靠性和识别率 要求很高 构成了手写体数字识别面临的主要困难, 大批量数据处理对系统速度 又有楿当高的要求 本文基于 MNIST 数据集,通过 Matlab 平台对决策树算法、SVM 算法和人 工神经网络(ANN)算法进行实现,并对分类算法的准确率进行评估實验结果 表明,人工神经网络(ANN)的准确率最高为 99.69%,SVM 算法次之准确 率为 94.53%,决策树算法的准确率为 83.53%三种分类算法中,决策树算法的 速喥最快SVM 算法的速度最慢。另外针对每一种分类算法在 MNIST 数据集 上的实验结果,本文还得出以下结论: 第一MNIST 数据集的归一化与否对决策樹的分类效果几乎没有影响;对 SVM 的分类效果影响较大,未归一化时的准确率为 11.35%归一化之后的准确 率为 94.53% ;对人工神经网络的分类效果影响較小,未归一化时的准确率为 82.11%归一化之后的准确率为 99.69%。这说明三种分类算法对数据的不平衡 分布的敏感程度各不相同 第二,对于 SVM 分类算法当训练数据集的样本容量小于 60000(MNIST 训练数据集的最大样本容量) 时,该算法对测试数据集分类预测的准确率随样本 容量的增大而增大 第三, 针对人工神经网络 数据类标签的表示形式对分类预测的准确率的影 响较大。使用 10 位数据表示类标签是的准确率为 99.69%远远高于使鼡 1 位数 据表示类标签时的准确率 关键词:手写体数字识别;决策树算法;SVM 算法;人工神经网络算法

手写数字识别是模式识别领域的一个重偠分支,它研究的核心问题是:如何 利用计算机自动识别人手写在纸张上的阿拉伯数字手写体数字识别问题,简而 言之就是识别出 10 个阿拉伯数字由于数字的清晰程度或者是个人的写字习惯 抑或是其他,往往手写体数字的性状、大小、深浅、位置会不大一样手写体识 别┅般包括 3 个阶段:预处理、特征提取、分类识别。 手写数字识别前景广阔 广泛应用于表格中数字的识别、 汽车牌照的数字自 动识别和成績单的识别等。 实现数字的自动识别能够给人们的工作和生活带来很 大的方便对于该领域的研究具有重要的理论价值: 一方面, 阿拉伯數字是唯一的被世界各国通用的符号 对手写数字识别的研 究与文化背景无关,这样就为各国、 各地区的研究工作者提供了一个自由平等嘚 舞台大家可以在这一领域施展才智,各抒己见 另一方面,由于数字识别的类别数较少(只有 0 到 9 十个类别) 有助于做 深入分析及验證一些新的理论。 这方面最明显的例子就是人工神经网络相当一 部分的人工神经网络模型都以手写数字识别作为具体的实验平台, 验证悝论的有 效性评价各种方法的优缺点。 数字识别的算法较多 当前运用较好的主流算法以统计、 聚类和分类算法为 主,如 Bagging 算法、支持向量机算法、神经网络等手写数字识别难度在于: 一、数字相似性大,但字形相差不大;二、数字虽然只有 10 种但笔划简单, 同一个数字寫法差别大;三、手写数字存在断笔和毛刺对识别造成影响。本文 选择分类算法中的决策树算法、支持向量机算法、神经网络对 MNIST 数据集進 行数字识别并对分类效果进行比较分析。

分类器识别是实现手写体数字识别的最终关键 基于距离的分类器和神经网 络分类器这两大類是目前现有的最主要的分类器。分类是数据挖掘的重要分支 可用于提取、描述重要数据的模型或预测未来的数据趋势[1]。


决策树也称为判定树 是一种有监督的学习方法。决策树代表着决策树的树 形结构 可以根据训练集数据构造出决策树。如果该树不能对所有对象给出囸确 的分类就选择一些例外加入到训练集数据中。重复该过程直到形成正确的决 策集。 决策树方法首先对数据进行处理 利用归纳算法生成可读的规则和决策树, 然后使用决策树对新数据进行分析 本质上是通过一系列规则对数据进行分类的 过程。决策树的典型算法有 ID3C4.5,CART 等根据训练集构建决策树,决策 树中的结点逐层展开每展开一层子结点,并将其设为叶结点就得到一棵决策 树,然后采用测试集对所得决策树的分类性能进行统计重复上述过程,可以得 到决策树在测试集上的学习曲线根据学习曲线,选择在测试集上性能最佳嘚决 策树为最终的决策树
J. Ross Quinlan 在 1986 年将信息论引入到决策树算法中, 提出了 ID3[2]算法 算法思想如下: 设样本集 E 共有 C 类训练集,每类样本数为 pi苴 i=1,23,?C。如果 以属性 A 作为测试属性属性 A 的 v 个不同的值为{v1,v2,?,vv} ,可以用属性 A 将 E 划分成 v 个子集{E1,E2,?,Ev} 假定 Ei 中含有第 属性 A 的信息熵为:
将_ ( )玳入公式(2)后可得:
一棵决策树对一实例做出正确类别判断所需的信息为:

ID3 算法存在着属性偏向,对噪声敏感等问题


在 ID3 算法的基础上,Quinlan 在 1993 年提出了一种改进的算法即 C4.5 算法[3],信息增益率计算如下:
C4.5 算法克服了 ID3 算属性偏向的问题,增加了对连续属性的处理通过剪 枝,在一萣程度上避免了“过度拟合”的现象但是该算法将连续属性离散化, 需要遍历该属性的所有值降低了效率;要求训练样本驻留在内存,不适合处理 大规模数据集

CART 算法生成的决策树精度较高,但是当其生成的决策树复杂度超过一定 程度后随着复杂度的提高,分类精确喥会降低因此,用该算法建立的决策树 不宜太复杂[4]


决策树分类算法研究一直朝着处理大数据集的方向进行, 但大部分方法在减 少了运算时间的同时也降低了算法的精度 SLIQ 的分类精度与其他决策树算法不 相上下, 但其执行的速度比其他决策树算法快 SLIQ 算法对训练样本集的樣本数 量以及属性的数量没有限制。 SLIQ 算法能够处理大规模的训练样本集 具有较好的伸缩性; 执行速度快而 且能够生成较小的二叉决策树; SLIQ 算法允许多个处理器同时处理属性表, 从而 实现并行性但是 SLIQ 算法不能摆脱主存容量的限制。
SLIQ 算法要求类表驻留内存当训练集大到类表放不进内存时,SLIQ 算法 就无法执行为此,IBM 的研究人员提出 SPRINT 算法它处理速度快,不受内 存的限制 SPRINT 算法可以处理超大规模训练样本集,數据样本集数量越大SPRINT 的执行效率越高,并且可伸缩性更好但是,SPRINT 算法存在着一些缺陷在 SLIQ 的类表可以存进内存时,SPRINT 算法的执行速度比

2.1.6 經典决策树算法的比较


基于决策树的分类算法已经有几十种各种算法在执行速度、可扩展性、输 出结果的可理解性、分类预测的准确性方面各有所长。 下面就对几种典型的决策 树算法进行比较结果如表 2-1 所示:
表 2-1 典型决策树算法的比较 是否需 算法 测试属性选 择指标 信息增益 信息增益率 GINI 系数 GINI 系数 GINI 系数 连续属性 的处理 离散化 预排序 预排序 预排序 预排序 要独立 测试样 本集 ID3 C4.5 CART SLIQ SPRINT 是 否 否 否 否 后剪枝 后剪枝 后剪枝 后剪枝 后剪枝 差 差 差 良好 好 差 差 差 良好 好 多叉树 多叉树 二叉树 二叉树 二叉树 运行剪枝时 间 可 伸 缩性 并行 性 决策树 的结构
支持向量机(SVM)方法是通过一个非线性映射 p,把样本空间映射到一个高 维乃至无穷维的特征空间中(Hilbert 空间)使得在原来的样本空间中非线性可分 的问题转化为在特征空间中嘚线性可分的问题.简单地说,就是升维和线性化 升维,就是把样本向高维空间做映射一般情况下这会增加计算的复杂性,甚至 会引起"維数灾难"因而人们很少问津.但是作为分类、回归等问题来说,很可能 在低维样本空间无法线性处理的样本集 在高维特征空间中却可以通过一个线性 超平面实现线性划分(或回归).一般的升维都会带来计算的复杂化, SVM 方法巧妙 地解决了这个难题:应用核函数的展开定理就不需偠知道非线性映射的显式表 达式;由于是在高维特征空间中建立线性学习机,所以与线性模型相比不但几 乎不增加计算的复杂性, 而且在某种程度上避免了"维数灾难".这一切要归功于核 函数的展开和计算理论选择不同的核函数,可以生成不同的 SVM SVM 的机理是寻找一个满足分类偠求的最优分类超平面,使得该超平面在 保证分类精度的同时能够使超平面两侧的空白区域最大化。 理论上 支持向量机能够实现对线性可分数据的最优分类。以两类数据分类 为例给定训练样本集(xi,yi)i=1, 2,???,l,x∈Rny∈{±1},超平面记作(w ?xi) +b=0 为使分类面对所有样本正确分类并苴具备分类间隔, 就要求它满足如下约 束:yi*(w ? xi)+b+≥1i=1,2,…,l。

图 2-1 支持向量机

可以计算出分类间隔为 2/||w||因此构造最优超平面的问题就转化为在约 束式下求:

为了解决该个约束最优化问题,引入 Lagrange 函数:

式中ai>0 为 Lagrange 乘数。约束最优化问题的解由 Lagrange 函数的鞍点 决定并且最优化问题的解在鞍点處满足对 w 和 b 的偏导为 0,将该 QP 问题转 化为相应的对偶问题即:

计算最优权值向量 w*和最优偏置 b*,分别为:

对于线性不可分情况SVM 的主要思想是将輸人向量映射到一个高维的特

征向量空间,并在该特征空间中构造最优分类面将 x 做从输入空间 Rn 到特征 空间 H 的变换Φ ,得:


以特征向量Φ (x)玳替输入向量 x则可以得到最优分类函数为:
在上面的对偶问题中, 无论是目标函数还是决策函数都只涉及到训练样本之 间的内积运算茬高维空间避免了复杂的高维运算而只需要进行内积运算。
人工神经网络是指模拟人脑神经系统的结构和功能运用大量的处理部件, 由囚工方式建立起来的网络系统 该网络具有大规模并行协同处理能力和较强的 容错能力和联想能力, 同时是一个具有较强学习能力的大规模自组织、自适应性 的非线性动力系统

2.3.1 人工神经网络的原理


神经网络的结构是基本处理单元及其互连方法决定的。如图所示单个神经 え单元由多个输入 xi,i=1,2,...,n 和一个输出 y 组成
式中, ?为神经元单元的偏置 (阈值) wi 为连接权系数, n 为输入信号数目 y 为神经元输出,f 为输出变換函数称为激活函数。
BP 网络是一类典型的前馈网络其它前馈网络有感知器(Perception)、自适

应线性网络和交替投影网络等。 前馈网络是一种具有佷强学习能力的系统结构 比较简单, 且易于编程 前馈网络通过简单非线性单元的复合映射而获得较强的 非线性处理能力,实现静态非線性映射BP 网络主要特点是能够实现从 n 维到 m 维的非线性映射,它还可以采用梯度下降法实现快速收敛模型如下图所示:

图 3-3 反向传播网络 反向传播算法的具体流程如下: (1)对于给定的样本集 D = {(x,t )},初始化网络结构 d ×nH ×c 初始化权 系数 ω ,学习率 η,阈值 θ 。 (2)根据样本集 D 更噺权系数 ω : ω ← ω - η?J( ω )/ ?ω jk jk jk (17)

(18) 如果 ΔJ < 0 结束训练,并认为此时的 ω 为最

优否则转第 2 步继续进行循环。 对于反向传播模型的初始化洳下: 输入层:单元 i 的输入:xi 单元数量:d 单元 i 的输出:xj 单元 i 的激活函数:线性函数 隐层:单元 j 的净输入:netj 单元数量:nH 单元 j 的输出:yj 单元 j 的噭活函数:非线性函数 输出层:单元 k 的净输入:netk 单元数量:c

单元 k 的输出:zk 单元 k 的激活函数:非线性函数 (1)学习速率 学习速率? 直接影响权系数调整时的步长学习速率过小,导致算法收敛速 度缓慢学习速率过大,导致算法不收敛学习速率的典型取值? ? 0.1 。另外学 习速率可变 误差函数的局部极小值调整权系数的目标是使误差函数取得最小值。 但是 采用梯度下降法(Gradient Descent Procedure)不能保证获得最小值, 而只能 保证得到一个極小值 如果训练过程无法使误差函数降低到预期的程度,一种常 用的方法是:再一次对权系数进行随机初始化并重新训练网络。 (2)學习曲线 样本集的划分: 一般情况下 可把已知的样本集划分为三个子集, 即训练集、 确认集、测试集 训练集:用来调整权系数,使误差函数尽可能变小 确认集: 用来初步验证神经网络对未来新样本的分类能力,并据此确定最佳的权 系数神经网络的训练过程需要采用訓练集及确认集共同完成。 测试集: 在训练过程最终结束后再采用测试集对网络的分类性能进行最后 测试,用以评估神经网络在实际应鼡中的实际性能


Hopfield 网络是一种动态反馈系统,可以用一个完备的无向图表示它比前 馈网络具有更强的计算能力。 Hopfield 网络一般只有一个神经え层次每个神经元的输出都与其它神经元 的输入相连,是一种单层全反馈网络如图 3-4 所示。

图 3-4 Hopfield 网络 Hopfield 网络中神经元之间的权值一般是对称嘚但每个神经元都没有到自 身的联接。 神经元 i 和神经元 j 之间相互连接的权值相等 即 wij=wji。 因此此时 网络一定能够收敛到一个稳定值。否則则网络可能会不稳定,无法收敛 离散 Hopfield 网络每个单元均有一个状态值,它取两个可能值之一 设在某一个时刻 t,神经元 i 的状态为 Ui(t)则茬 t+1 时刻的状态为:

其中,wij 为神经元 i 何 j 之间的连接权值?i 为第 i 个神经元的阈值。 Hopfield 网络算法的流程如下: (1)设置互联权值

式中 为 S 类采样的苐 i 个分量,可为+1 或-1;采样类别数为 m节点数 为 n。 (2)对未知类别的采样初始化 yi(0)=xi 式中yi(t)为节点 i 在时刻 t 的输出;当 t=0 时,yi(0)就是节点 i 的初始值 xi 为輸入采样的第 i 个分量,也可为+1 或-1 (3)迭代运算


(4)重复迭代 直至每个输出单元不变为止,即 Uj(t+1)=Uj(t)
MNIST 数据集是一个被广泛用于训练各种图像处理系统的大型手写数字数 据库 同时, 该数据库也常用于人工智能、 机器学习、 数据挖掘等领域 对分类、 聚类和回归模型进行训练,并测試模型的准确性 MNIST 数据集包含 60000 个训练样本和 10000 个测试样本, 每个样本都是一 个 28*28 像素的 BMP 图片因为每一个样本都具有类标签,所以该数据集既鈳 以用于有监督的学习和无监督的学习 并可以使用其类标签来计算模型的准确度。 现在 已经有许多学者使用该数据集进行实验,并试圖使他们的算法在该数据集 上表现出更低的错误率到目前为止,KNN 算法、支持向量机、神经网络、决策 树算法已经在该数据集上真实实验過表现出不同的计算性能。据统计一种基 于 DropConnect 方法的神经网络在 MNIST 数据集的实验上能够达到 0.21%的错误 率,是至今为止分类效果最好的
MNIST 数据集是 NIST 的一个子集,一共包含四个文MNIST 数据的原始数 据为 Ubyte 文件,上述四个文件中train-images,和 train-labels 用来训练模型 t10k-images 和 t10k-labels 用来评估所训练模型的准确性。如圖所示Matlab 无 法直接处理该数据集,因此需要对数据集进行预处理

图 3-2 预处理之后的数据集

3.4 决策树分类实验


本实验另外又将实验数据进行归┅化处理, 按照上述实验过程进行相同的实 验现将实验结果整理如表 3-1 所示: 表 3-1 决策树实验结果 准确率 计算时间(s) 0. 无归一化处理 0. 归一化處理 通过观察发现,归一化处理对决策树的分类效果影响不大 在 Step4 中画出的测试集的预测类标签与实际类标签的对比图如图 4-4 所示, 其中兩种标记为重叠的部分即为预测失误的数据。

图 3-4 决策树预测类别与实际类别的对比

Step2:对训练数据集及测试数据集进行归一化将数据映射到[0,1]區间,这 里使用的方法是将每一项数据除以最大值 255也可以使用 Matlab 自带的归一 化函数 mapminmax(),效果一样。 TrainItem=TrainItem/255; TestItem=TestItem/255; Step3:利用训练集及其类标签建立分类模型并输絀分类模型的相关参数。 %训练模型


实验开始阶段并未对训练数据集和测试数据集进行归一化处理 使用训练好 的 SVM 模型对测试数据集进行分類得到的准确率为 TestAccuracy=11.35%。这个 结果与预期的结果相差甚远与查阅的相关资料上提到的 SVM 的准确率也有较 大的出入。仔细检查了各项相关输出之後发现预测类标签的输出 PredictLable 表中的数据全部为 1,即将测试数据集的每一个实例的类别均预测为 1恰好是 10%的准确率。因此猜想可能是未对数據集进行归一化处理导致各个数据之间 的差距较大,影响了模型的准确性 对数据进行归一化处理后, 随机抽取不同数目的训练集数据對模型进行训练 实验结果如表 3-2 所示: 表 3-2 SVM 实验结果

实验结果表明,随着使用的训练数据集样本数目的增多 SVM 训练模型的 准确率逐渐升高,對测试数据的预测效果越好没有出现过拟合现象。在时间开 销上其增长速率要高于准确率的增长速度,但是在可接受的范围内

3.6 人工鉮经网络分类实验

图 3-5 神经网络界面

Step3:点击 Import,将输入数据和输出数据导入工作空间

图 3-6 导入数据 Step4:点击 New 按钮,创建一个新的神经网络并设置它的名称、类型、 输入输出及隐层神经元的个数等参数。确认无误后点击 Create 按钮神经网络 创建成功。创建好的神经网络抽象模型如下图所示:

图 3-7 神经网络模型 Step5:导入训练数据集及训练数据标签点击 Train 按钮使用训练样本对神 经网络模型进行训练,训练过程的相关参数如下图:

图 3-8 模型参数 Step6:模型训练完成之后点击 Simulate 按钮对测试数据集进行分类,将 分类结果和实验误差输出


实验过程中, 将数据集的类标签用两種形式表示 例如类标签 3 有两种表示 形式,第一种为 10 位表示 t=[];第二种为 1 位表示 t=[3]两种表示 形势下分别进行实验,结果有很大的不同现将實验结果表示如下。 (1)类标签表示为 10 位 a. Performance 神经网络模型训练过程中将训练数据集分为三部分:训练数据集 Train验 证数据集 Validation ,测试数据集 Test 为叻防止过拟合现象的发生,一般将 Validation 数据集分类效果最好时训练好的模型进行输出如图 4-9 所示,在第 153 次迭代时神经网络模型的效果达到最恏。

图 3-9 性能 b. Training State 图 3-10 显示了神经网络模型训练过程的相关状态在第 153 次迭代时,神 经网络梯度为 0.0010172交叉验证的次数为 6 次。该数据表示在神经网络利用 训练数据集进行训练的过程中验证数据集的误差曲线连续 6 次迭代不再下降。 如果随着网络的训练验证数据集的误差已经不再减小,甚至增大那么就没有 必要再去训练网络了, 因为继续训练下去的话再利用测试测试集对模型进行测 试的话,测试数据集的误差将同樣不会有所改善甚至会出现过度拟合的现象。

图 3-12 性能 b. Training State 图 3-13 显示了神经网络模型训练过程的相关状态在第 263 次迭代时, 神经网络梯度为 1.9263交叉验证的次数为 6 次。

此次实验利用 Matlab 工具箱对三种分类算法:决策树算法、SVM 算法和神 经网络算法进行实现通过对 MNIST 数据集进行分类,并且使鼡其真实数据标 签与预测标签进行比较能够得到各个分类算法的准确率。通过比较发现三种 分类算法在算法的执行速度以及分类的准確率方面表现出了显著地差异。

4.1 三种分类算法的比较


决策树算法、SVM 算法以及神经网络算法在 MNIST 数据集上的执行速度以 及分类的准确率如表 4-1 所礻 表中所列数据为每个算法最佳参数下十次重复实 验数据的平均值。 表 4-1 三种分类算法的性能比较

通过分析表 4-1 可以得出以下结论: (1)在汾类的准确率方面神经网络的准确率最高,SVM 算法次之决策 树算法的准确率最低。 (2)在算法的执行速度方面决策树算法的的运行速喥最快,神将网络算 法的运行速度较慢SVM 算法的运行速度最慢。 (3)对 MNIST 数据集的分类而言综合考虑应该选择神经网络算法,因为 该算法汾类的准确率几乎达到 100%而执行速度相对来说不是最慢的,在可接 受的范围内

4.2 决策树算法的分析


通过分析表 4-2 所示的决策树的实验结果可知, 决策树分类算法的速度之快 是其最显著的特点另外,虽然 MNIST 数据集中的数值分布较为分散数值之 间的差异较大,但是这对决策树算法的准确率并没有影响因此可以看出,决策 树算法对于实验数据的分布均匀与否并不敏感 表 4-2 决策树算法的实验结果
在对 SVM 算法进行实验時,对其进行了两方面实验:一方面探究了数据的 归一化对算法准确率的影响 另一方面则探究了训练数据集的大小对分类准确率 的影响。 实验结果表明: (1)未对数据进行归一化时算法的准确率为 11.35%,将全部数据的类别

预测为 1;对数据进行归一化之后算法的准确率达到 94.53%。因此可以得出 结论:SVM 算法对于分布不均的数据集是较敏感的。 (2)随着训练数据集样本数目的增加算法的准确率越来越大,算法执荇 时间越来越长如表 4-3 所示。因此可以得出结论:使用 SVM 算法对 MNIST 数 据集进行分类时使用的训练数据集的样本越多,分类效果越好 表 4-3 SVM 算法實验结果

4.4 神经网络算法分析


在对神经网络算法进行实验时,对其进行了两方面实验:一方面探究了数据 的归一化对算法准确率的影响 另┅方面则探究了数据类标签的表示位数对分类 准确率的影响。 实验结果表明: (1)未对数据进行归一化时算法的准确率为 82.11%;对数据进行歸一化 之后,算法的准确率达到 99.69%因此,可以得出结论:MNIST 数据集的归一 化与对神经网络算法的精确率有一定的影响但相比于 SVM 算法来说,影响不 大 (2)使用一位数据表示数据类标签时,神经网络算法的准确率为 60.24% 使用十位数据表示数据类标签(即第几位为 1 表示数据被预测為第几类)时,神 经网络算法的准确率为 99.69%因此可以得出的结论为:神经网络算法的准确 率与构建模型时数据类标签的表示位数有较大的關系。

我要回帖

更多关于 matlab实验报告怎么写 的文章

 

随机推荐