多层感知器(MLP)是一类前馈人工神经网络。感知器这个术语具体是指单个神经元模型,它是大型神经网络的前体。
MLP包括节点的三个主要层:输入层、隐藏层和输出层。在隐藏层和输出层中,每个节点都被视为使用非线性激活函数的神经元。MLP使用一种称为反向传播的监督式学习技术进行训练。初始化神经网络时,为每个神经元设置权重。反向传播有助于调整神经元权重,以获得更接近预期的输出。
对于涉及表格数据集、分类预测问题和回归预测问题的项目,MLP最理想。
卷积神经网络(CNN)模型处理具有网格图案(比如图像)的数据。它旨在自动学习特征的空间层次结构。CNN通常包括三种类型的层:卷积层、池化层和完全连接的层。
卷积层和池化层执行特征提取任务,这些提取的特征由完全连接的层映射到最终输出中。 CNN最适合图像处理。
图像识别、图像分类、对象检测和人脸识别是CNN的一些应用场景。
在递归神经网络(RNN)中,前一步的输出将作为输入被反馈回到当前步骤。RNN中的隐藏层实现这种反馈系统。该隐藏状态可以存储有关序列中之前步骤的一些信息。
RNN中的“内存”可帮助模型记住已计算的所有信息。反过来,它使用这些同样的参数,以便每个输入生成输出,因而降低了参数的复杂性。
RNN是使用最广泛的神经网络类型之一,主要是由于RNN具有更强的学习能力,而且能够执行诸如学习手写或语言识别之类的复杂任务。RNN适用的其他一些领域包括预测问题、机器翻译、视频标记、文本摘要,甚至音乐创作。
深度信念网络(DBN)使用概率和无监督学习来生成输出。DBN由二进制潜在变量、无向层和有向层组成。DBN有别于其他模型,原因是每一层都按顺序进行调节,每一层都学习整个输入。
在DBN中,每个子网的隐藏层都是下一个的可见层。这种组合可以实现快速的逐层无监督训练过程:对比差异应用于每个子网,从最低可见层开始。贪婪的学习算法用于训练DBN。学习系统每次取一层。因此,每一层收到不同版本的数据,每一层都使用前一层的输出作为其输入。
DBN主要应用于图像识别、视频识别和运动捕获数据。比如公园视频摄像头捕获视频头像
玻尔兹曼机(RBM)是一种生成式非确定性(随机)神经网络,可学习其输入集的概率分布。RBM是组成深度信念网络构建模块的浅度两层神经网络。RBM中的第一层名为可见层或输入层,第二层名为隐藏层。它由名为节点的类似神经元的单元组成;节点跨层相互连接,但不在同一层内。
原文链接:https://blog.csdn.net/liuyaokai1990/article/details/130771140?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851504416800211594513%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851504416800211594513&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-10-130771140-null-null.nonecase&utm_term=AI%E5%A4%B4%E5%83%8F