预测未来不是魔法,而是人工智能。毋庸置疑,人工智能的风头正劲,每个人都在谈论它,无论他们是否理解这个术语。

 

据研究人员和分析师称,到 2024 年,数字助理的使用率预计有望达到 84 亿。超个性化、聊天机器人、预测性行为分析等是人工智能应用中最为常见的用例。人工智能正在彻底改变整个地球,引领我们走向一个不可预测的未来。其中,最重要的两个概念是机器学习和深度学习。

 

在每天发送的 3000 亿封电子邮件中,机器学习的效率足以检测出垃圾邮件。但是,近年来,深度学习以其高准确率、有效性、高效率和处理海量数据的能力而受到广泛欢迎。它是机器学习的一个分支,通过学习将整个世界呈现为一个根深蒂固的概念层次,每个概念都被确定为简单,从而拥有巨大的灵活性和力量。

 

随着人工神经网络的应用,深度学习算法训练机器在大量数据上进行复杂的计算。深度学习算法可以让机器能够像人脑那样进行工作和处理数据,并高度依赖于人工神经网络,并基于人脑的结构-功能而工作。以下是十大值得关注的深度学习算法,希望能对你有所参考。

1. 自动编码器

 

作为某种类型的前馈神经网络,自动编码器(Autoencoder)是一种深度学习算法,其中输入和输出都是相同的。它是由 Geoffrey Hinton 在 1980 年设计的,目的是解决无监督学习问题。它拥有经过训练的神经网络,将数据从输入层转移到输出层。自动编码器的一些重要用例是:图像处理、药品回收和人口预测。

 

以下是自动编码器的三个主要组成部分:

 

  • 编码器(encoder)

  • 编码(Code)

  • 解码器(decoder)

2. 受限玻尔兹曼机

 

受限玻尔兹曼机(Restricted Boltzmann Machines,RBM)是随机神经网络,能够从概率分布而不是输入集中学习。这种深度学习算法由 Geoffrey Hinton 开发,用于主题建模、特征学习、协同过滤、回归、分类和降维。

 

受限玻尔兹曼机分两个阶段工作:

 

  • 前向(forward pass)

  • 后向(backward pass)

 

此外,它由两个层组成:

 

  • 隐含层(Hidden units)

  • 可视层(Visible units)

 

每个可见层都与所有现有的隐含层相连。受限玻尔兹曼机也有一个偏置层。该层与所有的隐含层以及可见层相连,但没有输出节点。

3. 自组织映射

 

自组织映射(Self-Organizing Maps,SOM)通过自组织人工神经网络实现了数据可视化,以降低数据的维度。这种深度学习算法是由 Teuvo Kohonen 教授开发的。数据可视化能够解决人类在处理高维数据时不容易可视化的这类问题。开发自组织映射的目的是为了对高维信息进行更好的理解。

4. 多层感知机

 

开始学习深度学习算法的最好地方是多层感知机(Multilayer Perceptions,MLP)。它属于前馈神经网络的范畴,同时还有许多包含激活函数的感知层。 它由两个完全连接的层组成:

 

  • 输入层

  • 输出层

 

多层感知机包含相同数量的输入层和输出层,并且有可能具有各种隐含层。多层感知机的一些重要用例包括图像识别、人脸识别和机器翻译软件。

5. 深度信念网络

 

生成模型、深度信念网络(Deep Belief Network,DBN)拥有大量的潜变量和随机变量层。潜变量通常被称为隐含层,包含二进制值。这些是波尔兹曼机的堆栈,各层之间有连接。每一个深度信念网络层都与后续和之前的层相连接。深度信念网络的用例包括视频识别、图像识别以及运动捕捉数据。

6. 径向基函数网络

 

径向基函数网络(Radial Basis Function Network ,RBFN)是一类特殊的前馈神经网络,利用径向基函数作为激活函数。它包含以下几层:

 

  • 输入层

  • 隐含层

  • 输出层

 

上述各层的径向基函数网络被用来进行回归、分类和时间序列预测。

7. 生成对抗网络

 

生成对抗网络(Generative Adversarial Network,GAN)是一种深度学习算法,它可以创建与训练数据相似的新数据实例。生成式对抗网络有助于生成逼真的图片、卡通人物、人脸的图像创建和三维物体的渲染。视频游戏开发者利用生成对抗网络,通过图像训练提升低分辨率。

 

生成对抗网络有两个重要组成部分:

 

  • 生成器(generator):能够生成虚假数据。

  • 鉴别器(discriminator):能够从虚假信息中学习。

8. 递归神经网络

 

递归神经网络(Recurrent Neural Network,RNN)由有助于形成有向循环的连接组成,允许长短期记忆网络(Long Short-term Memory Network,LSTM)的输出作为现阶段的输入提供。递归神经网络能够记住以前的输入,因为它有内部记忆。递归神经网络的一些常见用例有:手写识别、机器翻译、自然语言处理、时间序列分析和图像说明。

9. 卷积神经网络

 

卷积神经网络(Convolutional Neural Network,CNN)也被称为 ConvoNet,包含许多层,主要用于物体检测和图像处理。第一个卷积神经网络是由 Yann LeCun 在 1988 年开发和部署的。在那一年,它被称为 LeNet,用于字符识别,如数字、邮政编码等。卷积神经网络的一些重要用例包括医学图像处理、卫星图像识别、时间序列预测和异常检测。

 

以下是卷积神经网络的一些关键层,它们在数据处理以及从数据中提取特征方面起着举足轻重的作用:

 

  • 卷积层

  • 线性整流层

  • 池化层

  • 完全连接层

10. 长短期记忆网络

 

长短期记忆网络(Long Short-term Memory Network,LSTM)是一类递归神经网络,能够学习和记忆长期依赖关系。长短期记忆网络还能够长期回忆过去的信息。它能随着时间的推移保留信息,这被证明在时间序列预测中是有益的。它有一个链状结构,其中 4 个相互作用的层连接并进行独特的沟通。除了时间序列预测外,长短期记忆网络还被用于药品开发、音乐创作和语音识别。

总结

 

近年来,深度学习算法和技术之所以流行,主要原因在于它们能够处理大量的数据,然后将数据转化成信息。利用它的隐含层架构,深度学习技术学会了定义低级别的类别,如字母;然后是中级别的类别,如单词;然后是高级别的类别,如句子。据某些预测,深度学习必将彻底改变供应链自动化。

 

百度前首席科学家,以及谷歌大脑项目的著名领导人之一,吴恩达(Andrew Ng)曾肯定地表示:

与深度学习类似的是,火箭发动机是深度学习模型,燃料是我们可以提供给这些算法的海量数据。(“The analogy to deep learning is that the deep learning models are the rocket engines and the immense amount of data is the fuel to those rocket engines. ”

因此,技术的发展和进步永远不会停止,深度学习技术和算法也是如此。为了在这个日新月异的世界中保持竞争力,每个人都必须跟上最新的科技进步。

作者介绍:

Aliha Tanveer,技术作家,供职于 ArhamSoft。

 

原文链接:

 

https://dzone.com/articles/10-crucial-deep-learning-algorithms-to-keep-an-eye

本文文字及图片出自 InfoQ

余下全文(1/3)
分享这篇文章:

请关注我们:

发表评论

邮箱地址不会被公开。 必填项已用*标注