收起左侧
发新帖

观察|深度学习为何强大?适当的神经网络架构+大数据

时间:2022-4-5 08:21 0 452 | 复制链接 |

马上注册,结交更多好友

您需要 登录 才可以下载或查看,没有账号?立即注册

x
  据Emergen Research分析称,到2028年,全球深度学习市场规模预计将以39.1%的稳定复合年增长率达到933.4亿美元,推动其市场收入的关键因素是采用基于云的技术和在大数据分析中使用深度学习系统。
那么,究竟什么是深度学习?它如何工作?
据《VentureBeat》在近日《这就是深度学习如此强大的原因》一文中总结道:深度学习是机器学习的一个子集,它使用神经网络来执行学习和预测。深度学习在各种任务中都表现出了惊人的表现,无论是文本、时间序列还是计算机视觉。深度学习的成功主要来自大数据的可用性和计算能力,这使得深度学习的表现远远优于任何经典的机器学习算法。
深度学习的本质:神经网络和函数
有网友曾笑言,“当你想要拟合任何函数或者任何分布,而又没有思路时,试试神经网络吧!”
先上两个重要结论:
神经网络是一个相互连接的神经元网络,每个神经元都是一个有限函数逼近器。这样,神经网络被视为通用函数逼近器。
深度学习是具有许多隐藏层(通常大于2个隐藏层)的神经网络。深度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。
DSC0000.jpg 在高中数学我们会学到,函数就是从输入空间到输出空间的映射。一个简单的sin(x)函数是从角空间(-180°到180°或0°到360°)映射到实数空间(-1到1)。函数逼近问题是函数论的重要组成部分,涉及的基本问题是函数的近似表示问题。
那么,为什么神经网络被认为是通用函数逼近器呢?
每个神经元学习一个有限的函数:f(.)=g(W*X)其中W是要学习的权重向量,X是输入向量,g(.)是非线性变换。W*X可以可视化为高维空间(超平面)中的一条线,而g(.)可以是任何非线性可微函数,如sigmoid、tanh、ReLU等(常用于深度学习领域)。
在神经网络中学习无非就是找到最佳权重向量W。例如,在y=mx+c中,我们有2个权重:m和c。现在,根据二维平面空间中点的分布,我们找到满足某些标准的m及c的最佳值,那么对于所有数据点,预测y和实际点之间的差异最小。
神经网络“层”效果:学习具体到类别概括的映射
如果输入是狮子的图像,输出是属于狮子类的图像分类,那么深度学习就是学习将图像向量映射到类的函数。类似地,输入是单词序列,输出是输入句子是否具有正面/中性/负面情绪。因此,深度学习是学习从输入文本到输出类的映射:中性或正面或负面。
如何实现上述任务呢?
每个神经元都是一个非线性函数,我们将几个这样的神经元堆叠在一个“层”中,每个神经元接收相同的一组输入但学习不同的权重W。因此,每一层都有一组学习函数:f1,f2,…,fn,称为隐藏层值。这些值再次组合,在下一层:h(f1,f2,...,fn)等等。这样,每一层都由前一层的函数组成(类似于h(f(g(x))))。已经表明,通过这种组合,我们可以学习任何非线性复函数
深度学习是具有许多隐藏层(通常大于2个隐藏层)的神经网络。深度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。
深度学习作为曲线拟合的插值:过度拟合挑战与泛化目标
深度学习先驱Yann LeCun(卷积神经网络的创造者和图灵奖获得者)曾在推特上发帖称,“深度学习并没有你想象的那么令人惊叹,因为它仅仅是美化曲线拟合的插值。但是在高维中,没有插值之类的东西。在高维空间,一切都是外推。”
DSC0001.jpg
插值(interpolation)是离散函数逼近的重要方法,利用它可通过函数在有限个点处的取值状况,估算出函数在其他点处的近似值。
  
从生物学的解释来看,人类通过逐层解释图像来处理世界的图像,从边缘和轮廓等低级特征,到对象和场景等高级特征。神经网络中的函数组合与此一致,其中每个函数组合都在学习关于图像的复杂特征。用于图像最常见的神经网络架构是CNN(Convolutional Neural Networks,卷积神经网络),它以分层方式学习这些特征,然后一个完全连接的神经网络将图像特征分类为不同的类别。
比如,给定一组平面上的数据点,我们尝试通过插值拟合曲线,该曲线在某种程度上代表了定义这些数据点的函数。我们拟合的函数越复杂(例如在插值中,通过多项式次数确定),它就越适合数据;但是,它对新数据点的泛化程度越低。
这就是深度学习面临挑战的地方,也就是通常所说的过度拟合问题:尽可能地拟合数据,但在泛化方面有所妥协。几乎所有深度学习架构都必须处理这个重要因素,才能学习在看不见的数据上表现同样出色的通用功能。
深度学习如何学习?问题决定了神经网络架构
那么,我们如何学习这个复杂的函数呢?
这完全取决于手头的问题,其决定了神经网络架构。如果我们对图像分类感兴趣,那么我们使用CNN。如果我们对时间相关的预测或文本感兴趣,那么我们使用RNN(Recurrent Neural Network,循环神经网络) 或Transformer,如果我们有动态环境(如汽车驾驶),那么我们使用强化学习。
除此之外,学习还涉及处理不同的挑战:
·通过使用正则化(regularization,用来防止训练的模型产生过拟合与欠拟合现象)处理确保模型学习通用函数,而不仅仅适合训练数据。
·根据手头的问题,选择损失函数。粗略地说,损失函数是我们想要的(真实值)和我们当前拥有的(当前预测)之间的误差函数。
·梯度下降是用于收敛到最优函数的算法。决定学习率变得具有挑战性,因为当我们远离最优时,我们想要更快地走向最优,而当我们接近最优时,我们想要慢一些,以确保我们收敛到最优和全局最小值。
·大量隐藏层需要处理梯度消失问题。跳过连接和适当的非线性激活函数等架构变化,有助于解决这个问题。
基于神经架构与大数据:深度学习带来计算挑战
现在我们知道深度学习只是一个学习复杂的函数,它带来了其他计算挑战:
要学习一个复杂的函数,我们需要大量的数据;为了处理大数据,我们需要快速的计算环境;因此,我们需要一个支持这种环境的基础设施。
使用CPU进行并行处理不足以计算数百万或数十亿的权重(也称为DL的参数)。神经网络需要学习需要向量(或张量)乘法的权重。这就是GPU派上用场的地方,因为它们可以非常快速地进行并行向量乘法。根据深度学习架构、数据大小和手头的任务,我们有时需要1个GPU,有时,数据科学家需要根据已知文献或通过测量1个GPU的性能来做出决策。
通过使用适当的神经网络架构(层数、神经元数量、非线性函数等)以及足够大的数据,深度学习网络可以学习从一个向量空间到另一个向量空间的任何映射。这就是让深度学习成为任何机器学习任务的强大工具的原因。


您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

扫码添加微信客服
快速回复 返回列表 返回顶部