深度学习与目标检测
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.1 深度学习发展简史

1.1958年—1986年

1958年,Rosenblatt发明了用于对输入的多维数据进行二分类且能够使用梯度下降方法从训练样本中自动更新权值的感知机。但是,1969年,美国数学家及人工智能先驱马文·明斯基(Marvin Lee Minsky)在其著作中证明:感知机只能处理线性分类问题,其本质就是一种线性模型,甚至不能成功解决异或分类问题。

1986年,“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)第一次打破了神经网络的非线性“诅咒”。Hinton发明了适用于多层感知机(multi-layer perceptron,MLP)的反向传播(back propagation,BP)算法,并使用sigmoid函数进行非线性映射,从而有效地解决了非线性分类和学习问题。然而,由于神经网络算法一直缺少严格的数学理论支持,且BP算法被指出存在梯度消失问题,神经网络热潮渐渐消退。

2.1998年—2015年

1998年,LeCun提出了用于解决手写体数字识别问题的LeNet,使深度学习重新进入了人们的视野。

进入21世纪,一系列能够抑制梯度消失(例如预训练、ReLU函数、跳层连接)和消除过拟合(例如正则化、dropout)的方法被提出。

2011年,微软首次将深度学习应用在语音识别领域并取得了重大突破。

2012年是深度学习大放异彩的一年。Hinton课题组首次参加ImageNet大型图像识别挑战赛(ImageNet Large Scale Visual Recognition Competition,ILSVRC),通过构建卷积神经网络AlexNet一举夺得冠军,并在分类性能上“碾压”了第二名SVM方法,真正掀起了学术界研究深度学习的热潮。显卡巨头NVIDIA将AlexNet移植到GPU平台上,使其性能得到了几何级数的提升。

2014年,NVIDIA发布了cuDNN深度学习算子库。同年,贾扬清在GitHub上开源了基于GPU的深度学习框架Caffe,使NVIDIA的GPU从图形渲染领域无缝切入以深度学习为代表的人工智能领域。GPU可以缩短训练和推理时延,使学者利用大数据集提升训练精度、将深度学习应用部署在安防等对实时性要求非常高的场合成为可能。

3.2016年以后

2016年,谷歌开发的AlphaGo战胜了围棋世界冠军李世石,使得深度学习的影响力从学术界迅速扩展到工业界和整个人类社会,人们开始讨论“人类是否会被人工智能取代”这样的话题。同年,NVIDIA发布首款面向深度学习推理的终端芯片Jetson TK1和推理工具TensorRT,使深度学习能更好地适配低功耗、低延时的应用场景。

深度学习被应用到多个领域。例如,用于图像生成、增强、风格化的生成对抗网络(GAN),用于游戏对战、网络结构搜索的强化学习网络,用于图像分类、检测、跟踪、分割、重识别的卷积神经网络,用于自然语言处理、手写体识别的循环神经网络,甚至可以作为一个中间环节用于完成摄像机标定、人体模型参数化等工作。

同时,我们也注意到:当训练样本量达到一定规模以后,模型的精度不会随着样本量的增加而提高;在一些应用中,我们可以获取的训练样本数量很少且难以标注,或者样本数量庞大(大到无法进行人工标注)。从2019年CVPR(Conference on Computer Vision and Pattern Recognition,国际计算机视觉与模式识别会议)录用的文章中我们可以发现,为了解决上述问题,迁移学习、元学习、小样本学习、在线学习已经成为新的研究热点。