第28节:现代CNN架构-ResNet与残差连接
1. 深度卷积神经网络的瓶颈
在深度学习领域,卷积神经网络(CNN)自2012年AlexNet的突破性表现以来,已成为计算机视觉任务的主流架构。随着研究的深入,网络深度被认为是提升模型性能的关键因素——更深的网络能够学习更复杂的特征表示,从边缘、纹理等低级特征到物体部件、整体对象等高级特征。然而,在实践中,研究人员发现简单地增加网络深度会导致一系列问题。
当网络深度增加到一定程度时(如超过20层),模型性能不仅不会提升,反而会出现显著下降。
这一现象与传统认知相矛盾,因为理论上更深的网络至少应该能够实现与较浅网络相当的性能(例如通过将新增层的权重设置为恒等映射)。然而实验表明,深度网络在训练过程中会遇到两大主要问题:
-
梯度消失/爆炸问题:在反向传播过程中,梯度通过多层传递时会不断乘积,导致早期层的梯度变得极小(消失)或极大(爆炸),使得这些层难以有效学习。
- <