深入理解深度学习(含 Python 介绍)
Master deep learning in PyTorch using an experimental scientific approach, with lots of examples and practice problems.
使用实验性的科学方法,通过大量的例子和实践问题,深入学习PyTorch中的深度学习。
教程演示🔗
学生数量:32,669 个学生
上次更新时间:2024年4月
教程评分:4.7
教程语言:英语
教程字幕:中文、英语字幕
本课程包括:在移动设备和电视上观看、结业证书、3 篇文章、57.5 小时 长的随选视频、1 个可下载资源、完整的永久访问权字幕
学习内容
1、深度学习的理论和数学基础
2、如何构建人工神经网络
3、前馈网络和卷积网络的架构
4、在PyTorch中构建模型
5、微积分和梯度下降法的编码规则
6、微调深度网络模型
7、从零开始学习Python(无需任何编程经验)
8、自编码器(Autoencoders)的工作原理及其背后的机制
自编码器是一种无监督学习的神经网络模型,主要用于数据的降维、特征学习和数据压缩。它们的工作原理主要基于两个关键组件:编码器(Encoder)和解码器(Decoder)。
1. **工作原理**:
– **输入数据**:自编码器接收原始数据作为输入,如图像或文本。
– **编码器**:编码器将输入数据映射到一个低维度的“编码”或“潜在向量”中。这个过程通常通过多层神经网络实现,每一层逐渐减小数据的维度,提取出最重要的特征。
– **潜在向量**:编码后的向量捕捉了输入数据的主要信息,但去除了噪声和冗余细节。
– **解码器**:解码器接收到潜在向量后,将其转化为与原始数据相似但维度较低的重构数据。这个过程逆向进行,逐层增加数据维度,试图尽可能准确地还原原始输入。
– **训练过程**:通过反向传播算法,自编码器学习如何最小化输入与重构输出之间的差异(通常用均方误差或交叉熵损失函数衡量),以此优化网络权重。
2. **为什么有效**:
– **特征学习**:由于自编码器在低维空间中工作,它能够学习到输入数据中的关键特征,这对于数据可视化、特征提取和异常检测非常有用。
– **数据压缩**:通过减少数据维度,自编码器可以高效地存储和传输数据,同时保留其主要信息。
– **无监督学习**:无需标签的数据也可以训练自编码器,使其在实际应用中具有广泛的可能性。
总的来说,自编码器之所以有效,是因为它们能够通过非线性变换捕捉数据的内在结构,并在重构过程中进行信息压缩和特征提取。
9、如何使用迁移学习
10、通过正则化提高模型性能
11、优化权重初始化
12、理解预定义和学习得到的内核在图像卷积中的运用。
13、无论深度学习模型是否可理解,还是神秘的黑盒!
14、使用GPU进行深度学习(比CPU快得多!)
要求
1、像专业人士一样使用Udemy
2、对深入学习的兴趣!
3、该课程中教授Python/PyTorch技能。
4、一个Google账户(因为Google Colab被用作Python开发环境)