線上閱讀
本書提供兩種檔案格式,請選擇開啟:
EPUB彈性排版,可依載具大小自動斷行或換頁,較適合小螢幕閱讀。
書籍內容
TOP
《深度學習筆記》作為一本以“筆記”命名的深度學習圖書,主要定位是面向廣大希望入門深度學習的初學者。本書以深度神經網絡(DNN)、卷積神經網絡(CNN)和循環神經網絡(RNN)為核心,詳細介紹了深度學習的理論基礎、通用方法和三大網絡的原理與實踐。全書代碼以Keras框架作為範例,對於初學者而言簡單易懂。對於深度學習而言,本書內容豐富,知識覆蓋面廣,兼有代碼實戰,適合想要入門深度學習的廣大學習者閱讀。
- 目錄
-
版权信息
-
推荐序
-
前言
-
第1讲 神经网络与深度学习
-
1.1 机器学习与深度学习的关系
-
1.2 感知机与神经网络
-
第2讲 神经网络的过拟合与正则化
-
2.1 机器学习的核心要义
-
2.2 范数与正则化
-
2.3 神经网络的正则化和Dropout
-
第3讲 深度学习的优化算法
-
3.1 机器学习的数学规约
-
3.2 损失函数和深度学习优化算法
-
3.3 梯度下降法
-
3.4 从Momentum到Adam
-
第4讲 卷积神经网络
-
4.1 CNN发展简史与相关人物
-
4.2 卷积的含义
-
4.3 池化和全连接
-
第5讲 CNN图像学习过程与可视化
-
5.1 CNN的直观理解
-
5.2 CNN图像学习的可视化
-
第6讲 CNN图像分类:从LeNet5到EfficientNet
-
6.1 计算机视觉的三大任务
-
6.2 CNN图像分类发展史
-
第7讲 CNN目标检测:从RCNN到YOLO
-
7.1 目标检测概述
-
7.2 CNN目标检测算法
-
第8讲 CNN图像分割:从FCN到U-Net
-
8.1 语义分割和实例分割概述
-
8.2 语义分割
-
第9讲 迁移学习理论与实践
-
9.1 迁移学习:深度学习未来五年的驱动力?
-
9.2 迁移学习的使用场景
-
9.3 深度卷积网络的可迁移性
-
9.4 迁移学习的使用方法
-
9.5 基于ResNet的迁移学习实验
-
第10讲 循环神经网络
-
10.1 从语音识别到自然语言处理
-
10.2 RNN:网络架构与技术
-
10.3 四种RNN结构
-
第11讲 长短期记忆网络
-
11.1 深度神经网络的困扰:梯度爆炸与梯度消失
-
11.2 LSTM:让RNN具备更好的记忆机制
-
第12讲 自然语言处理与词向量
-
12.1 自然语言处理简介
-
12.2 词汇表征
-
12.3 词向量与语言模型
-
第13讲 word2vec词向量
-
13.1 word2vec
-
13.2 word2vec的训练过程:以CBOW为例
-
第14讲 seq2seq与注意力模型
-
14.1 seq2seq的简单介绍
-
14.2 注意力模型
-
14.3 基于seq2seq和Attention机制的机器翻译实践
-
第15讲 语音识别
-
15.1 概述
-
15.2 信号处理与特征提取
-
15.3 传统声学模型
-
15.4 基于深度学习的声学模型
-
15.5 端到端的语音识别系统简介
-
第16讲 从Embedding到XLNet:NLP预训练模型简介
-
16.1 从Embedding到ELMo
-
16.2 特征提取器:Transformer
-
16.3 低调王者:GPT
-
16.4 封神之作:BERT
-
16.5 持续创新:XLNet
-
第17讲 深度生成模型之自编码器
-
17.1 自编码器
-
17.2 自编码器的降噪作用
-
17.3 变分自编码器
-
17.4 VAE的Keras实现
-
第18讲 深度生成模型之生成式对抗网络
-
18.1 GAN
-
18.2 训练一个DCGAN
-
第19讲 神经风格迁移、深度强化学习与胶囊网络
-
19.1 神经风格迁移
-
19.2 深度强化学习
-
19.3 胶囊网络
-
第20讲 深度学习框架
-
20.1 概述
-
20.2 TensorFlow
-
20.3 Keras
-
20.4 PyTorch
-
第21讲 深度学习数据集
-
21.1 CV经典数据集
-
21.2 NLP经典数据集
-
参考文献