封面
版权信息
版权
内容提要
推荐序
序
致谢
关于本书
作者简介
封面主图简介
资源与支持
第一部分 生成式人工智能简介
第1章 生成式人工智能和PyTorch
1.1 生成式人工智能和PyTorch简介
1.2 生成对抗网络(GAN)
1.3 Transformer
1.4 为什么要从零开始构建生成模型
1.5 小结
第2章 使用PyTorch进行深度学习
2.1 PyTorch中的数据类型
2.2 使用PyTorch完成端到端深度学习项目
2.3 二分类
2.4 多类别分类
2.5 小结
第3章 生成对抗网络:生成形状和数字
3.1 训练GAN的步骤
3.2 准备训练数据
3.3 构建GAN
3.4 训练GAN并使用GAN生成形状
3.5 用模式生成数字
3.6 小结
第二部分 图像生成
第4章 使用GAN生成图像
4.1 使用GAN生成服装灰度图像
4.2 卷积层
4.3 转置卷积和批量归一化
4.4 彩色动漫人脸图像
4.5 深度卷积GAN(DCGAN)
4.6 小结
第5章 在生成图像中选择特征
5.1 眼镜数据集
5.2 cGAN和沃瑟斯坦距离
5.3 构建cGAN
5.4 训练cGAN
5.5 在生成图像中选择特征的方法
5.6 小结
第6章 CycleGAN:将金发转换为黑发
6.1 CycleGAN和循环一致性损失
6.2 名人人脸数据集
6.3 构建CycleGAN模型
6.4 用CycleGAN在黑发和金发之间转换
6.5 小结
第7章 利用变分自编码器生成图像
7.1 自编码器概述
7.2 构建并训练能生成数字的自编码器
7.3 变分自编码器
7.4 生成人脸图像的变分自编码器
7.5 小结
第三部分 自然语言处理和Transformer
第8章 利用循环神经网络生成文本
8.1 循环神经网络(RNN)简介
8.2 自然语言处理(NLP)的基本原理
8.3 准备数据以训练LSTM模型
8.4 构建并训练LSTM模型
8.5 使用训练好的LSTM模型生成文本
8.6 小结
第9章 实现注意力机制和Transformer
9.1 注意力机制和Transformer
9.2 构建编码器
9.3 构建编码器-解码器Transformer
9.4 将所有部件组合在一起
9.5 小结
第10章 训练能将英语翻译成法语的Transformer
10.1 子词词元化
10.2 词嵌入和位置编码
10.3 训练Transformer将英语翻译成法语
10.4 用训练好的模型将英语翻译成法语
10.5 小结
第11章 从零开始构建GPT
11.1 GPT-2的架构和因果自注意力
11.2 从零开始构建GPT-2XL
11.3 载入预训练权重并生成文本
11.4 小结
第12章 训练生成文本的Transformer
12.1 从零开始构建并训练GPT
12.2 海明威小说的文本词元化
12.3 构建用于生成文本的GPT
12.4 训练GPT模型以生成文本
12.5 小结
第四部分 实际应用和新进展
第13章 使用MuseGAN生成音乐
13.1 音乐的数字化表示
13.2 音乐生成所用的蓝图
13.3 准备MuseGAN所需的训练数据
13.4 构建MuseGAN
13.5 训练MuseGAN以生成音乐
13.6 小结
第14章 构建并训练音乐Transformer
14.1 音乐Transformer简介
14.2 词元化音乐作品
14.3 构建用于生成音乐的GPT
14.4 训练和使用音乐Transformer
14.5 小结
第15章 扩散模型和文生图Transformer
15.1 去噪扩散模型简介
15.2 准备训练数据
15.3 构建去噪U-Net模型
15.4 训练和使用去噪U-Net模型
15.5 文生图Transformer
15.6 小结
第16章 预训练LLM和LangChain库
16.1 使用OpenAI API生成内容
16.2 LangChain简介
16.3 用LangChain创建博学多才的零样本智能体
16.4 LLM的局限性和伦理问题
16.5 小结
附录A 安装Python、Jupyter Notebook和PyTorch
A.1 安装Python并设置虚拟环境
A.2 安装PyTorch
附录B 阅读本书需要掌握的基础知识
B.1 深度学习和深度神经网络
B.2 训练深度神经网络
更新时间:2025-06-19 18:35:41