更新时间:2023-09-06 19:15:30
封面
版权信息
版权
内容提要
大咖推荐
前言
写给读者的建议
致谢
资源与支持
资源获取
提交勘误
与我们联系
关于异步社区和异步图书
第1章 扩散模型简介
1.1 扩散模型的原理
1.1.1 生成模型
1.1.2 扩散过程
1.2 扩散模型的发展
1.2.1 开始扩散:基础扩散模型的提出与改进
1.2.2 加速生成:采样器
1.2.3 刷新纪录:基于显式分类器引导的扩散模型
1.2.4 引爆网络:基于CLIP的多模态图像生成
1.2.5 再次“出圈”:大模型的“再学习”方法——DreamBooth、LoRA和ControlNet
1.2.6 开启AI作画时代:众多商业公司提出成熟的图像生成解决方案
1.3 扩散模型的应用
1.3.1 计算机视觉
1.3.2 时序数据预测
1.3.3 自然语言
1.3.4 基于文本的多模态
1.3.5 AI基础科学
第2章 Hugging Face简介
2.1 Hugging Face核心功能介绍
2.2 Hugging Face开源库
2.3 Gradio工具介绍
第3章 从零开始搭建扩散模型
3.1 环境准备
3.1.1 环境的创建与导入
3.1.2 数据集测试
3.2 扩散模型之退化过程
3.3 扩散模型之训练
3.3.1 UNet网络
3.3.2 开始训练模型
3.4 扩散模型之采样过程
3.4.1 采样过程
3.4.2 与DDPM的区别
3.4.3 UNet2DModel模型
3.5 扩散模型之退化过程示例
3.5.1 退化过程
3.5.2 最终的训练目标
3.6 拓展知识
3.6.1 时间步的调节
3.6.2 采样(取样)的关键问题
3.7 本章小结
第4章 Diffusers实战
4.1 环境准备
4.1.1 安装Diffusers库
4.1.2 DreamBooth
4.1.3 Diffusers核心API
4.2 实战:生成美丽的蝴蝶图像
4.2.1 下载蝴蝶图像集
4.2.2 扩散模型之调度器
4.2.3 定义扩散模型
4.2.4 创建扩散模型训练循环
4.2.5 图像的生成
4.3 拓展知识
4.3.1 将模型上传到Hugging Face Hub
4.3.2 使用Accelerate库扩大训练模型的规模
4.4 本章小结
第5章 微调和引导
5.1 环境准备
5.2 载入一个预训练过的管线
5.3 DDIM——更快的采样过程
5.4 扩散模型之微调
5.4.1 实战:微调
5.4.2 使用一个最小化示例程序来微调模型
5.4.3 保存和载入微调过的管线
5.5 扩散模型之引导
5.5.1 实战:引导
5.5.2 CLIP引导
5.6 分享你的自定义采样训练
5.7 实战:创建一个类别条件扩散模型
5.7.1 配置和数据准备
5.7.2 创建一个以类别为条件的UNet模型
5.7.3 训练和采样
5.8 本章小结
第6章 Stable Diffusion
6.1 基本概念
6.1.1 隐式扩散
6.1.2 以文本为生成条件
6.1.3 无分类器引导
6.1.4 其他类型的条件生成模型:Img2Img、Inpainting与Depth2Img模型
6.1.5 使用DreamBooth进行微调
6.2 环境准备
6.3 从文本生成图像
6.4 Stable Diffusion Pipeline
6.4.1 可变分自编码器
6.4.2 分词器和文本编码器
6.4.3 UNet
6.4.4 调度器
6.4.5 DIY采样循环