新書推薦:
《
吕著中国通史
》
售價:HK$
62.7
《
爱琴海的光芒 : 千年古希腊文明
》
售價:HK$
199.4
《
不被他人左右:基于阿德勒心理学的无压力工作法
》
售價:HK$
66.1
《
SDGSAT-1卫星热红外影像图集
》
售價:HK$
445.8
《
股市趋势技术分析(原书第11版)
》
售價:HK$
221.8
《
汉匈战争全史
》
售價:HK$
99.7
《
恶的哲学研究(社会思想丛书)
》
售價:HK$
109.8
《
不止江湖
》
售價:HK$
98.6
|
內容簡介: |
本书以PyTorch作为深度学习框架,主要包括4部分。第1部分(第1、2章),主要概述PyTorch基础知识与常见深度学习算法实现,例如,CNN、LSTM,即CNN-LSTM;第2部分(第3~5章)高级神经网络实现,主要包括常见的深度学习网络结构,例如CNN、RNN及最新的Transformer等模型;第3部分(第6~9章)生成式AI和深度强化学习,主要包括GAN、GPT和DQN等算法;第4部分(第10~14章)生产中PyTorch落地的几个关键性主题,分布式训练、自动机器学习管道构建和硬件快速部署。
|
關於作者: |
Ashish Ranjan Jha拥有IIT Roorkee(印度)电气工程学士学位,EPFL(瑞士)计算机科学硕士学位。EPFL(瑞士)计算机科学硕士学位,Quantic商学院(华盛顿)MBA学位,并都以优异成绩毕业。Ashish曾在甲骨文、索尼及初创科技公司等多家科技公司工作,在Revolut担任机器学习工程师郭涛,四川省农业科学院遥感应用研究所智慧农业科学技术中心、遥感监测(粮食安全)研究中心工程师,TIT Lab发起人,主要从事机器学习与模式识别、地理人工智能(GeoAI)与时空大数据挖掘与分析、智能机器人技术和软件工程技术等前沿交叉研究。《复杂性思考:复杂性科学与计算模型》和《神经网络实战》等译者。目前发表学术论文12篇,申请软件著作权12项,参与编写教材3本,译著5本。
|
目錄:
|
第1部分 PyTorch概述 第 1 章 使用PyTorch概述深度学习003 1.1 技术要求005 1.2 回顾深度学习005 1.2.1 激活函数011 1.2.2 优化模式014 1.3 探索PyTorch库018 1.3.1 PyTorch模块019 1.3.2 Tensor模块021 1.4 使用PyTorch训练神经网络025 1.5 总结033 第 2 章 结合CNN和LSTM035 2.1 技术要求036 2.2 使用CNN和LSTM构建神经网络036 2.3 使用PyTorch构建图像文字描述生成器038 2.3.1 下载图像文字描述数据集039 2.3.2 预处理文字描述(文本)数据041 2.3.3 预处理图像数据043 2.3.4 定义图像文字描述数据加载器045 2.3.5 定义CNN-LSTM模型047 2.3.6 训练CNN-LSTM模型050 2.3.7 使用已经训练的模型生成图像文字描述054 2.4 总结057 第2部分 使用高级神经网络架构 第 3 章 深度CNN架构061 3.1 技术要求062 3.2 为什么CNN如此强大?062 3.3 CNN架构的演变065 3.4 从零开始开发LeNet068 3.4.1 使用PyTorch构建LeNet070 3.4.2 训练LeNet076 3.4.3 测试LeNet077 3.5 微调AlexNet模型079 3.6 运行预训练的VGG模型090 3.7 探索GoogLeNet和Inception v3094 3.7.1 Inception模块094 3.7.2 1×1卷积097 3.7.3 全局平均池化097 3.7.4 辅助分类器097 3.7.5 Inception v3099 3.8 讨论ResNet和DenseNet架构102 3.9 了解EfficientNets和CNN架构的未来109 3.10 总结111 第 4 章 深度循环模型架构113 4.1 技术要求114 4.2 探索循环网络的演变115 4.2.1 循环神经网络的类型115 4.2.2 RNN117 4.2.3 双向RNN118 4.2.4 LSTM119 4.2.5 扩展和双向LSTM121 4.2.6 多维RNN121 4.2.7 堆叠LSTM122 4.2.8 GRU123 4.2.9 Grid LSTM124 4.2.10 门控正交循环单元124 4.3 训练RNN进行情感分析124 4.3.1 加载和预处理文本数据集125 4.3.2 实例化和训练模型131 4.4 构建双向LSTM137 4.4.1 加载和预处理文本数据集137 4.4.2 实例化和训练LSTM模型139 4.5 讨论GRU和基于注意力的模型141 4.5.1 GRU和PyTorch142 4.5.2 基于注意力的模型142 4.6 总结144 第 5 章 混合高级模型146 5.1 技术要求147 5.2 构建用于语言建模的Transformer模型147 5.2.1 回顾语言建模147 5.2.2 理解Transforms模型架构148 5.3 从头开始开发RandWireNN模型160 5.3.1 理解RandWireNN161 5.3.2 使用PyTorch开发RandWireNN162 5.4 总结174 第3部分 生成模型和深度强化学习 第 6 章 使用PyTorch生成音乐和文本179 6.1 技术要求180 6.2 使用PyTorch构建基于Transformer的文本生成器180 6.2.1 训练基于Transformer的语言模型181 6.2.2 保存和加载语言模型182 6.2.3 使用语言模型生成文本182 6.3 使用预训练的GPT-2模型作为文本生成器184 6.3.1 使用GPT-2生成便捷的文本184 6.3.2 使用PyTorch的文本生成策略185 6.4 使用PyTorch与LSTM生成MIDI音乐192 6.4.1 加载MIDI音乐数据193 6.4.2 定义LSTM模型和训练例程197 6.4.3 训练和测试音乐生成模型199 6.5 总结202 第 7 章 神经风格转移204 7.1 技术要求205 7.2 理解如何在图像之间传递风格205 7.3 使用PyTorch实现神经风格迁移209 7.3.1 加载内容图像和风格图像209 7.3.2 构建神经风格迁移模型213 7.3.3 训练风格迁移模型214 7.3.4 尝试风格迁移系统219 7.4 总结222 第 8 章 深度卷积GAN224 8.1 技术要求225 8.2 定义生成器和判别器网络226 8.3 使用PyTorch训练DCGAN229 8.3.1 定义生成器229 8.3.2 定义判别器232 8.3.3 加载图像数据集233 8.3.4 DCGAN的训练循环234 8.4 使用GAN进行风格迁移239 8.5 总结248 第 9 章 深度强化学习249 9.1 技术要求250 9.2 回顾强化学习概念251 9.2.1 强化学习算法类型253 9.3 讨论Q-学习256 9.4 理解深度Q-学习261 9.4.1 使用两个独立的DNN262 9.4.2 经验回放缓冲器262 9.5 在PyTorch中构建DQN模型263 9.5.1 初始化主和目标CNN模型263 9.5.2 定义经验回放缓冲区266 9.5.3 设置环境267 9.5.4 定义CNN优化函数269 9.5.5 管理和运行迭代270 9.5.6 训练DQN模型以学习Pong273 9.6 总结277 第4部分 生产系统中的PyTorch 第 10 章 将PyTorch模型投入生产中281 10.1 技术要求282 10.2 PyTorch中的模型服务283 10.2.1 创建PyTorch模型推理流水线283 10.2.2 构建基本模型服务器290 10.2.3 创建模型微服务298 10.3 使用TorchServe为PyTorch模型提供服务304 10.3.1 安装TorchServe305 10.3.2 启动和使用TorchServe服务器305 10.4 使用TorchScript和ONNX导出通用PyTorch模型310 10.4.1 了解TorchScript的功能310 10.4.2 使用TorchScript进行模型跟踪311 10.4.3 使用TorchScript编写模型脚本315 10.4.4 在C++中运行PyTorch模型318 10.4.5 使用ONNX导出PyTorch模型322 10.5 在云端提供PyTorch模型325 10.5.1 将PyTorch与AWS结合使用326 10.5.2 在Google Cloud上提供PyTorch模型330 10.5.3 使用Azure为PyTorch模型提供服务332 10.6 总结334 参考资料335 第 11 章 分布式训练337 11.1 技术要求338 11.2 使用PyTorch进行分布式训练338 11.2.1 以常规方式训练MNIST模型339 11.2.2 以分布式方式训练MNIST模型342 11.3 使用CUDA在GPU上进行分布式训练350 11.4 总结353 第 12 章 PyTorch和AutoML355 12.1 技术要求355 12.2 使用AutoML寻找最佳神经架构356 12.3 使用Optuna进行超参数搜索365 12.4 定义模型架构和加载数据集366 12.4.1 定义模型训练例程和优化计划369 12.4.2 运行Optuna的超参数搜索370 12.5 总结373 第 13 章 PyTorch和AI可解释375 13.1 技术要求376 13.2 PyTorch中的模型可解释性376 13.2.1 训练手写数字分类器—回顾376 13.2.2 可视化模型的卷积过滤器379 13.2.3 可视化模型的特征图381 13.3 使用Captum解释模型384 13.3.1 设置Captum384 13.3.2 探索Captum的可解释性工具386 13.4 总结390 第 14 章 使用PyTorch进行快速原型设计391 14.1 技术要求392 14.2 使用fast.ai快速设置模型训练392 14.2.1 设置fast.ai并加载数据393 14.2.2 使用fast.ai训练MNIST模型395 14.2.3 使用fast.ai评估和解释模型397 14.3 在任何硬件上使用PyTorch Lightning训练模型399 14.3.1 在PyTorch Lightning中定义模型组件399 14.3.2 使用PyTorch Lightning训练并评估模型401 14.4 总结405
|
|