新書推薦:
《
启蒙的辩证:哲学的片简(法兰克福学派哲学经典,批判理论重要文本)
》
售價:HK$
76.2
《
云中记
》
售價:HK$
76.2
《
中国古代妇女生活(中国古代生活丛书)
》
售價:HK$
47.0
《
你的认知正在阻碍你
》
售價:HK$
65.0
《
我们身边的小鸟朋友:手绘观鸟笔记
》
售價:HK$
78.2
《
拯救免疫失衡
》
售價:HK$
55.8
《
收尸人
》
售價:HK$
72.8
《
大模型应用开发:RAG入门与实战
》
售價:HK$
89.4
|
內容簡介: |
本书以工程实践为主线,基于TensorFlow 2.0软件框架详细介绍了深度学习的工作原理和方法,并以实际代码为例,剖析了构建神经网络模型的流程、全连接网络的运行原理、卷积神经网络的结构与运行机制、循环神经网络的结构与运行机制,讨论了使用Dense、Conv1D、Conv2D、SimpleRNN、LTSM、GRU、Bidirectional等深度学习模型解决计算机视觉、序列问题的方法,并在此基础上基于具体示例介绍了深度学习的高阶实践。
|
關於作者: |
香港理工大学软件科技理学硕士,中国人工智能学会会员,香港理工大学北京校友会理事。在计算机行业工作近30年,长期从事产品研发与项目管理工作,曾就职于北控、盛大等企业,目前是一家知名人工智能企业的合伙人,负责创新性产品的规划与研发,致力于深度学习领域的探索与产品化实践。
|
目錄:
|
第1章 搭建环境1.1 安装Anaconda21.2 安装CUDA及其加速器31.3 安装TensorFlow 2.041.4 开发环境——Spyder61.5 可视化分析工具——TensorBoard7第2章 机器学习与深度学习2.1 机器学习112.2 深度学习13第3章 构建神经网络模型3.1 搭建一个全连接网络173.2 确定要解决的问题193.3 准备数据与数据预处理203.3.1 数据集223.3.2 拟合问题初探233.3.3 数据集划分与数据污染253.3.4 神经网络中的数据表示263.3.5 张量操作303.3.6 数据预处理323.4 构建神经网络343.4.1 构建神经网络的方法343.4.2 理解Sequential Model的构建方法353.4.3 理解layers与layer373.4.4 理解models与model393.4.5 理解Dense393.4.6 激活函数403.5 编译模型423.5.1 优化器433.5.2 损失函数443.5.3 评价指标463.6 训练模型473.6.1 使用fit方法训练模型473.6.2 使用fit_generator方法训练模型513.6.3 使用TensorBoard回调函数训练模型523.7 测试模型593.7.1 性能评估593.7.2 模型预测603.8 保存模型623.8.1 save方式623.8.2 save_weights方式633.8.3 SavedModel方式643.9 使用模型643.9.1 以save_weights方式保存的模型的加载方法643.9.2 以save方式保存的模型的加载方法653.9.3 以SavedModel方式保存的模型的加载方法663.10 模型的重新训练与预测663.11 使用模型在新数据上进行推理69第4章 全连接网络4.1 全连接层724.2 使用全连接网络解决文本分类问题744.2.1 基于IMDB数据集的二分类任务754.2.2 基于Reuters数据集的多分类任务794.3 使用全连接网络解决标量回归问题824.3.1 使用留出验证集方式训练模型864.3.2 使用K折交叉验证方式训练模型874.4 全连接网络图片分类问题的优化884.4.1 降低模型容量:缩减模型的超参数904.4.2 奥卡姆剃刀原则:正则化模型参数914.4.3 初识随机失活:Dropout92第5章 卷积神经网络5.1 使用CNN解决MNIST数据集的分类问题965.2 全连接网络面临的问题985.3 局部相关性与权值共享1005.4 构建卷积神经网络1025.4.1 CNN与Dense性能比较1025.4.2 卷积层1045.4.3 池化层1085.4.4 打平层1115.4.5 卷积神经网络基础架构1135.5 使用Conv1D解决二分类问题1155.5.1 EarlyStopping函数:训练终止1185.5.2 ModelCheckpoint函数:动态保存模型1205.5.3 再谈随机失活122第6章 循环神经网络6.1 循环神经网络基础1266.1.1 序列1266.1.2 序列向量化1266.1.3 权值共享1306.1.4 全局语义1306.1.5 循环神经网络概述1316.1.6 循环层1326.2 SimpleRNN1336.2.1 序列数据的预处理1366.2.2 理解SimpleRNN层1376.3 LSTM网络1416.3.1 短时记忆与遗忘曲线1416.3.2 梯度问题1426.3.3 门控机制1436.3.4 理解LSTM层1446.4 GRU1516.4.1 LSTM网络面临的问题1516.4.2 门控机制的优化方法1526.4.3 理解GRU层1526.5 双向循环神经网络1596.5.1 双向LSTM网络1616.5.2 双向GRU1646.6 解决循环神经网络的拟合问题1676.6.1 通过正则化模型参数解决拟合问题1676.6.2 使用随机失活解决拟合问题168第7章 深度学习高阶实践7.1 函数式API网络模型1737.1.1 如何实现层图共享1777.1.2 如何实现模型共享1807.1.3 如何实现模型组装与嵌套1837.1.4 如何实现多输入多输出模型1857.2 混合网络模型1897.3 基于Xception架构实现图片分类任务1917.3.1 Xception架构1917.3.2 使用image_dataset_from_directory函数构建数据集1947.3.3 数据增强技术1997.3.4 数据增强器的使用2017.3.5 二维深度分离卷积层:SeparableConv2D2027.3.6 数据标准化前置与中置2057.3.7 编译与训练模型2067.3.8 在新数据上进行推理2077.4 残差网络在CIFAR10数据集上的实践2087.4.1 CIFAR10数据集2087.4.2 深度残差网络:ResNet2097.4.3 基于ResNet构建多分类任务模型2117.5 GloVe预训练词嵌入实践2157.5.1 从原始文件构建训练集2167.5.2 解析并加载GloVe2207.5.3 在二分类模型中使用词嵌入矩阵2217.5.4 模型的编译与训练2227.5.5 构建测试集与模型评估2227.6 基于预训练网络VGG16完成图片分类任务2247.6.1 预训练网络2247.6.2 预训练网络之特征提取方法2257.6.3 预训练网络之微调模型方法2307.7 生成式深度学习实践2377.7.1 基于ResNet50的Deep Dream技术实践2387.7.2 基于VGG19网络的风格迁移实践2447.8 使用自定义回调函数监控模型的行为2537.8.1 将约束理论应用于模型调优2547.8.2 构建全局回调函数2557.8.3 构建epoch级的自定义回调函数2587.8.4 构建batch级的自定义回调函数260第8章 模型的工程封装与部署8.1 深度学习模型的封装方法2638.2 使用Flask部署神经网络模型2648.2.1 Flask是什么2658.2.2 将模型部署成接口提供给第三方使用2678.2.3 深度学习模型与Web应用协同工作2708.3 基于TFX的部署实践2738.3.1 TensorFlow Serving服务模型2738.3.2 基于TensorFlow Serving与Docker部署深度学习模型275第9章 回顾与展望9.1 神经网络的架构2819.2 构建神经网络模型的流程与实践2829.3 深度学习的局限性与展望285
|
|