登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書

『簡體書』基于TensorFlow的深度学习:神经网络、计算机视觉和NLP的理论与实践 [美]马格努斯·埃克曼 周翊民 译

書城自編碼: 3956123
分類:簡體書→大陸圖書→計算機/網絡人工智能
作者: [美]马格努斯·埃克曼
國際書號(ISBN): 9787111741725
出版社: 机械工业出版社
出版日期: 2024-01-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 178.8

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
像大人一样生存,像孩子一样生活(小时候觉得开心就好,现在也是)
《 像大人一样生存,像孩子一样生活(小时候觉得开心就好,现在也是) 》

售價:HK$ 56.4
万有引力书系 海洋女王 里斯本的历史
《 万有引力书系 海洋女王 里斯本的历史 》

售價:HK$ 89.7
周易大全
《 周易大全 》

售價:HK$ 147.2
元和十四年 : 大唐中兴与沉沦的十字路口
《 元和十四年 : 大唐中兴与沉沦的十字路口 》

售價:HK$ 79.4
思考的技术:珍藏版
《 思考的技术:珍藏版 》

售價:HK$ 90.9
琥珀之夏(《镜之孤城》作者、推理小说家辻村深月新长篇;能治愈童年创伤的,也许唯有长大成人的自己)
《 琥珀之夏(《镜之孤城》作者、推理小说家辻村深月新长篇;能治愈童年创伤的,也许唯有长大成人的自己) 》

售價:HK$ 59.8
流人系列02:亡狮
《 流人系列02:亡狮 》

售價:HK$ 90.9
希腊小史
《 希腊小史 》

售價:HK$ 112.7

 

建議一齊購買:

+

HK$ 82.3
《图解机器学习和深度学习入门》
+

HK$ 199.4
《人工智能注意力机制:体系、模型与算法剖析 傅罡》
+

HK$ 104.3
《KUKA(库卡)工业机器人编程与操作》
+

HK$ 78.9
《自动驾驶汽车环境感知》
+

HK$ 111.3
《机器人技术与智能系统》
+

HK$ 91.1
《智能硬件项目教程——基于ESP32》
編輯推薦:
本书使用TensorFlow和Keras提供了简洁、注释良好的代码示例,还提供了相应的PyTorch示例,涵盖了工业和学术界关于深度学习的两个主要Python库。最后,介绍了神经结构搜索(NAS),并探索了重要的伦理问题,为进一步学习深度学习提供了资源。
內容簡介:
本书系统地讲解了深度学习技术,阐明核心概念和实践编程技术,是开发者、数据科学家、分析师,以及之前没有机器学习或统计经验的人员人员的理想选择。 本书介绍了深度神经网络的人工神经元和全连接、卷积和循环层等基本构建模块,展示了如何使用它们来构建先进的架构。书中还讲解了如何使用这些概念构建计算机视觉和自然语言处理(NLP)网络,包括Mask R-CNN、GPT和BERT。此外,书中还描述了自然语言翻译器和能根据图像内容生成自然语言系统的原理。
關於作者:
周翊民中国科学院深圳先进技术研究院研究员,博士生导师。2008 年在英国牛津大学工程科学系获得博士学位,曾在英国拉夫堡大学电子电气工程系从事博士后研究工作。主要从事非线性控制、人工智能、模糊神经网络、机器人、无人机控制系统、智能电网等相关技术的研究。以项目负责人身份申请并获批国家自然基金、科技部重点研发计划、广东省科技专项、深圳市基础重点研究项目等多个项目。发表SCI/EI文章100余篇,申请专利50余项,出版英文专著2 部,译著1部。
目錄
CONTENTS目  录推荐序一推荐序二前言第1章 Rosenblatt 感知器 11.1 双输入感知器示例 31.2 感知器学习算法 41.3 感知器的局限性 91.4 组合多个感知器 111.5 感知器的几何解释 131.6 理解偏差项 14第2章 基于梯度的学习 162.1 感知器学习算法的直观解释 162.2 用梯度下降法解决学习问题 182.3 网络中的常量与变量 202.4 感知器学习算法的解析 202.5 感知器学习算法的几何描述 222.6 重新审视不同类型的感知器 222.7 使用感知器进行模式识别 24第3章 Sigmoid神经元与反向传播 263.1 改进的神经元实现多层网络的梯度下降 263.2 激活函数的选择 303.3 复合函数和链式法则 303.4 利用反向传播计算梯度 313.4.1 前向传播阶段 373.4.2 后向传播阶段 373.4.3 权重调整 383.5 每层具有多个神经元的反向传播 393.6 编程示例:学习XOR函数 403.7 网络结构 43第4章 用于多分类的全连接网络 454.1 训练网络时所用数据集简介 454.1.1 探索数据集 464.1.2 数据集中的人为偏见 484.1.3 训练集、测试集和泛化 494.1.4 超参数调优和测试集信息泄漏 504.2 训练与推理 514.3 扩展网络和学习算法以进行多分类 514.4 用于数字分类的网络 524.5 多分类的损失函数 524.6 编程示例:手写数字分类 534.7 小批量梯度下降 60第5章 走向DL:框架和网络调整 615.1 编程示例:转移到DL框架 615.2 饱和神经元和梯度消失问题 655.3 避免神经元饱和的初始化和归一化技术 665.3.1 权重初始化 675.3.2 输入标准化 685.3.3 批归一化 685.4 用于缓解饱和输出神经元影响的交叉熵损失函数 695.5 使用不同激活函数以避免隐藏层中梯度消失问题 735.6 提高学习的梯度下降法中的变量 765.7 实验:调整网络和学习参数 785.8 超参数调优和交叉验证 805.8.1 使用验证集来避免过拟合 815.8.2 交叉验证以改善训练数据的使用 81第6章 全连接网络在回归中的应用 836.1 输出单元 836.1.1 二元分类的逻辑单元 846.1.2 用于多分类的Softmax单元 846.1.3 线性回归单元 866.2 波士顿住房数据集 876.3 编程示例:用DNN预测房价 886.4 用正则化改进泛化 916.5 实验:更深层次和正则化的房价预测模型 93第7章 卷积神经网络在图像分类中的应用 947.1 CIFAR-10数据集 957.2 卷积层的特征和构建模块 977.3 将特征映射组合成一个卷积层 997.4 将卷积层和全连接层结合成一个网络 1007.5 稀疏连接和权重共享的影响 1027.6 编程示例:用卷积网络进行图像分类 105第8章 深度卷积神经网络和预训练模型 1138.1 VGGNet 1138.2 GoogLeNet 1168.3 ResNet 1198.4 编程示例:使用预先训练的ResNet实现 1248.5 迁移学习 1268.6 CNN和池化的反向传播 1288.7 正则化技术的数据增强 1288.8 CNN的局限性 1298.9 用深度可分离卷积进行参数约简 1308.10 用高效网络实现正确的网络设计平衡 131第9章 用循环神经网络预测时间序列 1329.1 前馈网络的局限性 1349.2 循环神经网络 1359.3 循环层的数学表示 1359.4 将图层组合成一个RNN 1369.5 RNN的另一视图并按时间展开 1379.6 基于时间的反向传播 1389.7 编程示例:预测图书销量 1409.7.1 标准化数据并创建训练示例 1449.7.2 创建一个简单的RNN 1459.7.3 与无循环网络的比较 1489.7.4 将示例扩展为多输入变量 1499.8 RNN的数据集注意事项 149第10章 长短期记忆 15110.1 保持梯度健康 15110.2 LSTM介绍 15410.3 LSTM激活函数 15710.4 创建LSTM单元构成的网络 15710.5 LSTM的其他理解 15810.6 相关话题:高速神经网络和跳连接 159第11章 使用LSTM和集束搜索自动补全文本 16111.1 文本编码 16111.2 长期预测和自回归模型 16211.3 集束搜索 16311.4 编程示例:使用LSTM实现文本自动补全 16411.5 双向RNN 16911.6 输入和输出序列的不同组合 170第12章 神经语言模型和词嵌入 17212.1 语言模型介绍及其用例简介 17212.2 不同语言模型的例子 17412.2.1 n-gram模型 17412.2.2 skip-gram模型 17612.2.3 神经语言模型 17612.3 词嵌入的好处及对其工作方式的探究 17812.4 基于神经语言模型创建词嵌入 17912.5 编程示例:神经语言模型和产生的嵌入 18212.6 King–Man + Woman! = Queen 18812.7 King–Man+Woman != Queen 19012.8 语言模型、词嵌入和人类偏见 19012.9 相关话题:文本情感分析 19112.9.1 词袋法和N元词袋法 19212.9.2 相似性度量 19412.9.3 组合BoW和深度学习 195第13章 Word2vec和GloVe的词嵌入 19713.1 使用Word2vec在没有语言模型的情况下创建词嵌入 19713.1.1 与语言模型相比降低计算复杂性 19813.1.2 连续词袋模型 19913.1.3 连续skip-gram模型 19913.1.4 进一步降低计算复杂度的优化连续skip-gram模型 20013.2 关于Word2vec的其他思考 20113.3 矩阵形式的Word2vec 20213.4 Word2vec总结 20313.5 编程示例:探索GloVe嵌入的属性 204第14章 序列到序列网络和自然语言翻译 20914.1 用于序列到序列学习的编-解码器模型 21014.2 Keras函数式API简介 21214.3 编程示例:神经机器翻译 21414.4 实验结果 22614.5 中间表示的性质 227第15章 注意力机制和Transformer架构 22915.1 注意力机制的基本原理 22915.2 序列到序列网络中的注意力机制 23015.2.1 计算对齐向量 23415.2.2 对齐向量上的数学符号与变量 23515.2.3 关注更深层的网络 23615.2.4 其他注意事项 23715.3 循环网络的替代方法 23815.4 自注意力 23915.5 多头注意力 24015.6 Transformer架构 241第16章 用于图像字幕的一对多网络 24516.1 用注意力扩展图像字幕网络 24716.2 编程示例:基于注意力的图像字幕 248第17章 其他主题 26417.1 自编码器 26417.1.1 自编码器的使用案例 26517.1.2 自编码器的其他方面 26617.1.3 编程示例:用于异常值检测的自编码器 26717.2 多模态学习 27217.2.1 多模态学习的分类 27217.2.2 编程示例:使用多模态输入数据进行分类 27517.3 多任务学习 27917.3.1 为什么要执行多任务学习 27917.3.2 如何实现多任务学习 27917.3.3 其他方向和变体的基本实现 28017.3.4 编程示例:多分类和用单一网络回答问题 28117.4 网络调优过程 28417.5 神经网络架构搜索 28717.5.1 神经网络架构搜索的关键组成部分 28717.5.2 编程示例:搜索一个用于CIFAR-10分类的架构 29017.5.3 神经架构搜索的内在含义 300第18章 总结和未来展望 30118.1 你现在应该知道的事情 30118.2 伦理AI和数据伦理 30218.2.1 需要注意的问题 30318.2.2 问题清单 30418.3 你还不知道的事情 30518.3.1 强化学习 30518.3.2 变分自编码器和生成对抗网络 30518.3.3 神经风格迁移 30618.3.4 推荐系统 30718.3.5 语音模型 30718.4 未来展望 307附录A 线性回归和线性分类 309A.1 机器学习算法:线性回归 309A.1.1 一元线性回归 309A.1.2 多元线性回归 310A.1.3 用线性函数建模曲率 311A.2 计算线性回归系数 312A.3 逻辑回归分类 313A.4 用线性分类器对XOR进行分类 314A.5 支持向量机分类 317A.6 二元分类器的评价指标 318附录B 目标检测和分割 321B.1 目标检测 321B.1.1 R-CNN 322B.1.2 Fast R-CNN 324B.1.3 Faster R-CNN 325B.2 语义分割 327B.2.1 上采样技术 328B.2.2 反卷积网络 332B.2.3 U-Net 333B.3 Mask R-CNN 实例分割 334附录C Word2vec和GloVe之外的词嵌入 337C.1 Wordpieces 337C.2 FastText 339C.3 基于字符的方法 339C.4 ELMo 343C.5 相关工作 345附录D GPT、BERT和 RoBERTa 346D.1 GPT 346D.2 BERT 349D.2.1 掩码语言模型任务 349D.2.2 下一句预测任务 350D.2.3 BERT的输入输出表示 351D.2.4 BERT在NLP任务中的应用 352D.3 RoBERTa 352D.4 GPT和BERT的前期工作 354D.5 基于Transformer的其他模型 354附录E Newton-Raphson法与梯度下降法 356E.1 Newton-Raphson求根法 356E.2 Newton-Raphson法与梯度下降法的关系 358附录F 数字分类网络的矩阵实现  359F.1 单一矩阵 359F.2 小批量实现 361附录G 卷积层与数学卷积的关系 365附录H 门控循环单元 369H.1 GRU的替代实现 371H.2 基于GRU的网络 371附录I 搭建开发环境 374I.1 Python 374I.2 编程环境 375I.2.1 Jupyter Notebook 375I.2.2 使用集成开发环境 375I.3 编程示例 376I.4 数据集 376I.4.1 MNIST数据集 377I.4.2 来自美国人口普查局的书店销售数据 377I.4.3 古腾堡工程的FRANKENSTEIN文本 378I.4.4 GloVe词嵌入 378I.4.5 ANKI双语句子对 378I.4.6 COCO数据集 378I.5 安装深度学习框架 378I.5.1 系统安装 378I.5.2 虚拟环境安装 379I.5.3 GPU加速 379I.5.4 Docker容器 379I.5.5 使用云服务 380I.6 TensorFlow具体注意事项 380I.7 PyTorch与TensorFlow的关键区别 380I.7.1 需要编写我们自己的拟合/训练函数 381I.7.2 NumPy和PyTorch之间的数据显式移动 381I.7.3 CPU和GPU之间的数据显式传输 382I.7.4 明确区分训练和推理 382I.7.5 顺序式API与函数式API 382I.7.6 缺乏编译功能 383I.7.7 循环层和状态处理 383I.7
內容試閱
Preface前  言深度学习(DL)是一个快速发展的领域,它在图像分类、生成图像的自然语言描述、自然语言翻译、语音到文本和文本到语音的转换等方面取得了惊人的成果。本书详细阐述了深度学习这个主题,并提供了实践经验,为进一步学习打下坚实基础。在本书中,使用绿色文本框来突出特别重要和关键的概念。首先指出的是,深度学习这个概念很重要。我们首先学习感知器和其他人工神经元(深度神经网络的基本构件),以及全连接的前馈网络和卷积网络,并应用这些网络来解决实际问题,例如基于大量数据预测房价或识别图像属于哪个类别,图P-1是CIFAR-10图像数据集的分类和示例,我们将在第7章中对该数据集进行详细研究。图P-1 CIFAR-10图像数据集的分类和示例(Krizhevsky,2009) (见彩插)(图片来源:https://www.cs.toronto.edu/ kriz/cifar.html)我们接着学习如何使用编码来表示自然语言中的单词,这种编码技术可以捕捉被编码的单词的语义词。然后,使用这些编码与循环神经网络一起创建自然语言翻译器,如图P-2所示。这个翻译器可以自动将简单句子从英语翻译为法语或其他类似语言。最后,我们将学习如何构建一个结合图像和语言处理的图像字幕网络。该网络以图像为输入,可自动生成图像的自然语言描述。在本书的学习进程中,还将讨论许多其他细节。此外,本书将一些其他重要主题作为附录,供读者深入学习。图P-2 输入为英语而输出为对应法语的神经网络翻译器认识深度学习DL可解释为一类机器学习算法,使用多层计算单元,其中每一层学习自身的输入数据表示,这些表示由后面的层以分层方式组合。这个定义有些抽象,特别是考虑到还没有描述层和计算单元的概念,但在前几章将提供更多具体实例来阐明这个定义。深度神经网络(DNN)是DL的基本组成部分,它是受生物神经元启发而产生的。关于DL技术究竟能在多大程度上模拟大脑活动一直存在争论,其中有人认为使用神经网络这个术语会让人觉得它比实际情况更先进。因此,他们建议使用“单元”而不是“人工神经元”,使用“网络”而不是“神经网络”。毫无疑问,DL和更广泛的 AI领域已经被主流媒体大肆炒作。在写作本书时,很容易产生这样的感觉,即我们将创造出像人类一样思考的机器,尽管最近表达怀疑的文章更为常见。读了本书后,你会对DL可以解决哪些问题有更准确的了解。在本书中,我们会自由选择使用“神经网络”和“神经元”这些词,不过读者也应当注意到,本书所介绍的算法更多地与机器能力,而不是人类大脑的实际工作方式有关。图P-3所示为人工智能、机器学习、深度学习和深度神经网络之间的关系。不同椭圆的面积大小并不代表该类相对于另一类的类别范畴。在本书中,斜体部分的内容是陈述一些题外话或主观观点。如果你认为它们对你的阅读没有价值,可以完全忽略。DNN是DL的子集。DL是ML的子集,而ML是AI的子集。本书不重点讨论DL的确切定义及其边界,也不深入讨论ML或AI其他领域的细节,而是重点阐述DNN及其应用。图P-3 人工智能、机器学习、深度学习和深度神经网络之间的关系深度神经网络简史上述内容只是粗略地提到网络但没有描述什么是网络。本书前几章详细讨论了网络架构,这里只把网络视为一个有输入和输出的不透明系统就足够了。使用模型可将信息(图像或文本序列)作为网络输入,然后网络会输出相应信息,比如对图像的解释(见图P-4),或不同语言的自然语言翻译(见图P-2)。图P-4 深度神经网络作为一种不透明系统,将图像作为输入,然后输出图像中的对象类型如前所述,神经网络的核心部分是人工神经元。第一个人工神经元模型在1943年问世(McCulloch and Pitts,1943),掀启了第一次神经网络研究的浪潮。随后,在1957年Rosenblatt感知器出现(Rosenblatt,1958)。感知器的重要贡献是自动学习算法,即系统自动学习所期望的行为。本书第1章详细介绍了感知器。感知器有其局限性,尽管通过将多个感知器组合成多层网络可以打破这些局限性,但最初的学习算法并没有扩展到多层网络。根据普遍说法,这是导致神经网络研究开始衰落的原因。人工智能进入了第一个寒冬,据说是因Minsky和Papert在他们于1969年所著一书中提出缺失多层网络学习算法是一个严重问题引起的。但这个话题和说法颇具争议性。Olazaran研究了Minsky和Papert的陈述是否被歪曲(Olazaran,1996)。此外,Schmidhuber(2015)指出,早在Minsky和Papert的书出版4年之前,文献(Ivakhnenko和Lapa,1965)中就提出了一种用于多层网络的学习算法。第二次神经网络研究浪潮始于20世纪80年代,很大程度上受到了(Rumelhart et al.,1986)文献的影响(该文献描述了用于多层网络自动训练的反向传播算法)。Rumelhart和他的同事证明,这种算法可以用来突破感知器的局限性,解决Minsky和Papert提出的问题。Rumelhart和他的同事在神经网络的背景下推广了反向传播算法,但这并不是该算法在文献中首次出现。早在1970年该算法就被用于类似问题领域(Linnainmaa,1970)。1981年,Werbos(1981)又在神经网络背景下对该算法进行了描述。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.