登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書

『簡體書』Python和PySpark数据分析

書城自編碼: 3923781
分類:簡體書→大陸圖書→計算機/網絡程序設計
作者: [加]乔纳森·里乌 [Jonathan Rioux]著 殷海
國際書號(ISBN): 9787302645368
出版社: 清华大学出版社
出版日期: 2023-10-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 142.8

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
毛线球. 46, 度假风清爽毛衫编织
《 毛线球. 46, 度假风清爽毛衫编织 》

售價:HK$ 83.5
写作的规矩
《 写作的规矩 》

售價:HK$ 54.5
永恒的流浪者(原作书名《俄罗斯的命运》。为什么要有战争?用一本书,向你解释这个乱糟糟的世界)
《 永恒的流浪者(原作书名《俄罗斯的命运》。为什么要有战争?用一本书,向你解释这个乱糟糟的世界) 》

售價:HK$ 84.5
魏玛共和国的兴亡:1918—1933(方尖碑)
《 魏玛共和国的兴亡:1918—1933(方尖碑) 》

售價:HK$ 167.0
壁上观千年(跳出朝代讲历史,只有时间,只有故事!从王莽到刘娥,比《权力的游戏》更恢宏、更复杂的华夏往事)
《 壁上观千年(跳出朝代讲历史,只有时间,只有故事!从王莽到刘娥,比《权力的游戏》更恢宏、更复杂的华夏往事) 》

售價:HK$ 82.3
漫画王阳明传习录
《 漫画王阳明传习录 》

售價:HK$ 60.3
男人都是孩子
《 男人都是孩子 》

售價:HK$ 60.5
中国建筑史(特装工艺精心打磨;梁思成林徽因罕见水彩画超清曝光!梁思成1955年原始手稿油印本,逐字勘误,内容精修数百处)
《 中国建筑史(特装工艺精心打磨;梁思成林徽因罕见水彩画超清曝光!梁思成1955年原始手稿油印本,逐字勘误,内容精修数百处) 》

售價:HK$ 107.7

 

建議一齊購買:

+

HK$ 180.3
《 利用Python进行数据分析(原书第3版) 》
+

HK$ 129.6
《 Python基础教程(第3版·修订版) 》
+

HK$ 153.2
《 Python Cookbook(第3版)中文版 》
+

HK$ 107.7
《 从零开始大模型开发与微调:基于PyTorch与ChatGLM 》
+

HK$ 168.2
《 现代C++软件架构:方法与实践 》
+

HK$ 84.5
《 Python与R语言数据科学实践 》
編輯推薦:
《Python和PySpark数据分析》有 14 章和 3 个附录,详细介绍了如何将PySpark 应用到日常的数据科学工作中。通过通俗易懂的示例,介绍了PySpark中的实用知识点和语法,使你能够轻松掌握PySpark的核心概念,并将其应用于实际工作中。在本书中,你将学习如何使用 PySpark 进行数据预处理、模型训练和评估等常见的数据科学任务。每个章节都以具体的示例和案例展示了 PySpark 在不同情景下的应用方法和技巧。通过实际操作,你将了解如何使用 PySpark 处理大规模数据集、构建复杂的数据处理流程以及应对常见的数据质量和性能挑战。
內容簡介:
Spark数据处理引擎是一个惊人的分析工厂:输入原始数据,输出洞察。PySpark用基于Python的API封装了Spark的核心引擎。它有助于简化Spark陡峭的学习曲线,并使这个强大的工具可供任何在Python数据生态系统中工作的人使用。 《Python和PySpark数据分析》帮助你使用PySpark解决数据科学的日常挑战。你将学习如何跨多台机器扩展处理能力,同时从任何来源(无论是Hadoop集群、云数据存储还是本地数据文件)获取数据。一旦掌握了基础知识,就可以通过构建机器学习管道,并配合Python、pandas和PySpark代码,探索PySpark的全面多功能特性。 主要内容 ● 组织PySpark代码 ● 管理任何规模的数据 ● 充满信心地扩展你的数据项目 ● 解决常见的数据管道问题 ● 创建可靠的长时间运行的任务
關於作者:
作为一家数据驱动软件公司的ML总监,Jonathan Rioux每天都在使用PySpark。他向数据科学家、数据工程师和精通数据的业务分析师讲授PySpark的用法。
目錄
第1章 介绍 1
1.1 什么是PySpark 1
1.1.1 从头开始:什么是Spark 2
1.1.2 PySpark = Spark Python 3
1.1.3 为什么选择PySpark 3
1.2 PySpark的工作原理 5
1.2.1 使用集群管理器进行物理规划 6
1.2.2 懒惰的主管成就工厂的高效 8
1.3 你将从本书学到什么 11
1.4 我们将如何开始 12
1.5 本章小结 13
第Ⅰ部分 介绍:PySpark的第一步
第2章 使用PySpark编写的第一个数据处理程序 17
2.1 设置pyspark shell 18
2.1.1 SparkSession入口点 20
2.1.2 配置PySpark的日志级别 21
2.2 映射程序 22
2.3 采集和探索:为数据转换奠定基础 23
2.3.1 用spark.read将数据读入数据帧 24
2.3.2 从结构到内容:使用show()探索数据帧 27
2.4 简单的列转换:将句子拆解为单词列表 29
2.4.1 使用select()选择特定的列 30
2.4.2 转换列:将字符串拆分为单词列表 31

2.4.3 重命名列:alias和withColumnRenamed 33
2.4.4 重塑数据:将list分解成行 34
2.4.5 处理单词:更改大小写并删除标点符号 36
2.5 筛选记录 38
2.6 本章小结 40
2.7 扩展练习 40
第3章 提交并扩展你的第一个PySpark程序 43
3.1 对记录进行分组:计算词频 43
3.2 使用orderBy对结果排序 46
3.3 保存数据帧中的数据 48
3.4 整合所有内容:计数 49
3.4.1 使用PySpark的导入约定简化依赖 50
3.4.2 通过方法链简化程序 51
3.5 使用spark-submit以批处理模式启动程序 53
3.6 本章未涉及的内容 54
3.7 扩展词频程序 55
3.8 本章小结 56
3.9 扩展练习 57
第4章 使用pyspark.sql分析表格数据 59
4.1 什么是表格数据 60
4.2 使用PySpark分析和处理表格数据 62
4.3 在PySpark中读取和评估带分隔符的数据 63

4.3.1 第一次使用专门处理CSV文件的SparkReader 63
4.3.2 自定义SparkReader对象来读取CSV数据文件 65
4.3.3 探索数据世界的轮廓 67
4.4 数据操作基础:选择、删除、
重命名、排序及诊断 68
4.4.1 了解我们想要什么:选择列 69
4.4.2 只保留我们想要的:删除列 71
4.4.3 创建新列:使用withColumn()创建新列 73
4.4.4 整理数据帧:对列进行重命名和重排序 76
4.4.5 用describe()和summary()分析数据帧 78
4.5 本章小结 80
4.6 扩展练习 80
第5章 数据帧操作:连接和分组 83
5.1 连接数据 83
5.1.1 探索连接的世界 84
5.1.2 了解连接的两边 85
5.1.3 成功连接的规则:谓词 85
5.1.4 连接方法 87
5.1.5 连接的命名约定 91
5.2 通过groupby和GroupedData汇总数据 94
5.2.1 一个简单的分组蓝图 95
5.2.2 对自定义列使用agg() 98
5.3 处理null值:删除或填充 100
5.3.1 立即删除:使用dropna()
删除具有null值的记录 100
5.3.2 使用fillna()替换null值 101
5.4 问题回顾:端到端程序 102
5.5 本章小结 105
5.6 扩展练习 105
第Ⅱ部分 进级:将你的想法转化为代码
第6章 多维数据帧:使用PySpark处理JSON数据 109
6.1 读取JSON数据:为schemapocalypse做好准备 109
6.1.1 从小处开始:将JSON数据作为受限的Python字典 111
6.1.2 更进一步:在PySpark中读取JSON数据 113
6.2 用复杂的数据类型突破二维数据 114
6.2.1 当有多个值时:使用数组 116
6.2.2 映射类型:同一列中的键和值 119
6.3 结构体:列中的嵌套列 121
6.4 构建和使用数据帧模式 125
6.4.1 使用Spark类型作为schema的基本代码块 125
6.4.2 使用结构体模式原地读取JSON文档 127
6.4.3 循环往复:以JSON格式指定模式 131
6.5 进行整合:使用复杂数据类型减少重复数据 133
6.5.1 获取“刚刚好”的数据帧:explode和collect 135
6.5.2 创建自己的层次结构:作为函数的结构体 138
6.6 本章小结 139
6.7 扩展练习 139
第7章 双语PySpark:混合Python和SQL 141
7.1 根据我们的了解:pyspark.sql 与普通 SQL 142
7.2 为SQL准备数据帧 143
7.2.1 将数据帧转换为Spark表 144
7.2.2 使用Spark目录 145
7.3 SQL和PySpark 146
7.4 在数据帧方法中使用类似SQL的语法 148
7.4.1 获取所需的行和列:select和where 148
7.4.2 将相似的记录分组在一起:group by和order by 149
7.4.3 在分组后使用having进行筛选 150
7.4.4 使用CREATE关键字创建新表/视图 151
7.4.5 使用UNION和JOIN向表中添加数据 153
7.4.6 通过子查询和公共表表达式更好地组织SQL代码 154
7.4.7 PySpark与SQL语法的快速总结 157
7.5 简化代码:混合SQL和Python 157
7.5.1 使用Python提高弹性并简化数据读取阶段 158
7.5.2 在PySpark中使用SQL风格的表达式 159
7.6 结论 161
7.7 本章小结 161
7.8 扩展练习 162
第8章 使用Python扩展PySpark: RDD和UDF 165
8.1 PySpark中的RDD 166
8.2 使用Python通过UDF扩展PySpark 173
8.2.1 这一切都从简单的Python开始:使用类型化的Python函数 174
8.2.2 使用udf()将Python函数转换为UDF 176
8.3 本章小结 179
8.4 扩展练习 179
第9章 大数据就是大量的小数据:使用pandas UDF 181
9.1 通过pandas进行列转换:使用Series UDF 182
9.1.1 将Spark连接到谷歌的BigQuery 183
9.1.2 Series to Series UDF:使用pandas的列函数 188
9.1.3 标量UDF 冷启动=Series UDF的迭代器 190
9.2 分组数据上的UDF:聚合
与应用 193
9.2.1 分组聚合UDF 194
9.2.2 分组映射UDF 196
9.3 何时用,怎么用 198
9.4 本章小结 200
9.5 扩展练习 200
第10章 不同视角下的数据:窗口函数 203
10.1 学习并使用简单的窗口函数 204
10.1.1 确定每年最冷的一天 204
10.1.2 创建并使用一个简单的窗口函数来获取最冷的日子 206
10.1.3 比较两种方法 210
10.2 除了汇总:使用排名和分析功能 211
10.2.1 排名函数:看看谁是第一 212
10.2.2 分析函数:回顾过去和展望未来 216
10.3 弹性窗口!使用行和范围的边界 218
10.3.1 计数,窗口样式:静态、增长和无边界 219
10.3.2 范围和行 221
10.4 综合实践:在窗口中使用UDF 224
10.5 查看窗口:成功的窗口函数的主要步骤 226
10.6 本章小结 226
10.7 扩展练习 226
第11章 加速PySpark:理解Spark的查询计划 229
11.1 芝麻开门:通过Spark UI了解Spark环境 229
11.1.1 查看配置:Environment选项卡 231
11.1.2 Executors选项卡和resource management选项卡 233
11.1.3 了解任务的运行:通过Spark UI判断任务是否完成 237
11.1.4 通过Spark查询计划映射操作:SQL选项卡 240
11.1.5 Spark的核心:解析、分析、优化和物理计划 242
11.2 关于性能:操作和内存 246
11.2.1 宽操作与窄操作 246
11.2.2 缓存数据帧:功能强大,但往往致命(对于性能而言) 251
11.3 本章小结 254
第Ⅲ部分 使用PySpark进行机器学习
第12章 准备工作:为机器学习准备特征 259
12.1 阅读、探索和准备机器学习数据集 260
12.1.1 使用toDF()对列名进行标准化 261
12.1.2 探索数据并获取第一个特征列 262
12.1.3 解决数据错误并构建第一个特征集 264
12.1.4 删除无用记录并估算二分类特征 266
12.1.5 处理极值:清洗带有连续值的列 268
12.1.6 删除不常见的二分类列 271
12.2 特征创建和细化 272
12.2.1 创建自定义特征 272
12.2.2 去除高度相关的特征 273
12.3 基于转换器和估计器的特征准备 276
12.3.1 使用Imputer估计器填充连续特征 277
12.3.2 使用MinMaxScaler估计器对特征进行缩放 279
12.4 本章小结 281
第13章 通过机器学习管道增强机器学习 283
13.1 转换器和估计器: Spark
中机器学习的构建块 284
13.1.1 数据进出:转换器 285
13.1.2 估计器 289
13.2 构建(完整的)机器学习管道 290
13.2.1 使用向量列类型组装最终数据集 292
13.2.2 使用LogisticRegression分类器训练机器学习模型 295
13.3 评估和优化模型 297
13.3.1 评估模型准确率:混淆矩阵和评估器对象 298
13.3.2 真阳性与假阳性:ROC曲线 300
13.3.3 使用交叉验证优化超参数 302
13.4 从模型中获取最大的驱动力:提取系数 305
13.5 本章小结 307
第14章 构建自定义机器学习转换器和估计器 309
14.1 创建自己的转换器 309
14.1.1 设计转换器:从Param和转换的角度思考 310
14.1.2 创建转换器的Param 312
14.1.3 getter和setter:成为PySpark中优秀的一员 314
14.1.4 创建自定义转换器的初始化函数 316
14.1.5 创建转换函数 317
14.1.6 使用转换器 319
14.2 创建自己的估计器 321
14.2.1 设计估计器:从模型到Param 321
14.2.2 实现伴生模型:创建自己的Mixin 324
14.2.3 创建ExtremeValueCapper估计器 326
14.2.4 使用自定义估计器 328
14.3 在机器学习管道中使用转换器和估计器 328
14.3.1 处理多个输入 329
14.3.2 将自定义组件应用于机器学习管道 331
14.4 本章小结 334
14.5 结论:有数据,我就开心 334
附录A 习题答案 337
附录B 安装PySpark 369
附录C 一些有用的Python内容 389
內容試閱
虽然计算机的功能越来越强大,能够处理更大的数据集,但我们对数据的需求增长得更快。因此,我们构建了新的工具,以便在多台计算机上扩展大数据任务。这是有代价的,早期的工具很复杂,不仅需要用户管理数据程序,还需要用户管理计算机集群本身的运行状况和性能。我记得我曾尝试扩展自己的程序,但却得到“只需要对数据集进行采样,然后继续工作”的建议。
PySpark改变了游戏规则。从流行的Python编程语言开始,它提供了一个清晰可读的API来操作非常大的数据集。尽管如此,当你坐下来编写代码时,就像在操作一台复杂且功能强大的机器。PySpark集功能强大、表现力强、用途广泛于一体。通过强大的多维数据模型,无论多大的数据规模,都可以通过清晰的路径构建数据程序,以实现可伸缩性。
作为一名构建信用风险模型的数据科学家,我深深喜欢上PySpark。在即将把模型迁移到新的大数据环境时,我们需要设计一个计划:在保持业务连续运行的同时智能地转换我们的数据产品。作为一个自封的Python人,我的任务是帮助团队熟悉PySpark并加速过渡。当我有机会在不同的用例上与无数客户合作时,我对PySpark的喜爱程度呈指数级增长。这些项目的共同点是什么?大数据和大问题都可以通过强大的数据模型解决。需要注意的是,大多数学习Spark的材料都是针对Scala和Java的,Python开发人员只能将代码转换成他们喜欢的编程语言。我写本书是为了将PySpark作为数据分析师的优秀工具进行推广。幸运的是,Spark项目真的让Python成为主要参与者。现在,你拥有了扩展数据程序的强大工具,这是史无前例的。
而一旦大数据被驯服,就可以发挥数据的无限可能。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.