登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書

『簡體書』Python大数据分析从入门到精通

書城自編碼: 3553707
分類:簡體書→大陸圖書→計算機/網絡程序設計
作者: 兰一杰
國際書號(ISBN): 9787301313558
出版社: 北京大学出版社
出版日期: 2020-09-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 104.3

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
大学问·生活中的意义
《 大学问·生活中的意义 》

售價:HK$ 94.8
待客之道:7-Eleven如何把客户体验做到极致
《 待客之道:7-Eleven如何把客户体验做到极致 》

售價:HK$ 82.8
邓小平视察纪实
《 邓小平视察纪实 》

售價:HK$ 117.6
财商养成第一课
《 财商养成第一课 》

售價:HK$ 69.6
腐蚀工程手册(原著第三版)
《 腐蚀工程手册(原著第三版) 》

售價:HK$ 477.6
神话的脉络:中国绘画中的传说建构
《 神话的脉络:中国绘画中的传说建构 》

售價:HK$ 93.6
锦奁曾叠:古代妆具之美
《 锦奁曾叠:古代妆具之美 》

售價:HK$ 153.6
盛世:西汉 康乾
《 盛世:西汉 康乾 》

售價:HK$ 117.6

 

編輯推薦:
1.理论与实践相结合:先对功能模块进行理论讲解,然后使用代码进行演示说明,由浅入深层层推进,易学易懂;
2.技术的整合性强:对大数据平台的各项功能模块进行集成使用,以实现对不同需求使用合理技术进行处理;
3.体系的完备性好:大数据平台中数据的导入、分析、挖掘、可视化等均使用Python处理,系统学习项目开发的全流程;
4.附赠学习资源:免费赠送相关知识点视频教程,提供书中所有案例源代码及相关数据信息,供读者参考练习、快速上手。
內容簡介:
本书结合Python在数据分析领域的特点,介绍如何在数据平台上集成使用Python。本书内容分为3大部分。第1部分(第1~3章)为搭建开发环境和导入测试数据;第2部分(第4~12章)为Python对HDFS、Hive、Pig、HBase、Spark的操作,主要是对常用API的说明;第3部分(第13~16章)是在前面章节的基础上,介绍如何进行数据的分析、挖掘、可视化等内容。
本书不仅阐述了Python在大数据平台上的应用技巧,而且关于大数据平台管理和操作的介绍说明贯穿全书,因此对于希望学习大数据知识的读者,本书同样非常适合。
關於作者:
兰一杰,资深软件工程师、项目经理,对Python大数据、人工智能、深度学习等有深入研究并能灵活整合运用。多年从事通过Python实施数据化运维、主数据项目、大数据分析项目的开发工作,涉及国内各大房地产企业、金融机构、政府机关等领域。
目錄
第一章 为什么选择用Python11.1 易于使用3
1.2 兼容Hadoop3
1.3 可扩展和灵活性3
1.4 良好的社区支持和开发环境3
1.5 在数据分析领域的优势4
1.6 总结4
第二章 大数据开发环境的搭建52.1 安装大数据集成环境HDP6
2.2 安装Spark环境(Windows)9
2.3 自行安装大数据开发环境10
2.4 总结21
第三章 构建分析数据223.1 分析数据的说明23
3.2 导入数据到HDP SandBox中25
3.3 导入自安装的环境中使用28
3.4 导入Windows的Spark中29
3.5 导入 Northwind 数据库30
3.6 总结32
第四章 Python对Hadoop的操作334.1 Snakebite的说明34
4.2 HDFS命令说明36
4.3 Snakebite Client类的使用38
4.4 Snakebite CLI的使用40
4.5 总结42
第五章 Python对Hive的操作435.1 Hive说明44
5.2 使用PyHive47
5.3 使用Python编写Hive UDF49
5.4 Impyla的使用51
5.5 Hive SQL调优方法52
5.6 总结53
第六章 Python对HBase的操作546.1 HBase说明55
6.2 HBase Shell命令57
6.3 HappyBase说明62
6.4 HappyBase的使用66
6.5 总结70
第七章 Python集成到Pig717.1 Pig说明72
7.2 Pig Latin的使用74
7.3 Python Pig的整合78
7.4 总结81
第八章 PySpark Shell应用838.1 操作步骤84
8.2 应用对象84
8.3 Spark核心模块86
8.4 Spark Shell的使用87
8.5 PySpark Shell的使用92
8.6 总结95
第九章 PySpark对RDD操作969.1 Spark RDD说明97
9.2 RDD API说明101
9.3 在API函数中使用Lambda表达式108
9.4 从HDFS中读取数据并以SequenceFile格式存储110
9.5 读取CSV文件处理并存储112
9.6 读取Json文件处理114
9.7 通过RDD计算圆周率115
9.8 查看RDD计算的状态116
9.9 总结118
第十章 PySpark对DataFrame的操作11910.1 Spark DataFrame说明120
10.2 DataFrame API总述122
10.3 DataFrame数据结构API126
10.4 DataFrame数据处理API140
10.5 Postgresql和DataFrame145
10.6 CSV和DataFrame147
10.7 Json和DataFrame149
10.8 Numpy、Pandas和DataFrame151
10.9 RDD和DataFrame152
10.10 HDFS和DataFrame153
10.11 Hive和DataFrame154
10.12 HBase和DataFrame155
10.13 总结157
第十一章 PySpark对Streaming的操作15811.1 Spark Streaming说明159
11.2 Spark Streaming API160
11.3 网络数据流165
11.4 文件数据流167
11.5 Kafka数据流171
11.6 Flume数据流173
11.7 QueueStream数据流174
11.8 使用StreamingListener监听数据流175
11.9 总结177
第十二章 PySpark SQL17812.1 关于Spark SQL179
12.2 Spark SQL相关API180
12.3 Spark SQL使用步骤189
12.4 Postgresql和Spark SQL190
12.5 CSV和Spark SQL192
12.6 Json和Spark SQL193
12.7 HDFS和Spark SQL194
12.8 Hive和Spark SQL195
12.9 UDF和Spark SQL197
12.10 Streaming和Spark SQL199
12.11 Spark SQL优化200
12.12 总结201
第十三章 分析方法及构架的说明20213.1 统计的概念和数据可视化203
13.2 数据分析方法的探讨206
13.3 开发构架说明209
13.4 总结整合说明210
第十四章 集成分析21414.1 SQL窗口函数的说明215
14.2 Hive SQL分析221
14.3 Spark SQL分析225
14.4 HBase SQL分析229
14.5 对接Numpy、Pandas的分析232
14.6 对接Blaze分析241
14.7 总结244
第十五章 数据挖掘24515.1 关于机器学习246
15.2 PySpark机器学习包248
15.3 特征的抽取、转换和选择250
15.4 PySpark机器学习包的使用256
15.5 集成TensorFlow277
15.6 集成scikit-learn279
15.7 总结282
第十六章 数据可视化28316.1 标签云284
16.2 Zeppelin的使用289
16.3 Mathplotlib的使用293
16.4 Superset的使用301
16.5 总结308

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.