登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 運費計算  | 聯絡我們  | 幫助中心 |  加入書簽
會員登入 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類瀏覽雜誌 臺灣用戶
品種:超過100萬種各類書籍/音像和精品,正品正價,放心網購,悭钱省心 服務:香港台灣澳門海外 送貨:速遞郵局服務站

新書上架簡體書 繁體書
暢銷書架簡體書 繁體書
好書推介簡體書 繁體書

八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書
五月出版:大陸書 台灣書
四月出版:大陸書 台灣書
三月出版:大陸書 台灣書
二月出版:大陸書 台灣書
一月出版:大陸書 台灣書
12月出版:大陸書 台灣書
11月出版:大陸書 台灣書
十月出版:大陸書 台灣書
九月出版:大陸書 台灣書
八月出版:大陸書 台灣書
七月出版:大陸書 台灣書
六月出版:大陸書 台灣書

『簡體書』Hadoop大数据技术应用实践

書城自編碼: 3503571
分類:簡體書→大陸圖書→教材研究生/本科/专科教材
作者: 李凤莲
國際書號(ISBN): 9787303247219
出版社: 北京师范大学出版社
出版日期: 2020-03-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:HK$ 61.8

我要買

 

** 我創建的書架 **
未登入.


新書推薦:
美器:中国古代物质文化九讲
《 美器:中国古代物质文化九讲 》

售價:HK$ 193.2
谜托邦:故事新编
《 谜托邦:故事新编 》

售價:HK$ 90.9
百年“巨富长”——建筑中的人文与历史
《 百年“巨富长”——建筑中的人文与历史 》

售價:HK$ 82.8
鲁迅“传统”与余华的小说创作
《 鲁迅“传统”与余华的小说创作 》

售價:HK$ 101.2
性心理学(裸脊锁线装,一部剖析性心理的百科全书,一本好读实用的性学指南)
《 性心理学(裸脊锁线装,一部剖析性心理的百科全书,一本好读实用的性学指南) 》

售價:HK$ 64.4
抢人:数字时代如何快速吸纳精准人才(美国商业图书大奖AXIOM年度图书)
《 抢人:数字时代如何快速吸纳精准人才(美国商业图书大奖AXIOM年度图书) 》

售價:HK$ 66.7
给好奇者的黑洞简史
《 给好奇者的黑洞简史 》

售價:HK$ 67.9
债务机器:美国的银行政策与个人陷阱
《 债务机器:美国的银行政策与个人陷阱 》

售價:HK$ 79.4

 

內容簡介:
本书系统介绍了大数据相关知识,全书共九章内容。内容由浅入深,分为基础篇及提高篇两部分,本书理论结合实际,除*章大数据技术概述外,其余每一个章节都包含有相关内容的实践部分,以便读者在了解相关知识后,能及时进行项目的实践,有助于提高读者动手实践的能力。
關於作者:
李凤莲:太原理工大学信息与计算机学院教师,博士,教授,硕士生导师。2012年以来,主持山西省自然科学基金2项、博士后基金(面上资助)项目1项、以及校教改项目2项,以骨干参与山西省科技重大专项、山西省科技攻关计划项目等多项;获批2017年以及2018年教育部产学合作红亚科技协同育人项目2项;为2013年科技部重点领域创新团队核心成员;承担课程:《电路分析基础》、《可编程控制器原理》、《现代信号处理理论与方法》、《大数据技术与应用》
目錄
目 录 IV
第1章 Hadoop初识简介 1
1.1 Hadoop介绍 1
1.1.1 Hadoop简述 1
1.1.2 Hadoop的特点 1
1.1.3 Hadoop的发展 3
1.2 Hadoop体系架构 3
1.2.1 HDFS结构 3
1.2.2 MapReduce结构 4
1.2.3 HBase结构 6
1.2.4 Hive结构 6
1.2.5 Mahout介绍 7
1.3 Hadoop软件安装及配置 8
1.3.1 编译安装与基础介绍 8
1.3.2 Linux环境下安装 12
1.3.3 安装配置环境变量 15
1.3.4 设置免密码登陆 16
1.3.5 配置时间同步 16
本章习题 21
第2章 Hadoop开源项目及伪分布式实现 23
2.1 Zookeeper简介 23
2.1.1 Zookeeper介绍 23
2.1.2 Zookeeper用途及特点 24
2.1.3 Zookeeper安装使用 25
2.2 单节点伪分布式安装 29
2.2.1 Hadoop配置文件说明 29
2.2.2 格式化HDFS文件系统 30
2.2.3 进程管理 30
本章习题 34
第3章 分布式存储HDFS 36
3.1 HDFS分布式文件系统安装 36
3.1.1 HDFS介绍 36
3.1.2 HDFS的安装过程 36
3.1.3 HDFS常用的一些简单的Shell命令 40
3.2 HDFS的相关概念 40
3.2.1 块及数据分片 40
3.2.1 名称节点NameNode和数据节点DataNode 41
3.2.3 第二个名称节点SecondaryNameNode 43
3.3 HDFS的文件存储机制 45
3.3.1 文件存储机制概述 45
3.3.2 HDFS的命名空间 45
3.3.3 客户端 46
3.3.4 通信协议 46
3.4 HDFS的数据存储管理 46
3.4.1 数据冗余存储 46
3.4.2 数据存取策略 46
3.4.3 数据错误与恢复 48
3.5 HDFS的数据读写过程 48
3.5.1 读取数据过程 48
3.5.2 写入数据过程 49
3.6 分布式及RPC通信简介 50
3.6.1 什么是RPC 50
3.6.2 如何实现一个RPC框架 50
3.6.3 Hadoop的RPC框架 50
3.6.4 实验过程 50
3.7 创建HDFS项目 55
3.7.1 Hadoop的Shell命令 55
3.7.2 利用Java API与HDFS进行人机交互 56
本章习题 63
第4章 MapReduce编程模型 65
4.1 MapReduce简介 65
4.1.1 MapReduce产生 65
4.1.2 MapReduce的数据类型 65
4.2 MapReduce架构 66
4.2.1 MapReduce的执行过程 66
4.2.2 Mapper过程 71
4.2.3 Reducer过程 71
4.2.4 Shuffle过程 71
4.3 MapReduce接口类 72
4.3.1 输入的处理类 72
4.3.2 输出的处理类 74
4.4 MapReduce编程模型实现 74
4.4.1 创建项目 74
4.4.2 编写MapReduce程序代码 75
4.4.3 本地运行测试 77
4.4.4 Jar打包 79
4.5 MapReduce典型案例-WordCount 79
4.5.1 WordCount任务目标 79
4.5.2 基于MapReduce的WordCount设计思路 80
4.5.3 任务执行 80
4.5.4 实例演示 81
4.6 分布式资源调度系统YARN的安装 83
4.6.1 YARN的概念 83
4.6.2 YARN的运行机制 84
4.6.3 YARN资源调度方式 84
4.6.4 YARN的安装配置 85
4.7 MapReduce和YARN命令 88
4.7.1 Hadoop的shell脚本 88
4.7.2 集群上运行介绍 90
4.7.3 实验过程 91
本章习题 94
第5章 Hadoop数据仓库Hive 97
5.1 Hive简介 97
5.1.1 Hive设计特点 97
5.1.2 Hive系统架构 98
5.1.3 Hive数据模型 98
5.1.4 Hive安装 99
5.2 Hive DDL 104
5.2.1 DDL基本格式 104
5.2.2 Hive数据类型 105
5.2.3 使用Hive创建数据库 106
5.3 Hive DML 113
5.3.1 数据操纵语言DML操作 113
5.3.2 类型 113
5.3.3 向Hive插入数据 114
5.3.4 Hive的其他语句 116
5.4 基于Hive的UDF V1.0 118
5.4.1 UDF的使用介绍 118
5.4.2 实验操作 120
5.5 Hive数据清洗项目 122
5.5.1 数据清洗介绍 122
5.5.2 用户关系模型介绍 124
5.5.3 挖掘用户的基本问题 124
5.5.4 Hive数据清洗项目使用 125
5.6 Hive统计UV项目 127
5.6.1 PV统计(页面访问量) 127
5.6.2 UV统计(独立访客) 128
5.6.3 Hive统计UV项目的使用 128
本章习题 131
第6章 Hadoop数据库HBase 133
6.1 HBase简介 133
6.2 HBase的shell应用v2.0 134
6.2.1 HBase体系架构 134
6.2.2 HBase逻辑视图 137
6.2.3 HBase的使用操作 138
6.3 使用Hive操作HBase 140
6.3.1 Hive整合HBase原理 140
6.3.2 操作使用 141
6.4 HBase的JavaAPI应用 142
6.4.1 创建连接 142
6.4.2 实验步骤 144
6.5 HBase学生选课案例 147
6.5.1 学生选课案例简介 147
6.5.2 学生选课案例讲解与操作 149
6.6 HBase微博案例 155
6.6.1 微博案例简介 155
6.6.2 微博案例讲解与操作 157
本章练习 164
第7章 Pig语言 166
7.1 Pig简介 166
7.1.1 认识Pig 166
7.1.2 Pig和MapReduce的区别 167
7.1.3 Pig的用途 168
7.1.4 Pig和Hive 168
7.2 Pig的安装与运行 169
7.2.1 Pig包的下载 169
7.2.2 Pig的安装 170
7.3 命令行交互工具Grunt 171
7.3.1 Grunt介绍 171
7.3.2 Grunt中输入Pig Latin脚本 171
7.3.3 Grunt中使用HDFS命令 171
7.3.4 Grunt中控制Pig 172
7.3.5 实验案例 172
7.4 Pig数据模型 175
7.4.1 数据类型 175
7.4.2 模式 177
7.4.3 数据模型的使用 178
7.5 Pig Latin基础知识 179
7.5.1 Pig Latin介绍 179
7.5.2 输入和输出 180
7.5.3 Pig Latin的使用 181
7.6 Pig Latin关系操作 182
7.6.1 Foreach数据转换 182
7.6.2 Filter过滤 182
7.6.3 Group分组 182
7.6.7 Order by排序 182
7.6.5 Distinct 183
7.6.6 Join 183
7.6.7 Limit 183
7.6.8 Sample 183
7.6.9 Parallel 183
7.6.10 运行Pig程序示例 183
7.7 Pig Latin高级应用 191
7.7.1 Group应用 191
7.7.2 Cross应用 192
7.7.3 Distinct应用 192
7.7.4 Filter应用 192
7.7.5 Foreach应用 192
7.7.6 复杂关系应用 192
7.7.7 在Pig中集成遗留代码和MapReduce程序 194
7.7.8 非线性数据流 194
7.7.9 执行过程控制 195
7.7.10 Pig Latin预处理器 195
7.7.11 运行Pig程序示例 195
本章练习 202
第8章 Hadoop项目案例 204
8.1 QQ好友推荐算法 204
8.1.1 实现思路 204
8.1.2 代码实现 204
8.2 PageRank算法 209
8.2.1 PageRank算法简介 209
8.2.2 PageRank原理介绍 210
8.2.3 PageRank简单计算 210
8.3 TF-IDF算法 213
8.3.1 TF-IDF简介 213
8.3.2 TF-IDF实现 214
8.3.3 TF-IDF应用 214
8.3.4 权重 214
8.4 数据关联案例 222
8.4.1 常用思路 223
8.4.2 编码思路 223
8.4.3 实验 223
8.5 ETL案例 224
8.5.1 数据ETL 225
8.5.2 实验 225
8.6 PV、UV统计案例 228
8.6.1 针对某一类网址的PV、UV 228
8.6.2 得到PV、UV的后续处理 229
8.6.3 实验 229
8.7 用户流失和新增分析案例 231
8.8 Hadoop总结 234
8.8.1 打包作业 234
8.8.2 启动作业 235
8.8.3 提交命令封装 236
本章习题 236
第9章 Mahout项目案例 239
9.1 Mahout环境配置 240
9.1.1 单机环境配置 240
9.1.2 基于Hadoop集群的Mahout环境配置 240
9.2 协同过滤推荐算法 243
9.2.1 Taste简介 243
9.2.2 基于用户的协同过滤算法 244
9.2.3 基于项目的协同过滤算法 247
9.2.4 基于ALS的矩阵分解算法 248
9.2.5 基于SVD的推荐算法 249
9.3 聚类算法 252
9.3.1 Canopy聚类 252
9.3.2 K-Means聚类 253
9.3.3 Fuzzy K-Means聚类算法 253
9.3.4 Streaming K-Means聚类 254
9.3.5 Spectral谱聚类算法类 255
9.4 分类算法 255
9.4.1 Logistic回归算法 256
9.4.2 朴素贝叶斯分类器 258
9.4.3 随机森林 258
9.4.4 隐马尔科夫模型 259
本章习题 260
参考文献 263
附录 265
一. 本书中出现的专业术语缩写英汉对照表 265
二. 习题参考答案 267

目 录 IV
第1章 Hadoop初识简介 1
1.1 Hadoop介绍 1
1.1.1 Hadoop简述 1
1.1.2 Hadoop的特点 1
1.1.3 Hadoop的发展 3
1.2 Hadoop体系架构 3
1.2.1 HDFS结构 3
1.2.2 MapReduce结构 4
1.2.3 HBase结构 6
1.2.4 Hive结构 6
1.2.5 Mahout介绍 7
1.3 Hadoop软件安装及配置 8
1.3.1 编译安装与基础介绍 8
1.3.2 Linux环境下安装 12
1.3.3 安装配置环境变量 15
1.3.4 设置免密码登陆 16
1.3.5 配置时间同步 16
本章习题 21
第2章 Hadoop开源项目及伪分布式实现 23
2.1 Zookeeper简介 23
2.1.1 Zookeeper介绍 23
2.1.2 Zookeeper用途及特点 24
2.1.3 Zookeeper安装使用 25
2.2 单节点伪分布式安装 29
2.2.1 Hadoop配置文件说明 29
2.2.2 格式化HDFS文件系统 30
2.2.3 进程管理 30
本章习题 34
第3章 分布式存储HDFS 36
3.1 HDFS分布式文件系统安装 36
3.1.1 HDFS介绍 36
3.1.2 HDFS的安装过程 36
3.1.3 HDFS常用的一些简单的Shell命令 40
3.2 HDFS的相关概念 40
3.2.1 块及数据分片 40
3.2.1 名称节点NameNode和数据节点DataNode 41
3.2.3 第二个名称节点SecondaryNameNode 43
3.3 HDFS的文件存储机制 45
3.3.1 文件存储机制概述 45
3.3.2 HDFS的命名空间 45
3.3.3 客户端 46
3.3.4 通信协议 46
3.4 HDFS的数据存储管理 46
3.4.1 数据冗余存储 46
3.4.2 数据存取策略 46
3.4.3 数据错误与恢复 48
3.5 HDFS的数据读写过程 48
3.5.1 读取数据过程 48
3.5.2 写入数据过程 49
3.6 分布式及RPC通信简介 50
3.6.1 什么是RPC 50
3.6.2 如何实现一个RPC框架 50
3.6.3 Hadoop的RPC框架 50
3.6.4 实验过程 50
3.7 创建HDFS项目 55
3.7.1 Hadoop的Shell命令 55
3.7.2 利用Java API与HDFS进行人机交互 56
本章习题 63
第4章 MapReduce编程模型 65
4.1 MapReduce简介 65
4.1.1 MapReduce产生 65
4.1.2 MapReduce的数据类型 65
4.2 MapReduce架构 66
4.2.1 MapReduce的执行过程 66
4.2.2 Mapper过程 71
4.2.3 Reducer过程 71
4.2.4 Shuffle过程 71
4.3 MapReduce接口类 72
4.3.1 输入的处理类 72
4.3.2 输出的处理类 74
4.4 MapReduce编程模型实现 74
4.4.1 创建项目 74
4.4.2 编写MapReduce程序代码 75
4.4.3 本地运行测试 77
4.4.4 Jar打包 79
4.5 MapReduce典型案例-WordCount 79
4.5.1 WordCount任务目标 79
4.5.2 基于MapReduce的WordCount设计思路 80
4.5.3 任务执行 80
4.5.4 实例演示 81
4.6 分布式资源调度系统YARN的安装 83
4.6.1 YARN的概念 83
4.6.2 YARN的运行机制 84
4.6.3 YARN资源调度方式 84
4.6.4 YARN的安装配置 85
4.7 MapReduce和YARN命令 88
4.7.1 Hadoop的shell脚本 88
4.7.2 集群上运行介绍 90
4.7.3 实验过程 91
本章习题 94
第5章 Hadoop数据仓库Hive 97
5.1 Hive简介 97
5.1.1 Hive设计特点 97
5.1.2 Hive系统架构 98
5.1.3 Hive数据模型 98
5.1.4 Hive安装 99
5.2 Hive DDL 104
5.2.1 DDL基本格式 104
5.2.2 Hive数据类型 105
5.2.3 使用Hive创建数据库 106
5.3 Hive DML 113
5.3.1 数据操纵语言DML操作 113
5.3.2 类型 113
5.3.3 向Hive插入数据 114
5.3.4 Hive的其他语句 116
5.4 基于Hive的UDF V1.0 118
5.4.1 UDF的使用介绍 118
5.4.2 实验操作 120
5.5 Hive数据清洗项目 122
5.5.1 数据清洗介绍 122
5.5.2 用户关系模型介绍 124
5.5.3 挖掘用户的基本问题 124
5.5.4 Hive数据清洗项目使用 125
5.6 Hive统计UV项目 127
5.6.1 PV统计(页面访问量) 127
5.6.2 UV统计(独立访客) 128
5.6.3 Hive统计UV项目的使用 128
本章习题 131
第6章 Hadoop数据库HBase 133
6.1 HBase简介 133
6.2 HBase的shell应用v2.0 134
6.2.1 HBase体系架构 134
6.2.2 HBase逻辑视图 137
6.2.3 HBase的使用操作 138
6.3 使用Hive操作HBase 140
6.3.1 Hive整合HBase原理 140
6.3.2 操作使用 141
6.4 HBase的JavaAPI应用 142
6.4.1 创建连接 142
6.4.2 实验步骤 144
6.5 HBase学生选课案例 147
6.5.1 学生选课案例简介 147
6.5.2 学生选课案例讲解与操作 149
6.6 HBase微博案例 155
6.6.1 微博案例简介 155
6.6.2 微博案例讲解与操作 157
本章练习 164
第7章 Pig语言 166
7.1 Pig简介 166
7.1.1 认识Pig 166
7.1.2 Pig和MapReduce的区别 167
7.1.3 Pig的用途 168
7.1.4 Pig和Hive 168
7.2 Pig的安装与运行 169
7.2.1 Pig包的下载 169
7.2.2 Pig的安装 170
7.3 命令行交互工具Grunt 171
7.3.1 Grunt介绍 171
7.3.2 Grunt中输入Pig Latin脚本 171
7.3.3 Grunt中使用HDFS命令 171
7.3.4 Grunt中控制Pig 172
7.3.5 实验案例 172
7.4 Pig数据模型 175
7.4.1 数据类型 175
7.4.2 模式 177
7.4.3 数据模型的使用 178
7.5 Pig Latin基础知识 179
7.5.1 Pig Latin介绍 179
7.5.2 输入和输出 180
7.5.3 Pig Latin的使用 181
7.6 Pig Latin关系操作 182
7.6.1 Foreach数据转换 182
7.6.2 Filter过滤 182
7.6.3 Group分组 182
7.6.7 Order by排序 182
7.6.5 Distinct 183
7.6.6 Join 183
7.6.7 Limit 183
7.6.8 Sample 183
7.6.9 Parallel 183
7.6.10 运行Pig程序示例 183
7.7 Pig Latin高级应用 191
7.7.1 Group应用 191
7.7.2 Cross应用 192
7.7.3 Distinct应用 192
7.7.4 Filter应用 192
7.7.5 Foreach应用 192
7.7.6 复杂关系应用 192
7.7.7 在Pig中集成遗留代码和MapReduce程序 194
7.7.8 非线性数据流 194
7.7.9 执行过程控制 195
7.7.10 Pig Latin预处理器 195
7.7.11 运行Pig程序示例 195
本章练习 202
第8章 Hadoop项目案例 204
8.1 QQ好友推荐算法 204
8.1.1 实现思路 204
8.1.2 代码实现 204
8.2 PageRank算法 209
8.2.1 PageRank算法简介 209
8.2.2 PageRank原理介绍 210
8.2.3 PageRank简单计算 210
8.3 TF-IDF算法 213
8.3.1 TF-IDF简介 213
8.3.2 TF-IDF实现 214
8.3.3 TF-IDF应用 214
8.3.4 权重 214
8.4 数据关联案例 222
8.4.1 常用思路 223
8.4.2 编码思路 223
8.4.3 实验 223
8.5 ETL案例 224
8.5.1 数据ETL 225
8.5.2 实验 225
8.6 PV、UV统计案例 228
8.6.1 针对某一类网址的PV、UV 228
8.6.2 得到PV、UV的后续处理 229
8.6.3 实验 229
8.7 用户流失和新增分析案例 231
8.8 Hadoop总结 234
8.8.1 打包作业 234
8.8.2 启动作业 235
8.8.3 提交命令封装 236
本章习题 236
第9章 Mahout项目案例 239
9.1 Mahout环境配置 240
9.1.1 单机环境配置 240
9.1.2 基于Hadoop集群的Mahout环境配置 240
9.2 协同过滤推荐算法 243
9.2.1 Taste简介 243
9.2.2 基于用户的协同过滤算法 244
9.2.3 基于项目的协同过滤算法 247
9.2.4 基于ALS的矩阵分解算法 248
9.2.5 基于SVD的推荐算法 249
9.3 聚类算法 252
9.3.1 Canopy聚类 252
9.3.2 K-Means聚类 253
9.3.3 Fuzzy K-Means聚类算法 253
9.3.4 Streaming K-Means聚类 254
9.3.5 Spectral谱聚类算法类 255
9.4 分类算法 255
9.4.1 Logistic回归算法 256
9.4.2 朴素贝叶斯分类器 258
9.4.3 随机森林 258
9.4.4 隐马尔科夫模型 259
本章习题 260
参考文献 263
附录 265
一. 本书中出现的专业术语缩写英汉对照表 265
二. 习题参考答案 267
內容試閱
前 言
大数据时代的到来,改变了许多行业的人才需求模式,大数据方面的人才成为各信息产业尤其是IT行业的热门人才。许多高等院校已经新增大数据技术相关专业,部分院校成立了大数据学院,标志着进行大数据技术人才培养已经正式纳入高等教育的培养需求。基于Hadoop架构搭建大数据分析环境是培养大数据人才的基本要求,《Hadoop大数据技术应用实践》教材可作为大数据技术相关专业本科生及高职院校相关专业实践类的教材,以为培养大数据技术相关人才打下坚实的基础。
培养技术型及实践型人才是大数据时代教育部对大数据技术相关人才的基本要求,也是各信息产业对人才的基本需求。编写本书的目的就是要让大数据技术相关专业学生通过本课程的学习,了解大数据技术的基础知识,掌握基于Hadoop环境搭建大数据分析架构的基本流程及实现过程,提高学习本课程的兴趣,培养解决实际问题的能力。
本书最大的特色就是实践性较强,在阐述大数据技术相关基础知识的同时,辅以大量实践内容及项目实例,培养了学生的学习兴趣,可极大提高学生的动手能力。克服了许多教材注重理论缺少实践内容的弊端。学生们可在课后,自己进一步动手实践,提高了学生的学习效率。
本书主要以大数据技术及计算机相关专业的本科生及高职院校学生为读者对象,注重大数据技术相关基础知识,尤其是实践环节的描述,避免了繁琐的理论知识介绍。全书共包括9章,第1章是Hadoop初识简介,第2章是Hadoop相关开源项目及伪分布式环境安装,第3章是分布式存储HDFS,第4章是MapReduce编程模型,第5章是Hadoop数据仓库Hive,第6章是Hadoop数据库HBase,第7章是Pig语言,第8章是Hadoop项目案例,第9章是Mahout项目案例。附录部分是本书中出现过的专业名词缩写、全拼及中文解释,按照英文字母顺序排列,供大家学习时参考。
第1章到第4章属于Hadoop基础知识部分,在搭建Hadoop架构时是必备的知识,第5章到第9章是提高部分,实际中可根据应用需要选择学习。本书可以用作工科高校相关专业32-40学时的课程教程,其中第7章Pig语言及第9章Mahout项目案例可作为选学内容。
本书由太原理工大学李凤莲教授、北京红亚华宇科技有限公司郑洪宾CEO任主编,由太原理工大学李彦民、辽宁大学冯勇、中国地质大学吴湘宁、青海警官职业学院张志强、江苏安全学院黄健任副主编,具体分工是:由冯勇、吴湘宁、张志强、黄健参与教材整体框架设计,由北京红亚华宇科技有限公司提供实训素材,由李凤莲教授完成教材第1,2,3,4,5,6,8及9章的编写,太原理工大学李彦民完成教材第7章及附录的编写。本书在编写及校对过程中,特别是项目实践内容验证过程中,得到了北京红亚华宇科技有限公司以及太原理工大学信息与计算机学院数字音视频技术研究中心大数据课题组硕士生的大力帮助,在此表示衷心感谢。
由于编著者水平有限,书中难免存在错误之处,敬请读者批评指正。

编著者
前 言
大数据时代的到来,改变了许多行业的人才需求模式,大数据方面的人才成为各信息产业尤其是IT行业的热门人才。许多高等院校已经新增大数据技术相关专业,部分院校成立了大数据学院,标志着进行大数据技术人才培养已经正式纳入高等教育的培养需求。基于Hadoop架构搭建大数据分析环境是培养大数据人才的基本要求,《Hadoop大数据技术应用实践》教材可作为大数据技术相关专业本科生及高职院校相关专业实践类的教材,以为培养大数据技术相关人才打下坚实的基础。
培养技术型及实践型人才是大数据时代教育部对大数据技术相关人才的基本要求,也是各信息产业对人才的基本需求。编写本书的目的就是要让大数据技术相关专业学生通过本课程的学习,了解大数据技术的基础知识,掌握基于Hadoop环境搭建大数据分析架构的基本流程及实现过程,提高学习本课程的兴趣,培养解决实际问题的能力。
本书最大的特色就是实践性较强,在阐述大数据技术相关基础知识的同时,辅以大量实践内容及项目实例,培养了学生的学习兴趣,可极大提高学生的动手能力。克服了许多教材注重理论缺少实践内容的弊端。学生们可在课后,自己进一步动手实践,提高了学生的学习效率。
本书主要以大数据技术及计算机相关专业的本科生及高职院校学生为读者对象,注重大数据技术相关基础知识,尤其是实践环节的描述,避免了繁琐的理论知识介绍。全书共包括9章,第1章是Hadoop初识简介,第2章是Hadoop相关开源项目及伪分布式环境安装,第3章是分布式存储HDFS,第4章是MapReduce编程模型,第5章是Hadoop数据仓库Hive,第6章是Hadoop数据库HBase,第7章是Pig语言,第8章是Hadoop项目案例,第9章是Mahout项目案例。附录部分是本书中出现过的专业名词缩写、全拼及中文解释,按照英文字母顺序排列,供大家学习时参考。
第1章到第4章属于Hadoop基础知识部分,在搭建Hadoop架构时是必备的知识,第5章到第9章是提高部分,实际中可根据应用需要选择学习。本书可以用作工科高校相关专业32-40学时的课程教程,其中第7章Pig语言及第9章Mahout项目案例可作为选学内容。
本书由太原理工大学李凤莲教授、北京红亚华宇科技有限公司郑洪宾CEO任主编,由太原理工大学李彦民、辽宁大学冯勇、中国地质大学吴湘宁、青海警官职业学院张志强、江苏安全学院黄健任副主编,具体分工是:由冯勇、吴湘宁、张志强、黄健参与教材整体框架设计,由北京红亚华宇科技有限公司提供实训素材,由李凤莲教授完成教材第1,2,3,4,5,6,8及9章的编写,太原理工大学李彦民完成教材第7章及附录的编写。本书在编写及校对过程中,特别是项目实践内容验证过程中,得到了北京红亚华宇科技有限公司以及太原理工大学信息与计算机学院数字音视频技术研究中心大数据课题组硕士生的大力帮助,在此表示衷心感谢。
由于编著者水平有限,书中难免存在错误之处,敬请读者批评指正。

编著者
前 言
大数据时代的到来,改变了许多行业的人才需求模式,大数据方面的人才成为各信息产业尤其是IT行业的热门人才。许多高等院校已经新增大数据技术相关专业,部分院校成立了大数据学院,标志着进行大数据技术人才培养已经正式纳入高等教育的培养需求。基于Hadoop架构搭建大数据分析环境是培养大数据人才的基本要求,《Hadoop大数据技术应用实践》教材可作为大数据技术相关专业本科生及高职院校相关专业实践类的教材,以为培养大数据技术相关人才打下坚实的基础。
培养技术型及实践型人才是大数据时代教育部对大数据技术相关人才的基本要求,也是各信息产业对人才的基本需求。编写本书的目的就是要让大数据技术相关专业学生通过本课程的学习,了解大数据技术的基础知识,掌握基于Hadoop环境搭建大数据分析架构的基本流程及实现过程,提高学习本课程的兴趣,培养解决实际问题的能力。
本书最大的特色就是实践性较强,在阐述大数据技术相关基础知识的同时,辅以大量实践内容及项目实例,培养了学生的学习兴趣,可极大提高学生的动手能力。克服了许多教材注重理论缺少实践内容的弊端。学生们可在课后,自己进一步动手实践,提高了学生的学习效率。
本书主要以大数据技术及计算机相关专业的本科生及高职院校学生为读者对象,注重大数据技术相关基础知识,尤其是实践环节的描述,避免了繁琐的理论知识介绍。全书共包括9章,第1章是Hadoop初识简介,第2章是Hadoop相关开源项目及伪分布式环境安装,第3章是分布式存储HDFS,第4章是MapReduce编程模型,第5章是Hadoop数据仓库Hive,第6章是Hadoop数据库HBase,第7章是Pig语言,第8章是Hadoop项目案例,第9章是Mahout项目案例。附录部分是本书中出现过的专业名词缩写、全拼及中文解释,按照英文字母顺序排列,供大家学习时参考。
第1章到第4章属于Hadoop基础知识部分,在搭建Hadoop架构时是必备的知识,第5章到第9章是提高部分,实际中可根据应用需要选择学习。本书可以用作工科高校相关专业32-40学时的课程教程,其中第7章Pig语言及第9章Mahout项目案例可作为选学内容。
本书由太原理工大学李凤莲教授、北京红亚华宇科技有限公司郑洪宾CEO任主编,由太原理工大学李彦民、辽宁大学冯勇、中国地质大学吴湘宁、青海警官职业学院张志强、江苏安全学院黄健任副主编,具体分工是:由冯勇、吴湘宁、张志强、黄健参与教材整体框架设计,由北京红亚华宇科技有限公司提供实训素材,由李凤莲教授完成教材第1,2,3,4,5,6,8及9章的编写,太原理工大学李彦民完成教材第7章及附录的编写。本书在编写及校对过程中,特别是项目实践内容验证过程中,得到了北京红亚华宇科技有限公司以及太原理工大学信息与计算机学院数字音视频技术研究中心大数据课题组硕士生的大力帮助,在此表示衷心感谢。
由于编著者水平有限,书中难免存在错误之处,敬请读者批评指正。

编著者

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 大陸用户 | 海外用户
megBook.com.hk
Copyright © 2013 - 2024 (香港)大書城有限公司  All Rights Reserved.