购物车中还没有商品,赶紧选购吧!
条形条码:
大数据开发者权威教程:大数据技术与编程基础
商 城 价
降价通知
市 场 价
累计评价0
累计销量0
手机购买
商品二维码
配送
服务
天添网自营 发货并提供售后服务。
数量
库存  个
温馨提示

·不支持退换货服务

  • 商品详情
手机购买
商品二维码
加入购物车
价格:
数量:
库存  个

商品详情

商品名称:大数据开发者权威教程:大数据技术与编程基础
商品编号:711549350
店铺:天添网自营
上架时间:2020-09-11 16:14:46

编辑推荐



null


内容简介



“大数据”近年成为IT领域的热点话题,人们每天都会通过互联网、移动设备等产生大量数据。如何管理大数据、掌握大数据的核心技术、理解大数据相关的生态系统等,是作为大数据开发者必须学习和熟练掌握的。本系列书以“大数据开发者”应掌握的技术为主线,共分两卷,以7个模块分别介绍如何管理大数据生态系统、如何存储和处理数据、如何利用Hadoop工具、如何利用NoSQL与Hadoop协同工作,以及如何利用Hadoop商业发行版和管理工具。本系列书涵盖了大数据开发工作的核心内容,全面且详尽地涵盖了大数据开发的各个领域。 Wrox国际IT认证项目组编顾晨译的《大数据开发者权威教程(大数据技术与编程基础)》为第1卷,共4个模块,分别介绍大数据基础知识、大数据生态系统的管理、HDFS和MapReduce以及Hadoop工具(如Hive、Pig和Oozie等)。 本书适用于想成为大数据开发者以及所有对大数据开发感兴趣的技术人员和决策者阅读。


作者介绍



本书作者均为国际知名IT培训机构的知名讲师,他们通过对技术、IT市场需求以及当今就业培训方面的全球行业标准进行了广泛并严格的调研之后,集结成这套“大数据开发者权威教程”。作者们的目标是通过这套书为有志于在大数据开发领域取得事业成功的人技术人员和决策者提供必备的技术和技能。 译者简介 顾晨,男,硕士、PMP、信息系统项目管理师。毕业于上海交通大学。曾获邀参加旧金山的Google I/O大会。喜欢所有与编程相关的事物,拥有14年的编程经验。对于大数据、SAP HANA数据库和思科技术有着极其浓厚的兴趣,是国内较早从事HANA数据库研究的人员之一。先后录制了MCSE、CCNP等多种教学视频,在多家知名网站发布。精通C#、Java编程,目前正致力于人脸识别、室内定位和门店人流统计方面的研究。


目 录



模块1 大数据入门 第1讲 大数据简介 1.1 什么是大数据 1.1.1 大数据的优势 1.1.2 挖掘各种大数据源 1.2 数据管理的历史——大数据的演化 1.3 大数据的结构化 1.4 大数据要素 1.4.1 数据量 1.4.2 速度 1.4.3 多样性 1.5 大数据在商务环境中的应用 1.6 大数据行业中的职业机会 1.6.1 职业机会 1.6.2 所需技能 1.6.3 大数据的未来 练习 备忘单 第2讲 大数据在商业上的应用 2.1 社交网络数据的重要性 2.2 金融欺诈和大数据 2.3 保险业的欺诈检测 2.4 在零售业中应用大数据 练习 备忘单 第3讲 处理大数据的技术 3.1 大数据的分布式和并行计算 3.1.1 并行计算技术 3.1.2 虚拟化及其对大数据的重要性 3.2 Hadoop简介 3.3 云计算和大数据 3.3.1 大数据计算的特性 3.3.2 云部署模型 3.3.3 云交付模型 3.3.4 大数据云 3.3.5 大数据云市场中的供应商 3.3.6 使用云服务所存在的问题 3.4 大数据内存计算技术 练习 备忘单 第4讲 了解Hadoop生态系统 4.1 Hadoop生态系统 4.2 用HDFS存储数据 4.2.1 HDFS架构 4.2.2 HDFS的一些特殊功能 4.3 利用Hadoop MapReduce处理数据 4.3.1 MapReduce是如何工作的 4.3.2 MapReduce的优点和缺点 4.3.3 利用Hadoop YARN管理资源和应用 4.4 利用HBase存储数据 4.5 使用Hive查询大型数据库 4.6 与Hadoop生态系统的交互 4.6.1 Pig和Pig Latin 4.6.2 Sqoop 4.6.3 Zookeeper 4.6.4 Flume 4.6.5 Oozie 练习 备忘单 第5讲 MapReduce基础 5.1 MapReduce的起源 5.2 MapReduce是如何工作的 5.3 MapReduce作业的优化技术 5.3.1 硬件/网络拓扑 5.3.2 同步 5.3.3 文件系统 5.4 MapReduce的应用 5.5 HBase在大数据处理中的角色 5.6 利用Hive挖掘大数据 练习 备忘单 模块2 管理大数据生态系统 第1讲 大数据技术基础 1.1 探索大数据栈 1.2 冗余物理基础设施层 1.2.1 物理冗余网络 1.2.2 管理硬件:存储和服务器 1.2.3 基础设施的操作 1.3 安全基础设施层 1.4 接口层以及与应用程序和互联网的双向反馈 1.5 可操作数据库层 1.6 组织数据服务层及工具 1.7 分析数据仓库层 1.8 分析层 1.9 大数据应用层 1.10 虚拟化和大数据 1.11 虚拟化方法 1.11.1 服务器虚拟化 1.11.2 应用程序虚拟化 1.11.3 网络虚拟化 1.11.4 处理器和内存虚拟化 1.11.5 数据和存储虚拟化 1.11.6 用管理程序进行虚拟化管理 1.11.7 抽象与虚拟化 1.11.8 实施虚拟化来处理大数据 练习 备忘单 第2讲 大数据管理系统——数据库和数据仓库 2.1 RDBMS和大数据环境 2.2 非关系型数据库 2.2.1 键值数据库 2.2.2 文档数据库 2.2.3 列式数据库 2.2.4 图数据库 2.2.5 空间数据库 2.3 混合持久化 2.4 将大数据与传统数据仓库相集成 2.4.1 优化数据仓库 2.4.2 大数据结构与数据仓库的区别 2.5 大数据分析和数据仓库 2.6 改变大数据时代的部署模式 2.6.1 设备模型 2.6.2 云模型 练习 备忘单 第3讲 分析与大数据 3.1 使用大数据以获取结果 3.1.1 基本分析 3.1.2 高级分析 3.1.3 可操作性分析 3.1.4 货币化分析 3.2 是什么构成了大数据 3.2.1 构成大数据的数据 3.2.2 大数据分析算法 3.2.3 大数据基础设施支持 3.3 探索非结构化数据 3.4 理解文本分析 3.4.1 分析和提取技术 3.4.2 理解提取的信息 3.4.3 分类法 3.4.4 将结果与结构化数据放在一起 3.5 建立新的模式和方法以支持大数据 3.5.1 大数据分析的特征 3.5.2 大数据分析的应用 3.5.3 大数据分析框架的特性 练习 备忘单 第4讲 整合数据、实时数据和实施大数据 4.1 大数据分析的各个阶段 4.1.1 探索阶段 4.1.2 编纂阶段 4.1.3 整合和合并阶段 4.2 大数据集成的基础 4.2.1 传统ETL 4.2.2 ELT——提取、加载和转换 4.2.3 优先处理大数据质量 4.2.4 数据性能分析工具 4.2.5 将Hadoop用作ETL 4.3 流数据和复杂的事件处理 4.3.1 流数据 4.3.2 复杂事件处理 4.3.3 区分CEP和流 4.3.4 流数据和CEP对业务的影响 4.4 使大数据成为运营流程的一部分 4.5 了解大数据的工作流 4.6 确保大数据有效性、准确性和时效性 4.6.1 数据的有效性和准确性 4.6.2 数据的时效性 练习 备忘单 第5讲 大数据解决方案和动态数据 5.1 大数据作为企业战略工具 5.1.1 阶段1:利用数据做计划 5.1.2 阶段2:执行分析 5.1.3 阶段3:检查结果 5.1.4 阶段4:根据计划行事 5.2 实时分析:把新的维度添加到周期 5.2.1 阶段5:实时监控 5.2.2 阶段6:调整影响 5.2.3 阶段7:实验 5.3 对动态数据的需求 5.4 案例1:针对环境影响使用流数据 5.4.1 这是怎么做到的 5.4.2 利用传感器提供实时信息 5.4.3 利用实时数据进行研究 5.5 案例2:为了公共政策使用大数据 5.5.1 问题 5.5.2 使用流数据 5.6 案例3:在医疗保健行业使用流数据 5.6.1 问题 5.6.2 使用流数据 5.7 案例4:在能源行业使用流数据 5.7.1 利用流数据提高能源效率 5.7.2 流数据的使用推进了可替代能源的生产 5.8 案例5:用实时文本分析提高客户体验 5.9 案例6:在金融业使用实时数据 5.9.1 保险 5.9.2 银行 5.9.3 信用卡公司 5.10 案例7:使用实时数据防止保险欺诈 练习 备忘单 模块3 存储和处理数据:HDFS和MapReduce 第1讲 在Hadoop中存储数据 1.1 HDFS 1.1.1 HDFS的架构 1.1.2 使用HDFS文件 1.1.3 Hadoop特有的文件类型 1.1.4 HDFS联盟和高可用性 1.2 HBase 1.2.1 HBase的架构 1.2.2 HBase模式设计准则 1.3 HBase编程 1.4 为有效的数据存储结合HDFS和HBase 1.5 为应用程序选择恰当的Hadoop数据组织 1.5.1 数据被MapReduce独占访问时 1.5.2 创建新数据时 1.5.3 数据尺寸太大时 1.5.4 数据用于实时访问时 练习 备忘单 第2讲 利用MapReduce处理数据 2.1 开始了解MapReduce 2.1.1 MapReduce框架 2.1.2 MapReduce执行管道 2.1.3 MapReduce的运行协调和任务管理 2.2 第一个MapReduce应用程序 2.3 设计MapReduce的实现 2.3.1 使用MapReduce作为并行处理的框架 2.3.2 MapReduce的简单数据处理 2.3.3 构建与MapReduce的连接 2.3.4 构建迭代的MapReduce应用程序 2.3.5 用还是不用MapReduce 2.3.6 常见的MapReduce设计提示 练习 备忘单 第3讲 自定义MapReduce执行 3.1 用InputFormat控制MapReduce的执行 3.1.1 为计算密集型应用程序实施InputFormat 3.1.2 实现InputFormat控制map的数量 3.1.3 为多HBase表实现InputFormat 3.2 用你自定义RecordReader的方式读取数据 3.3 用自定义OutputFormat组织输出数据 3.4 自定义RecordWriter以你的方式写数据 3.5 利用结合器优化MapReduce执行 3.6 用分区器来控制reducer的执行 练习 备忘单 第4讲 测试和调试MapReduce应用程序 4.1 MapReduce应用程序的单元测试 4.1.1 测试mapper 4.1.2 测试reducer 4.1.3 集成测试 4.2 用Eclipse进行本地程序测试 4.3 利用日志文件做Hadoop测试 4.4 利用工作计数器进行报表度量 4.5 在MapReduce中的防御式编程 练习 备忘单 第5讲 实现MapReduce WordCount程序——案例学习 5.1 背景 5.1.1 句子层级的情感分析 5.1.2 情感词法采集 5.1.3 文档级别的情感分析 5.1.4 比较情感分析 5.1.5 基于外观的情感分析 5.2 场景 5.3 数据解释 5.4 方法论 5.5 方法 模块4 利用Hadoop工具Hive、Pig和Oozie提升效率 第1讲 探索Hive 1.1 介绍Hive 1.1.1 Hive数据单元 1.1.2 Hive架构 1.1.3 Hive元数据存储 1.2 启动Hive 1.2.1 Hive命令行界面 1.2.2 Hive变量 1.2.3 Hive属性 1.2.4 Hive一次性命令 1.3 执行来自文件的Hive查询 1.3.1 shell执行 1.3.2 Hadoop dfs命令 1.3.3 Hive中的注释 1.4 数据类型 1.4.1 基本数据类型 1.4.2 复杂数据类型 1.4.3 Hive内置运算符 1.5 Hive内置函数 1.6 压缩的数据存储 1.7 Hive数据定义语言 1.7.1 管理Hive中的数据库 1.7.2 管理Hive中的表 1.8 Hive中的数据操作 1.8.1 将数据载入Hive表 1.8.2 将数据插入表 1.8.3 插入至本地文件 练习 备忘单 第2讲 高级Hive查询 2.1 HiveQL查询 2.1.1 SELECT查询 2.1.2 LIMIT子句 2.1.3 嵌入查询 2.1.4 CASE…WHEN…THEN 2.1.5 LIKE和RLIKE 2.1.6 GROUP BY 2.1.7 HAVING 2.2 使用函数操作列值 2.2.1 内置函数 2.2.2 用户定义函数 2.3 Hive中的连接 2.3.1 内连接 2.3.2 外连接 2.3.3 笛卡儿积连接 2.3.4 Map侧的连接 2.3.5 ORDER BY 2.3.6 UNION ALL 2.4 Hive的最佳实践 2.4.1 使用分区 2.4.2 规范化 2.4.3 有效使用单次扫描 2.4.4 桶的使用 2.5 性能调优和查询优化 2.5.1 EXPLAIN命令 2.5.2 LIMIT调优 2.6 各种执行类型 2.6.1 本地执行 2.6.2 并行执行 2.6.3 索引 2.6.4 预测执行 2.7 Hive文件和记录格式 2.7.1 文本文件 2.7.2 序列文件 2.7.3 RCFile 2.7.4 记录格式(SerDe) 2.7.5 Regex SerDe 2.7.6 Avro SerDe 2.7.7 JSON SerDe 2.8 HiveThrift服务 2.8.1 启动HiveThrift服务器 2.8.2 使用JDBC的样例HiveThrift客户端 2.9 Hive中的安全 2.9.1 认证 2.9.2 授权 练习 备忘单 第3讲 用Pig分析数据 3.1 介绍Pig 3.1.1 Pig架构 3.1.2 Pig Latin的优势 3.2 安装Pig 3.2.1 安装Pig所需条件 3.2.2 下载Pig 3.2.3 构建Pig库 3.3 Pig的属性 3.4 运行Pig 3.5 Pig Latin应用程序流 3.6 开始利用Pig Latin 3.6.1 Pig Latin结构 3.6.2 Pig数据类型 3.6.3 Pig语法 3.7 Pig脚本接口 3.8 Pig Latin的脚本 3.8.1 用户定义函数 3.8.2 参数替代 3.9 Pig中的关系型操作 3.9.1 FOREACH 3.9.2 FILTER 3.9.3 GROUP 3.9.4 ORDER BY 3.9.5 DISTINCT 3.9.6 JOIN 3.9.7 LIMIT 3.9.8 SAMPLE 练习 备忘单 第4讲 Oozie对数据处理进行自动化 4.1 开始了解Oozie 4.2 Oozie工作流 4.2.1 在Oozie工作流中执行异步活动 4.2.2 实现Oozie工作流 4.3 Oozie协调器 4.4 Oozie套件 4.5 利用EL的Oozie参数化 4.5.1 工作流函数 4.5.2 协调器函数 4.5.3 套件函数 4.5.4 其他EL函数 4.6 Oozie作业执行模型 4.7 访问Oozie 4.8 Oozie SLA 练习 备忘单 第5讲 使用Oozie 5.1 业务场景:使用探测包验证关于位置的信息 5.2 根据探测包设计位置验证 5.3 设计Oozie工作流 5.4 实现Oozie工作流应用程序 5.4.1 实现数据准备工作流 5.4.2 实现考勤指数和集群簇的工作流 5.5 实现工作流的活动 5.5.1 从java行为中填充执行上下文 5.5.2 在Oozie工作流中使用MapReduce作业 5.6 实现Oozie协调器应用程序 5.7 实现Oozie套件应用程序 5.8 部署、测试和执行Oozie应用程序 5.8.1 使用Oozie CLI执行Oozie应用程序 5.8.2 将参数传递给Oozie作业 5.8.3 决定如何将参数传递给Oozie作业 练习 备忘单


媒体评论



null


对比栏

1

您还可以继续添加

2

您还可以继续添加

3

您还可以继续添加

4

您还可以继续添加