图书介绍
Python+Spark 2.0+Hadoop 机器学习与大数据实战PDF|Epub|txt|kindle电子书版本网盘下载
![Python+Spark 2.0+Hadoop 机器学习与大数据实战](https://www.shukui.net/cover/73/34563984.jpg)
- 林大贵著 著
- 出版社: 北京:清华大学出版社
- ISBN:9787302490739
- 出版时间:2018
- 标注页数:519页
- 文件大小:367MB
- 文件页数:543页
- 主题词:软件工具-程序设计;数据处理软件
PDF下载
下载说明
Python+Spark 2.0+Hadoop 机器学习与大数据实战PDF格式电子书版下载
下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!
(文件页数 要大于 标注页数,上中下等多册电子书除外)
注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具
图书目录
第1章 Python Spark机器学习与Hadoop大数据1
1.1机器学习的介绍2
1.2Spark的介绍5
1.3Spark数据处理RDD、DataFrame、Spark SQL7
1.4使用Python开发Spark机器学习与大数据应用8
1.5Python Spark机器学习9
1.6Spark ML Pipeline机器学习流程介绍10
1.7Spark 2.0的介绍12
1.8大数据定义13
1.9Hadoop简介14
1.10Hadoop HDFS分布式文件系统14
1.11Hadoop MapReduce的介绍17
1.12结论18
第2章 VirtualBox虚拟机软件的安装19
2.1VirtualBox的下载和安装20
2.2设置VirtualBox存储文件夹23
2.3在VirtualBox创建虚拟机25
2.4结论29
第3章 Ubuntu Linux操作系统的安装30
3.1Ubuntu Linux操作系统的安装31
3.2在Virtual设置Ubuntu虚拟光盘文件33
3.3开始安装Ubuntu35
3.4启动Ubuntu40
3.5安装增强功能41
3.6设置默认输入法45
3.7设置“终端”程序48
3.8设置“终端”程序为白底黑字49
3.9设置共享剪贴板50
3.10设置最佳下载服务器52
3.11结论56
第4章 Hadoop Single Node Cluster的安装57
4.1安装JDK58
4.2设置SSH无密码登录61
4.3下载安装Hadoop64
4.4设置Hadoop环境变量67
4.5修改Hadoop配置设置文件69
4.6创建并格式化HDFS目录73
4.7启动Hadoop74
4.8打开Hadoop Resource-Manager Web界面76
4.9NameNode HDFS Web界面78
4.10结论79
第5章 Hadoop Multi Node Cluster的安装80
5.1把Single Node Cluster复制到data183
5.2设置VirtualBox网卡84
5.3设置datal服务器87
5.4复制data1服务器到data2、data3、master94
5.5设置data2服务器97
5.6设置data3服务器100
5.7设置master服务器102
5.8master连接到datal、data2、data3创建HDFS目录107
5.9创建并格式化NameNode HDFS目录110
5.10启动Hadoop Multi Node Cluster112
5.11打开Hadoop ResourceManager Web界面114
5.12打开NameNode Web界面115
5.13停止Hadoop Multi Node Cluster116
5.14结论116
第6章 Hadoop HDFS命令117
6.1启动Hadoop Multi-Node Cluster118
6.2创建与查看HDFS目录120
6.3从本地计算机复制文件到HDFS122
6.4将HDFS上的文件复制到本地计算机127
6.5复制与删除HDFS文件129
6.6在Hadoop HDFS Web用户界面浏览HDFS131
6.7结论134
第7章 Hadoop MapReduce135
7.1简单介绍WordCount.java136
7.2编辑WordCount.java137
7.3编译WordCount.java141
7.4创建测试文本文件143
7.5运行WordCount.java145
7.6查看运行结果146
7.7结论147
第8章 Python Spark的介绍与安装148
8.1Scala的介绍与安装150
8.2安装Spark153
8.3启动pyspark交互式界面156
8.4设置pyspark显示信息157
8.5创建测试用的文本文件159
8.6本地运行pyspark程序161
8.7在Hadoop YARN运行pyspark163
8.8构建Spark Standalone Cluster运行环境165
8.9在Spark Standalone运行pyspark171
8.10Spark Web UI界面173
8.11结论175
第9章 在IPython Notebook运行Python Spark程序176
9.1安装Anaconda177
9.2在IPython Notebook使用Spark180
9.3打开IPython Notebook笔记本184
9.4插入程序单元格185
9.5加入注释与设置程序代码说明标题186
9.6关闭IPython Notebook188
9.7使用IPython Notebook在Hadoop YARN-client模式运行189
9.8使用IPython Notebook在Spark Stand Alone模式运行192
9.9整理在不同的模式运行IPython Notebook的命令194
9.9.1在Local启动IPython Notebook195
9.9.2在Hadoop YARN-client模式启动IPython Notebook195
9.9.3在Spark Stand Alone模式启动IPython Notebook195
9.10结论196
第10章 Python Spark RDD197
10.1RDD的特性198
10.2开启IPython Notebook199
10.3基本RDD“转换”运算201
10.4多个RDD“转换”运算206
10.5基本“动作”运算208
10.6RDD Key-Value基本“转换”运算209
10.7多个RDD Key-Value“转换”运算212
10.8Key-Value“动作”运算215
10.9Broadcast广播变量217
10.10accumulator累加器220
10.11RDD Persistence持久化221
10.12使用Spark创建WordCount223
10.13Spark WordCount详细解说226
10.14结论228
第11章 Python Spark的集成开发环境229
11.1下载与安装eclipse Scala IDE232
11.2安装PyDev235
11.3设置字符串替代变量240
11.4PyDev设置Python链接库243
11.5PyDev设置anaconda2链接库路径245
11.6PyDev设置Spark Python链接库247
11.7PyDev设置环境变量248
11.8新建PyDev项目251
11.9加入WordCount.py程序253
11.10输入WordCount.py程序254
11.11创建测试文件并上传至HDFS目录257
11.12使用spark-submit执行WordCount程序259
11.13在Hadoop YARN-client上运行WordCount程序261
11.14在Spark Standalone Cluster上运行WordCount程序264
11.15在eclipse外部工具运行Python Spark程序267
11.16在eclipse运行spark-submit YARN-client273
11.17在eclipse运行spark-submit Standalone277
11.18结论280
第12章 Python Spark创建推荐引擎281
12.1推荐算法介绍282
12.2“推荐引擎”大数据分析使用场景282
12.3ALS推荐算法的介绍283
12.4如何搜索数据285
12.5启动lPython Notebook289
12.6如何准备数据290
12.7如何训练模型294
12.8如何使用模型进行推荐295
12.9显示推荐的电影名称297
12.10创建Recommend项目299
12.11运行RecommendTrain.py推荐程序代码302
12.12创建Recommend.py推荐程序代码304
12.13在eclipse运行Recommend.py307
12.14结论310
第13章 Python Spark MLlib决策树二元分类311
13.1决策树介绍312
13.2“StumbleUpon Evergreen”大数据问题313
13.2.1Kaggle网站介绍313
13.2.2“StumbleUpon Evergreen”大数据问题场景分析313
13.3决策树二元分类机器学习314
13.4如何搜集数据315
13.4.1StumbleUpon数据内容315
13.4.2下载StumbleUpon数据316
13.4.3用LibreOffice Calc电子表格查看train.tsv319
13.4.4复制到项目目录322
13.5使用IPython Notebook示范323
13.6如何进行数据准备324
13.6.1导入并转换数据324
13.6.2提取feature特征字段327
13.6.3提取分类特征字段328
13.6.4提取数值特征字段331
13.6.5返回特征字段331
13.6.6提取label标签字段331
13.6.7建立训练评估所需的数据332
13.6.8以随机方式将数据分为3部分并返回333
13.6.9编写PrepareData(sc)函数333
13.7如何训练模型334
13.8如何使用模型进行预测335
13.9如何评估模型的准确率338
13.9.1使用AUC评估二元分类模型338
13.9.2计算AUC339
13.10模型的训练参数如何影响准确率341
13.10.1建立trainEvaluateModel341
13.10.2评估impurity参数343
13.10.3训练评估的结果以图表显示344
13.10.4编写evalParameter347
13.10.5使用evalParameter评估maxDepth参数347
13.10.6使用evalParameter评估maxBins参数348
13.11如何找出准确率最高的参数组合349
13.12如何确认是否过度训练352
13.13编写RunDecisionTreeBina.py程序352
13.14开始输入RunDecisionTreeBina.py程序353
13.15运行RunDecisionTreeBina.py355
13.15.1执行参数评估355
13.15.2所有参数训练评估找出最好的参数组合355
13.15.3运行RunDecisionTreeBina.py不要输入参数357
13.16查看DecisionTree的分类规则358
13.17结论360
第14章 Python Spark MLlib逻辑回归二元分类361
14.1逻辑回归分析介绍362
14.2RunLogisticRegression WithSGDBina.py程序说明363
14.3运行RunLogisticRegression WithSGDBina.py进行参数评估367
14.4找出最佳参数组合370
14.5修改程序使用参数进行预测370
14.6结论372
第15章 Python Spark MLlib支持向量机SVM二元分类373
15.1支持向量机SVM算法的基本概念374
15.2运行SVMWithSGD.py进行参数评估376
15.3运行SVMWithSGD.py训练评估参数并找出最佳参数组合378
15.4运行SVMWithSGD.py使用最佳参数进行预测379
15.5结论381
第16章 Python Spark MLlib朴素贝叶斯二元分类382
16.1朴素贝叶斯分析原理的介绍383
16.2RunNaiveBayesBina.py程序说明384
16.3运行NaiveBayes.py进行参数评估386
16.4运行训练评估并找出最好的参数组合387
16.5修改RunNaiveBayesBina.py直接使用最佳参数进行预测388
16.6结论390
第17章 Python Spark MLlib决策树多元分类391
17.1“森林覆盖植被”大数据问题分析场景392
17.2UCI Covertype数据集介绍393
17.3下载与查看数据394
17.4修改PrepareData()数据准备396
17.5修改trainModel训练模型程序398
17.6使用训练完成的模型预测数据399
17.7运行RunDecisionTreeMulti.py进行参数评估401
17.8运行RunDecisionTreeMulti.py训练评估参数并找出最好的参数组合403
17.9运行RunDecisionTreeMulti.py不进行训练评估404
17.10结论406
第18章 Python Spark MLlib决策树回归分析407
18.1Bike Sharing大数据问题分析408
18.2Bike Sharing数据集409
18.3下载与查看数据409
18.4修改PrepareData()数据准备412
18.5修改DecisionTree.trainRegressor训练模型415
18.6以RMSE评估模型准确率416
18.7训练评估找出最好的参数组合417
18.8使用训练完成的模型预测数据417
18.9运行RunDecisionTreeMulti.py进行参数评估419
18.10运行RunDecisionTreeMulti.py训练评估参数并找出最好的参数组合421
18.11运行RunDecisionTreeMulti.py不进行训练评估422
18.12结论424
第19章 Python Spark SQL、DataFrame、RDD数据统计与可视化425
19.1RDD、DataFrame、Spark SQL比较426
19.2创建RDD、DataFrame与Spark SQL427
19.2.1在local模式运行IPython Notebook427
19.2.2创建RDD427
19.2.3创建DataFrame428
19.2.4设置IPython Notebook字体430
19.2.5为DataFrame创建别名431
19.2.6开始使用Spark SQL431
19.3SELECT显示部分字段434
19.3.1使用RDD选取显示部分字段434
19.3.2使用DataFrames选取显示字段434
19.3.3使用Spark SQL选取显示字段435
19.4增加计算字段436
19.4.1使用RDD增加计算字段436
19.4.2使用DataFrames增加计算字段436
19.4.3使用Spark SQL增加计算字段437
19.5筛选数据438
19.5.1使用RDD筛选数据438
19.5.2使用DataFrames筛选数据438
19.5.3使用Spark SQL筛选数据439
19.6按单个字段给数据排序439
19.6.1RDD按单个字段给数据排序439
19.6.2使用Spark SQL排序440
19.6.3使用DataFrames按升序给数据排序441
19.6.4使用DataFrames按降序给数据排序442
19.7按多个字段给数据排序442
19.7.1RDD按多个字段给数据排序442
19.7.2Spark SQL按多个字段给数据排序443
19.7.3DataFrames按多个字段给数据排序443
19.8显示不重复的数据444
19.8.1RDD显示不重复的数据444
19.8.2Spark SQL显示不重复的数据445
19.8.3Dataframes显示不重复的数据445
19.9分组统计数据446
19.9.1RDD分组统计数据446
19.9.2Spark SQL分组统计数据447
19.9.3Dataframes分组统计数据448
19.10Join联接数据450
19.10.1创建ZipCode450
19.10.2创建zipcode_tab452
19.10.3Spark SQL联接zipcode_table数据表454
19.10.4DataFrame user_df联接zipcode_df455
19.11使用Pandas DataFrames绘图457
19.11.1按照不同的州统计并以直方图显示457
19.11.2按照不同的职业统计人数并以圆饼图显示459
19.12结论461
第20章 Spark ML Pipeline机器学习流程二元分类462
20.1数据准备464
20.1.1在local模式执行IPython Notebook464
20.1.2编写DataFrames UDF用户自定义函数466
20.1.3将数据分成train_df与test_df468
20.2机器学习pipeline流程的组件468
20.2.1Stnnglndexer468
20.2.2OneHotEncoder470
20.2.3VectorAssembler472
20.2.4使用DecisionTreeClassifier二元分类474
20.3建立机器学习pipeline流程475
20.4使用pipeline进行数据处理与训练476
20.5使用pipelineModel进行预测477
20.6评估模型的准确率478
20.7使用TrainValidation进行训练验证找出最佳模型479
20.8使用crossValidation交叉验证找出最佳模型481
20.9使用随机森林RandomForestClassifier分类器483
20.10结论485
第21章 Spark ML Pipeline机器学习流程多元分类486
21.1数据准备487
21.1.1读取文本文件488
21.1.2创建DataFrame489
21.1.3转换为double490
21.2建立机器学习pipeline流程492
21.3使用dt_pipeline进行数据处理与训练493
21.4使用pipelineModel进行预测493
21.5评估模型的准确率495
21.4使用TrainValidation进行训练验证找出最佳模型496
21.7结论498
第22章 Spark ML Pipeline机器学习流程回归分析499
22.1数据准备501
22.1.1在local模式执行IPython Notebook501
22.1.2将数据分成train_df与test_df504
22.2建立机器学习pipeline流程504
22.3使用dt_pipeline进行数据处理与训练506
22.4使用pipelineModel进行预测506
22.5评估模型的准确率507
22.6使用TrainValidation进行训练验证找出最佳模型508
22.7使用crossValidation进行交叉验证找出最佳模型510
22.8使用GBT Regression511
22.9结论513
附录A 本书范例程序下载与安装说明514
A.1下载范例程序515
A.2打开本书IPython Notebook范例程序516
A.3打开eclipse PythonProject范例程序518