2 spark上机实验手册-v1.0.pdf

  1. 1、本文档共29页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2 spark上机实验手册-v1.0

目录 第1 章 安装部署Spark2 1 解压并安装Spark 2 2 配置Hadoop 环境变量2 3 验证Spark 安装3 第2 章Spark 上机操作5 1 Spark shell 使用5 2 运行Spark 程序5 第3 章 开发Spark 分布式程序6 1 安装idea 6 2 编写案例14 3 编写与调试Spark 程序17 4 分布式运行spark 程序21 5 spark 程序设计22 6 kafka 的安装23 7 Streaming 处理socket 数据24 8 Streaming 处理kafka 数据25 第1 章 安装部署Spark 该部分的安装需要在Hadoop 已经成功安装的基础上,并且要求Hadoop 已经正常启动。 我们将Spark 安装在HadoopMaster 节点上。所以下面的所有操作都在HadoopMaster 节 点上进行。 下面所有的操作都使用zkpk 用户,切换zkpk 用户的命令是: su - zkpk 密码是:zkpk 1 解压并安装Spark 注意:本文档使用的spark 是1.4.1 版本,实际培训时可能会改变,在进行操作时,请替换 成实际的版本。 使用下面的命令,解压Spark 安装包: cd /home/zkpk/software mv spark-1.5.2-bin-2.5.2.tgz ~/app cd app tar -zxvf spark-1.5.2-bin-2.5.2.tgz cd spark-1.5.2-bin-2.5.2 执行一下ls -l 命令会看到下面的图片所示内容,这些内容是Spark 包含的文件: 2 配置Hadoop 环境变量 在Yarn 上运行Spark 需要配置HADOOP_CONF_DIR、YARN_CONF_DIR 和HDFS_CONF_DIR 环境变量 命令: 第 4 章 安装部署 Spark gedit ~/.bash_profile 在下面添加 如下代码: export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop 保存关闭后,执行: source ~/.bash_profile 使得环境变量生效。 3 验证Spark 安装 进入Spark 安装主目录, cd ~/app/spark-1.5.2-bin-2.5.2 ./bin/spark-submit --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ --num-executors 3 \ --driver-memory 1g \ --executor-memory 1g \ --executor-cores 1 \ lib/spark-examples*.jar \ 10 执行命令后会出现如下界面: 查看执行结果需要在计算节点上。执行下面代码: ssh slave cd $HADOOP_HOME/logs/userlogs/

文档评论(0)

yan698698 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档