Zeppelin 0.6.0 配置 Spark Interpreter

导出 SPARK_HOME

修改 etx/zeppelin-env.sh,导出 SPARK_HOME 环境变量

export SPARK_HOME=/usr/local/spark  
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop  

也可以选择导出 SPARK_SUBMIT_OPTION (提交 Spark 任务选项)

在 Interpreter 菜单中配置 Spark

启动 Zeppelin 之后,进入 Interpreter 菜单。

编辑 Spark interpreter 设置中的 master 属性。该值可能根据 Spark 集群部署的类型而有所不同:

  • local[*] 本地模式
  • spark://spark-master:7007 Spark Standalone 集群
  • yarn-client YARN 集群(不支持 yarn-cluster)
  • mesos://mesos-master:5050 Mesos 集群

测试

重启 Spark Interpreter 后,新建笔记本,执行:

sc.version