当前位置:首页 >知识 >来看看基于Kubernetes的Spark部署完全指南 但最近情况有所变化

来看看基于Kubernetes的Spark部署完全指南 但最近情况有所变化

2024-07-01 10:22:22 [百科] 来源:避面尹邢网

来看看基于Kubernetes的基于Spark部署完全指南

作者:Linux速推文章 云计算 大数据 Spark 本文是在Kubernets上搭建Spark集群的操作指南,同时提供了Spark测试任务及相关的部署测试数据,通过阅读本文,完全你可以实践从制作Spark镜像、指南搭建Spark容器集群,基于到在集群上运行测试任务的部署完整流程。

本文是完全在Kubernets上搭建Spark集群的操作指南,同时提供了Spark测试任务及相关的指南测试数据,通过阅读本文,基于你可以实践从制作Spark镜像、部署搭建Spark容器集群,完全到在集群上运行测试任务的指南完整流程。

Yarn曾经是基于Hadoop默认的资源编排管理平台。但最近情况有所变化,部署特别是完全对于Hadoop中的Spark,由于其与S3等其他存储平台集成得很好,而与Hadoop生态中其他组件反而没有太紧密的关联,因此Kubernetes正迅速替代Yarn,成为基于对象存储的Spark系统的默认编排管理平台。在这篇文章中,我们将深入研究如何在Kubernetes集群上构建和部署Spark容器。由于Spark的运行依赖于数据,我们将配置Spark集群通过S3 API进行存储操作。 

来看看基于Kubernetes的Spark部署完全指南 但最近情况有所变化

来看看基于Kubernetes的Spark部署完全指南

构建Spark容器

来看看基于Kubernetes的Spark部署完全指南 但最近情况有所变化

在Kubernetes上部署应用的第一步,是创建容器。虽然有些项目会提供官方的容器镜像,但截止到写此文时,Apache Spark并没有提供官方镜像。因此我们将自己创建Spark容器,让我们从Dockerfile开始。

来看看基于Kubernetes的Spark部署完全指南 但最近情况有所变化

  1. FROM java:openjdk-8-jdk  
  2.   
  3. ENV hadoop_ver 2.8.2  
  4. ENV spark_ver 2.4.4  
  5.   
  6. RUN mkdir -p /opt && \  
  7. cd /opt && \  
  8. curl http://archive.apache.org/dist/hadoop/common/hadoop-${ hadoop_ver}/hadoop-${ hadoop_ver}.tar.gz | \  
  9.     tar -zx && \  
  10. ln -s hadoop-${ hadoop_ver} hadoop && \  
  11. echo Hadoop ${ hadoop_ver} installed in /opt  
  12.   
  13. RUN mkdir -p /opt && \  
  14. cd /opt && \  
  15. curl http://archive.apache.org/dist/spark/spark-${ spark_ver}/spark-${ spark_ver}-bin-without-hadoop.tgz | \  
  16.     tar -zx && \  
  17. ln -s spark-${ spark_ver}-bin-without-hadoop spark && \  
  18. echo Spark ${ spark_ver} installed in /opt  
  19.   
  20. ENV SPARK_HOME=/opt/spark  
  21. ENV PATH=$PATH:$SPARK_HOME/bin  
  22. ENV HADOOP_HOME=/opt/hadoop  
  23. ENV PATH=$PATH:$HADOOP_HOME/bin  
  24. ENV LD_LIBRARY_PATH=$HADOOP_HOME/lib/native  
  25.   
  26. RUN curl http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar -o /opt/spark/jars/hadoop-aws-2.8.2.jar  
  27. RUN curl http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar -o /opt/spark/jars/httpclient-4.5.3.jar  
  28. RUN curl http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar -o /opt/spark/jars/joda-time-2.9.9.jar  
  29. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-core-1.11.712.jar  
  30. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-1.11.712.jar  
  31. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-kms-1.11.712.jar  
  32. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-s3-1.11.712.jar  
  33.   
  34. ADD start-common.sh start-worker start-master /  
  35. ADD core-site.xml /opt/spark/conf/core-site.xml  
  36. ADD spark-defaults.conf /opt/spark/conf/spark-defaults.conf  
  37. ENV PATH $PATH:/opt/spark/bin  

在这个Dockerfile中,我们首先从官方地址下载Apache Spark和Hadoop,然后从Maven获取关联的jar包。当所有关联的文件都已经下载并解压到一个特定的目录后,我们将这些重要的配置文件添加到镜像中。

在这个过程中,你可以很方便的添加自己环境特有的配置。

原本我们可以跳过以上步骤,直接使用一个预先构建好的镜像,但是通过解读这些步骤可以让我们的读者看到Spark容器内部的内容,高级用户可以据此修改来满足他们特殊的需求。

以上示例中使用到的Dockerfile和其他关联的配置文件,可以从这个GitHub仓库中获取。如果要使用这个仓库中的内容,请先使用以下命令将其克隆到本地:

  1. git clone git@github.com:devshlabs/spark-kubernetes.git 

现在,你可以根据需要在你的环境中进行任何更改,然后构建镜像,并上传到你使用的容器注册表中。在本文的示例中,我使用Dockerhub作为容器注册表,命令如下:

  1. cd spark-kubernetes/spark-container  
  2. docker build . -t mydockerrepo/spark:2.4.4  
  3. docker push mydockerrepo/spark:2.4.4 

记得将其中的mydockerrepo替换为你实际的注册表名字。

在Kubernetes上部署Spark

至此,Spark容器镜像已经构建好,并可以拉取使用了。让我们使用此镜像来部署Spark Master和Worker。第一步是创建Spark Master。我们将使用Kubernetes ReplicationController创建Spark Master。在本文的示例中,我仅用单实例创建Spark Master。而在有HA需求的生产环境中,你可能需要将副本数设置为3或者以上。

  1. kind: ReplicationController  
  2. apiVersion: v1  
  3. metadata:  
  4. name: spark-master-controller  
  5. spec:  
  6. replicas: 1  
  7. selector:  
  8. component: spark-master  
  9. template:  
  10. metadata:  
  11.   labels:  
  12.     component: spark-master  
  13. spec:  
  14.   hostname: spark-master-hostname  
  15.   subdomain: spark-master-headless  
  16.   containers:  
  17.     - name: spark-master  
  18.       image: mydockerrepo/spark:2.4.4  
  19.       imagePullPolicy: Always  
  20.       command: ["/start-master"]  
  21.       ports:  
  22.         - containerPort: 7077  
  23.         - containerPort: 8080  
  24.       resources:  
  25.         requests:  
  26.           cpu: 100m  

为了使Spark Worker节点可以发现Spark Master节点,我们还需要创建headless服务。当你从GitHub仓库完成克隆,并进入spark-kubernetes目录后,就可以启动Spark Master服务了,命令如下:

  1. kubectl create -f spark-master-controller.yaml  
  2. kubectl create -f spark-master-service.yaml  

现在,确保Master节点和所有的服务都正常运行,然后就可以开始部署Worker节点了。Spark Worker的副本数设置为2,你可以根据需要修改。Worker启动命令如下:kubectl create -f spark-worker-controller.yaml最后,通过以下命令确认是否所有服务都正常运行:kubectl get all执行以上命令,你应该可以看到类似下面的内容:

  1. NAME                               READY     STATUS    RESTARTS   AGE  
  2. po/spark-master-controller-5rgz2   1/1       Running   0          9m  
  3. po/spark-worker-controller-0pts6   1/1       Running   0          9m  
  4. po/spark-worker-controller-cq6ng   1/1       Running   0          9m  
  5.   
  6. NAME                         DESIRED   CURRENT   READY     AGE  
  7. rc/spark-master-controller   1         1         1         9m  
  8. rc/spark-worker-controller   2         2         2         9m  
  9.   
  10. NAME               CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE  
  11. svc/spark-master   10.108.94.160           7077/TCP,8080/TCP   9m  

向Spark集群提交Job

现在让我们提交一个Job,看看是否执行正常。不过在此之前,你需要一个有效的AWS S3账户,以及存有样本数据的桶存在。我使用了Kaggle下载样本数据,样本数据可以从https://www.kaggle.com/datasna ... s.csv获取,获取以后需要上传到S3的桶里。假定桶名是s3-data-bucket,那么样本数据文件则位于s3-data-bucket/data.csv。数据准备好以后,将其加载到一个Spark master pod中执行。以Pod名为spark-master-controller-5rgz2为例,命令如下:kubectl exec -it spark-master-controller-v2hjb /bin/bash如果你登录进入了Spark系统,可以运行Spark Shell:

  1. export SPARK_DIST_CLASSPATH=$(hadoop classpath)  
  2. spark-shell  
  3. Setting default log level to "WARN".  
  4. To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).  
  5. Spark context Web UI available at http://192.168.132.147:4040  
  6. Spark context available as 'sc' (master = spark://spark-master:7077, app id = app-20170405152342-0000).  
  7. Spark session available as 'spark'.  
  8. Welcome to  
  9.   ____              __  
  10.  / __/__  ___ _____/ /__  
  11. _\ \/ _ \/ _ `/ __/  '_/  
  12. /___/ .__/\_,_/_/ /_/\_\   version 2.4.4  
  13.   /_/  
  14.   
  15. Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_221)  
  16. Type in expressions to have them evaluated.  
  17. Type :help for more information.  
  18.   
  19. scala>  

现在让我们告诉Spark Master,S3存储的详细信息,在上文所示的Scale提示符中输入以下配置:

  1. sc.hadoopConfiguration.set("fs.s3a.endpoint", "https://s3.amazonaws.com")  
  2. sc.hadoopConfiguration.set("fs.s3a.access.key", "s3-access-key")  
  3. sc.hadoopConfiguration.set("fs.s3a.secret.key", "s3-secret-key")  

现在,只需将以下内容粘贴到Scala提示符中,以提交Spark Job(请记得修改S3相关字段):

  1. import org.apache.spark._  
  2. import org.apache.spark.rdd.RDD  
  3. import org.apache.spark.util.IntParam  
  4. import org.apache.spark.sql.SQLContext  
  5. import org.apache.spark.graphx._  
  6. import org.apache.spark.graphx.util.GraphGenerators  
  7. import org.apache.spark.mllib.regression.LabeledPoint  
  8. import org.apache.spark.mllib.linalg.Vectors  
  9. import org.apache.spark.mllib.tree.DecisionTree  
  10. import org.apache.spark.mllib.tree.model.DecisionTreeModel  
  11. import org.apache.spark.mllib.util.MLUtils  
  12.   
  13. val conf = new SparkConf().setAppName("YouTube")  
  14. val sqlContext = new SQLContext(sc)  
  15.   
  16. import sqlContext.implicits._  
  17. import sqlContext._  
  18.   
  19. val youtubeDF = spark.read.format("csv").option("sep", ",").option("inferSchema", "true").option("header", "true").load("s3a://s3-data-bucket/data.csv")  
  20.   
  21. youtubeDF.registerTempTable("popular")  
  22.   
  23. val fltCountsql = sqlContext.sql("select s.title,s.views from popular s")  
  24. fltCountsql.show()  

最后,你可以使用kubectl patch command命令更新Spark部署。比如,你可以在负载较高时添加更多工作节点,然后在负载下降后删除这些工作节点。

 

责任编辑:未丽燕 来源: 今日头条 KubernetesSpark数据

(责任编辑:热点)

    推荐文章
    • 四川宜宾:打通农民工服务“最后一米” 全面推动地方产业发展提速增效

      四川宜宾:打通农民工服务“最后一米” 全面推动地方产业发展提速增效为切实解决家乡企业的所思所盼,用心用情为农民工保驾护航,全面推动地方产业发展提速增效,4月21日,屏山县江北片区农民工综合服务站正式启用,该站是宜宾首创之举,将农民工综合服务站建在工业园区里,旨在零距 ...[详细]
    • 菜鸟裹裹地址簿怎么删除

      菜鸟裹裹地址簿怎么删除菜鸟裹裹是一款可以让用户们自由查询和领取快递的软件,在这里地址簿中的地址是可以删除的,那么要怎么删除地址呢?下面就和小编来看一下删除地址的方法吧。1.首先打开菜鸟裹裹软件,进入到首页之后点击右下角的【 ...[详细]
    • 数据迁移:在平台之间移动数据的优秀实践

      数据迁移:在平台之间移动数据的优秀实践数据迁移:在平台之间移动数据的优秀实践作者:Damian Alderson 2022-05-30 10:20:51大数据 数据迁移在不同的上下文中可能意味着不同的东西,但在实践中,当我们谈论数据迁移时 ...[详细]
    • APISIX Ingress 高级使用之 Url Rewrite

      APISIX Ingress 高级使用之 Url RewriteAPISIX Ingress 高级使用之 Url Rewrite作者:阳明 2022-01-12 08:10:40运维 系统运维 前面我们了解了 APISIX Ingress 的基本使用,同样我们来介 ...[详细]
    • 印花税缴纳方式是怎样的 征税范围主要包括哪些方面?

      印花税缴纳方式是怎样的 征税范围主要包括哪些方面?大家在购买股票时,都是要缴纳印花税的,不过大家对印花税并不是很了解。有网友询问,印花税按月交吗?印花税征税范围主要包括哪些方面?具体情况跟小编一起去看看吧。据了解,印花税不是按月交,而是按次交的。印花 ...[详细]
    • 100倍焦段也清晰展现,荣耀Magic4堪称手机界望远镜,3999元起

      100倍焦段也清晰展现,荣耀Magic4堪称手机界望远镜,3999元起荣耀Magic4的长焦表现十分惊喜。3.5倍、10倍变焦无需多言,几乎就像是主摄拍出来的。即使到了100倍变焦,荣耀Magic4依然可以清晰地表现出建筑物的细节。由于智能手机拍照能力的提升,现如今很多 ...[详细]
    • 微信在哪查看收款积分

      微信在哪查看收款积分微信是一款很多用户都在使用的社交软件,很多用户在使用的时候比较好奇微信在哪查看收款积分呢?现在就和小编一起来看一下微信查看收款积分的方法吧。1、首先打开微信软件进入到首页之后点击【微信收款助手】;2、 ...[详细]
    • 「新能源出行」如何安装家用充电桩?通关攻略在这里

      「新能源出行」如何安装家用充电桩?通关攻略在这里家用充电桩如何安装?随着新能源车行业技术越来越成熟,电动车的优势也逐渐体现。就不说政策上的新能源车牌以及购车优惠了~在使用中,我们就能明显得感受到它的优势,比如舒适的起步体验;行驶中相比汽油车更安静的 ...[详细]
    • 如何看懂k线图 股票经典K线组合顺口溜

      如何看懂k线图 股票经典K线组合顺口溜如何看懂k线图?k线也叫蜡烛线,图起源于日本的米市,最早用于记录大米价格的。在股市中,一根k线包含了股票价格,其中,最高价和最低价,表示股票当天的价格最高点和价格最低点;开盘价和收盘价,表示当天开盘时 ...[详细]
    • 它们凭什么成为江苏势头最猛的新商场?

      它们凭什么成为江苏势头最猛的新商场?2023年8月23-24日,诚邀您于上海共同参与2023中国国际)购物中心峰会,一同打开国际视野,以市场为导向释放消费潜力,激活购物中心发展的内生动力。在此之前,赢商网将推出「城市商业新生力」系列报道 ...[详细]
    热点阅读