一、常见部署模式分类
1. 按是否依赖外部资源调度
1.1 Standalone 模式
独立模式 (Standalone) 是独立运行的,不依赖任何外部的资源管理平台,只需要运行所有 Flink 组件服务
1.2 Yarn 模式
Yarn 模式是指客户端把 Flink 应用提交给 Yarn 的 ResourceManager, Yarn 的 ResourceManager 会在 Yarn 的 NodeManager 上创建容器。在这些容器上,Flink 会部署 JobManager 和 TaskManager 的实例,从而启动集群。Flink 会根据运行在 JobManger 上的作业所需要的 Slot 数量动态分配 TaskManager 资源
2. 按集群的生命周期和执行位置
2.1 会话模式
- 会话模式 (Session Mode) 是指先启动一个集群,保持一个会话并且确定所有的资源,然后向集群提交作业,所有提交的作业会竞争集群中的资源,从而会出现资源不足作业执行失败的情况
- 会话模式比较适合于单个规模小、执行时间短的大量作业
2.2 单作业模式
- 单作业模式 (Per-Job Mode) 是指为每一个提交的作业启动一个集群,由客户端运行应用程序,然后启动集群,作业被提交给 JobManager,进而分发给 TaskManager 执行。作业作业完成后,集群就会关闭,所有资源也会释放。
- 单作业模式在生产环境运行更加稳定,所以是实际应用的首选模式
- 单作业模式一般需要借助一些资源管理框架来启动集群,比如 YARN、Kubernetes
2.3 应用模式
- 应用模式 (Application Mode) 是指为每一个提交的应用单独启动一个 JobManager,也就是创建一个集群。这个 JobManager 只为执行这一个应用而存在,执行结束之后 JobManager 也就关闭了。这一模式下没有客户端的存在
- 应用模式与单作业模式,都是提交作业之后才创建集群;单作业模式是通过客户端来提交作业的,客户端解析出的每一个作业对应一个集群;而应用模式下,是直接由 JobManager 执行应用程序的,并且即使应用包含了多个作业,也只创建一个集群
二、常见部署模式组合
- Standalone + 会话模式
- Standalone + 应用模式
- Yarn + 会话模式
- Yarn + 单作业模式
- Yarn + 应用模式
三、独立模式安装
1. 单节点安装
-
flink 下载地址:https://flink.apache.org/downloads/
-
下载 flink 安装包:
flink-1.10.1-bin-scala_2.12.tgz
-
将安装包上传到虚拟机节点并解压缩
tar -zxvf flink-1.10.1-bin-scala_2.12.tgz -C /opt/module cd /opt/module mv flink-1.10.1 flink
-
进入 flink 安装目录,执行启动命令,并查看进程
cd /opt/module/flink bin/start-cluster.sh jps
-
访问 http://hadoop102:8081 进入 flink 集群和任务监控管理 Web 页面
-
关闭 flink:
bin/stop-cluster.sh
2. 集群安装
2.1 集群规划
节点服务器 | hadoop102 | hadoop103 | hadoop104 |
---|---|---|---|
角色 | JobManager | TaskManager | TaskManager |
2.2 步骤
-
下载 flink 安装包:
flink-1.10.1-bin-scala_2.12.tgz
-
将安装包上传到 hadoop102 并解压缩
tar -zxvf flink-1.10.1-bin-scala_2.12.tgz -C /opt/module cd /opt/module mv flink-1.10.1 flink
-
进入 flink 安装目录下的 conf 目录,修改配置文件
flink-conf.yaml
cd /opt/module/flink/conf vim flink-conf.yaml
#修改 jobmanager 内部通信主机名 jobmanager.rpc.address: hadoop102 jobmanager.rpc.port: 6123
-
修改 conf 目录下的 slaves 文件,配置 taskmanager 节点
vim slaves #1.13版本为 workers 文件 #添加内容 hadoop103 hadoop104
-
flink-conf.yaml
文件中常用配置项:#对 JobManager 进程可使用到的全部内存进行配置,包括 JVM 元空间和其他开销,默认为 1600M,可以根据集群规模进行适当调整 jobmanager.memory.process.size: 1600 #对 TaskManager 进程可使用到的全部内存进行配置,包括 JVM 元空间和其他开销,默认为 1600M,可以根据集群规模进行适当调整 taskmanager.memory.process.size: 1600 #对每个 TaskManager 能够分配的 TaskSlot 数量进行配置,默认为 1,可根据 TaskManager 所在的机器能够提供给 Flink 的 CPU 数量决定。Slot 就是 TaskManager 中具体运行一个任务所分配的计算资源 taskmanager.numberOfTaskSlots: 1 #Flink 任务执行的默认并行度,优先级低于代码中进行的并行度配置和任务提交时使用参数指定的并行度数量 parallelism.default: 1
-
分发 flink 安装目录到 hadoop103 和 hadoop104
-
在 hadoop102 上启动 flink 集群
cd /opt/module/flink bin/start-cluster.sh jps
-
访问
http://hadoop102:8081
查看 flink 监控页面
3. 提交任务
3.1 会话模式提交
-
启动 Flink 集群服务
-
在 hadoop102 中启动 netcat 网络端口
nc -lk 7777
-
Web 页面提交
- 将编码好的 Flink maven 工程打成 jar 包
- 访问
http://hadoop102:8081
进入 flink 监控页面,选择左侧的Submit New Job
选项菜单 - 点击
+Add New
按钮,然后选择 jar 包进行上传 - 点击页面上上传好的 jar 包项,配置填写主程序类全类名、启动参数项、并行度等;点击
submit
提交任务 - 在页面左侧的
overview
和jobs
等菜单选项下查看任务运行情况 - 一个 job 所占据的 TaskSlots 数等于该 job 中最大的并行度
-
命令行提交
#提交任务:bin/flink run -m [jobmanager主机和端口] -c [主程序类全类名] -p [并行度] [jar包的绝对路径] [--param1 value1 --param2 value2 ...] cd flink bin/flink run -m hadoop102:8081 -c com.app.wc.StreamWordCount2 -p 3 /project/FlinkTutorial/target/FlinkTutorial-1.0-SNAPSHOT.jar --host localhost --port 7777 #查看job:-a 可以查看已经取消的job bin/flink list [-a] #取消job bin/flink cancel [jobId]
3.2 应用模式提交
-
不能使用
start-cluster.sh
命令启动集群 -
将编码好的 Flink maven 工程打成 jar 包,并将 jar 包上传到 flink 安装目录下的 lib 目录
-
启动 JobManager
cd /opt/module/flink bin/standalone-job.sh start --job-classname com.app.wc.StreamWordCount2
-
启动 TaskManager
cd /opt/module/flink bin/taskmanager.sh start
-
访问
http://hadoop102:8081
查看 flink 监控页面的作业执行 -
关闭
cd /opt/module/flink bin/standalone-job.sh stop bin/taskmanager.sh stop
4. 高可用集群安装
4.1 集群规划
节点服务器 | hadoop102 | hadoop103 | hadoop104 |
---|---|---|---|
角色 | JobManager | JobManager / TaskManager | TaskManager |
4.2 步骤
-
在 hadoop102 上进入 flink 目录下的 conf 目录,修改
flink-conf.yaml
文件cd /opt/module/flink/conf vim flink-conf.yaml
#添加内容 high-availability: zookeeper high-availability.storageDir: hdfs://hadoop102:9820/flink/standalone/ha high-availability.zookeeper.quorum: hadoop102:2181,hadoop103:2181,hadoop104:2181 high-availability.zookeeper.path.root: /flink-standalone high-availability.cluster-id: /cluster_atguigu
-
修改 masters 文件
vim masters #添加 hadoop102:8081 hadoop103:8081
-
分发配置到其他节点
-
启动
#保证hadoop环境变量配置生效 #启动 hadoop 集群和 Zookeeper 集群 #启动 flink 集群 cd /opt/module/flink bin/start-cluster.sh
-
访问:
http://hadoop102:8081
和http://hadoop103:8081
四、Yarn 模式安装
1. 安装步骤
-
下载安装包:
- flink 1.8 版本之前可以直接下载基于 hadoop 版本编译的安装包
- flink 1.8 及之后的版本除了下载基本的安装包之外,还需要下载 Hadoop 相关版本的组件,如
flink-shaded-hadoop-2-uber-2.7.5-10.0.jar
,并将该组件上传至 Flink 的 lib 目录下 - flink 1.11 版本之后,不再提供
flink-shaded-hadoop-*
的 jar 包,而是通过配置环境变量完成与 Yarn 集群的对接
-
将安装包上传到虚拟机并解压缩
tar -zxvf flink-1.10.1-bin-scala_2.12.tgz -C /opt/module cd /opt/module mv flink-1.10.1 flink
-
进入 conf 目录,修改
flink-conf.yaml
文件cd /opt/module/flink/conf vim flink-conf.yaml
#修改 jobmanager.memory.process.size: 1600m taskmanager.memory.process.size: 1728m taskmanager.numberOfTaskSlots: 8 parallelism.default: 1
-
确保正确安装 Hadoop 集群和配置 Hadoop 环境变量
sudo vim /etc/profile.d/my_env.sh export HADOOP_HOME=/opt/module/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export HADOOP_CLASSPATH=`hadoop classpath`
2. 提交任务
2.1 会话模式提交
-
启动 Hadoop 集群
-
执行脚本命令向 Yarn 集群申请资源,开启一个 Yarn 会话,启动 Flink 集群
cd /opt/module/flink bin/yarn-session.sh -nm test #-n 参数:指定 TaskManager 数量 #-s 参数:指定 slot 数量 #-d:分离模式,如果你不想让 Flink YARN 客户端一直前台运行,可以使用这个参数,即使关掉当前对话窗口,YARN session 也可以后台运行。 #-jm(--jobManagerMemory):配置 JobManager 所需内存,默认单位 MB。 #-nm(--name):配置在 YARN UI 界面上显示的任务名。 #-qu(--queue):指定 YARN 队列名。 #-tm(--taskManager):配置每个 TaskManager 所使用内存
-
提交作业
-
Web UI 提交,同独立模式
-
命令行提交:
#1.将打包好的任务运行 JAR 包上传至集群 #2.执行命令 cd /opt/module/flink bin/flink run -c com.app.wc.StreamWordCount2 FlinkTutorial-1.0-SNAPSHOT.jar
-
-
访问 yarn Web UI 界面或 flink Web UI 界面查看作业执行情况
2.2 单作业模式提交
-
启动 Hadoop 集群
-
直接向 Yarn 提交一个单独的作业,从而启动一个 Flink 集群
cd /opt/module/flink #命令一: bin/flink run -d -t yarn-per-job -c com.app.wc.StreamWordCount2 FlinkTutorial-1.0-SNAPSHOT.jar #命令二: bin/flink run -m yarn-cluster -c com.app.wc.StreamWordCount2 FlinkTutorial-1.0-SNAPSHOT.jar
-
访问 yarn Web UI 界面或 flink Web UI 界面查看作业执行情况
-
取消作业:
cd /opt/module/flink bin/flink list -t yarn-per-job -Dyarn.application.id=application_XXXX_YY bin/flink cancel -t yarn-per-job -Dyarn.application.id=application_XXXX_YY <jobId>
2.3 应用模式提交
-
启动 Hadoop 集群
-
执行命令提交作业
#上传 jar 包到集群 cd /opt/module/flink bin/flink run-application -t yarn-application -c com.app.wc.StreamWordCount2 FlinkTutorial-1.0-SNAPSHOT.jar #上传 jar 包到 hdfs bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirs="hdfs://myhdfs/my-remote-flink-dist-dir" hdfs://myhdfs/jars/my-application.jar
-
查看或取消作业
/opt/module/flink bin/flink list -t yarn-application -Dyarn.application.id=application_XXXX_YY bin/flink cancel -t yarn-application -Dyarn.application.id=application_XXXX_YY <jobId>
3. 高可用配置
YARN 的高可用是只启动一个 Jobmanager, 当这个 Jobmanager 挂了之后, YARN 会再次启动一个, 本质是利用的 YARN 的重试次数来实现的高可用
-
在
yarn-site.xml
中配置<property> <name>yarn.resourcemanager.am.max-attempts</name> <value>4</value> <description> The maximum number of application master execution attempts. </description> </property>
-
分发配置到其他节点
-
在
flink-conf.yaml
中配置yarn.application-attempts: 3 #要小于 yarn 的重试次数 high-availability: zookeeper high-availability.storageDir: hdfs://hadoop102:9820/flink/yarn/ha high-availability.zookeeper.quorum: hadoop102:2181,hadoop103:2181,hadoop104:2181 high-availability.zookeeper.path.root: /flink-yarn
-
启动 yarn-session,杀死 JobManager, 查看复活情况
本站资源均来自互联网,仅供研究学习,禁止违法使用和商用,产生法律纠纷本站概不负责!如果侵犯了您的权益请与我们联系!
转载请注明出处: 免费源码网-免费的源码资源网站 » 详解 Flink 的常见部署方式
发表评论 取消回复