目录

1、下载安装包

2、解压及配置

3、启动&测试

4、测试FlinkSQL读取hive数据 

以上是mac硬件配置

1、下载安装包

官网:Downloads | Apache Flink

网盘:

Flink 安装包 https://pan.baidu.com/s/1IN62_T5JUrnYUycYMwsQqQ?pwd=gk4e 

Flink 已配置好的包 https://pan.baidu.com/s/1j05iID60YBGeGgR8d5e2eA?pwd=k2pd

2、解压及配置

# 解压安装包

mv ~/Download/flink-1.16.3-bin-scala_2.12.tgz /opt/module

cd /opt/module

tar -zxvf flink-1.16.3-bin-scala_2.12.tgz

mv flink-1.16.3 flink

cd flink

# 将运行flinksql读取jdbc和hive相关的jar添加到lib中去

cp /opt/module/hive/lib/antlr-runtime-3.5.2.jar ./lib
cp /opt/module/hive/lib/hive-exec-3.1.3.jar ./lib
cp ~/Download/mysql-connector-java-8.0.11.jar ./lib
cp ~/Download/flink-sql-connector-hive-3.1.3_2.12-1.19.0.jar ./lib
cp ~/Download/flink-connector-jdbc-1.16.3.jar ./lib

# 修改配置,本地调试只需关注下面的配置,根据实际情况修改
vim conf/flink-conf.yaml
jobmanager.rpc.address: localhost

jobmanager.rpc.port: 6123

jobmanager.bind-host: localhost

jobmanager.memory.process.size: 1600m

taskmanager.bind-host: localhost

taskmanager.host: localhost

taskmanager.memory.process.size: 4096m

taskmanager.numberOfTaskSlots: 1

parallelism.default: 1
# webui的端口,这里修改是因为与其他应用的端口冲突了
rest.port: 8090
# webui的端口可选范围
rest.bind-port: 8090-8990
# 页面上提交任务
web.submit.enable: true
# 页面上取消任务
web.cancel.enable: true
vim bin/config.sh

# 在顶部添加如下配置

# 因为我按照了多个版本的java虚拟机
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk8/Contents/Home

# 我在全局环境变量中配置了,但是运行flinksql时还是报错说找不到hadoop相关jar里面的类,故在此添加
export HADOOP_CLASSPATH=`hadoop classpath`

3、启动&测试

./bin/start-cluster.sh

# 到log目录查看启动日志,如有报错则需根据提示进行解决
tail -999f log/flink-shenxiang-standalonesession-0-*.local.log

# 启动成功可以看看webui,在浏览器中访问http://localhost:8090/

 

# 跑一下测试的jar,出现如下图则表示成功
# 批任务
./bin/flink run examples/batch/WordCount.jar

# 流任务
./bin/flink run examples/streaming/WordCount.jar
# 通过下面的日志查看运行结果

 

4、测试FlinkSQL读取hive数据 

# 打开sql-client模式
./bin/sql-client.sh

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部