-
1、绝对路径
- /data/apps/sparkhdfs-${env}
-
2、
- submit 命令--class 指定为 com.cj.spark.streaming.streaming.StartStreaming
并传入参数
test|dev|uat|prod
任一 其他配置详见package com.cj.uti.config.properties
- submit 命令--class 指定为 com.cj.spark.streaming.streaming.StartStreaming
并传入参数
-
3、
- 程序监控hdfs路径
{hdfs.data.path.$env}
,当有新的文件put上去之后,程序读取并处理
- 程序监控hdfs路径
-
4、 所需文件
-
'log4j.properties'
日志配置
-
'submit.sh'
spark-submit \ --class com.cj.spark.streaming.streaming.StartStreaming \ --master local[2] \ --conf spark.default.parallelism=6 \ --executor-memory 3G \ spark-hdfs-jar-with-dependencies.jar `env`
-
'spark-hdfs-jar-with-dependencies.jar'
程序包 参数 env 与为运行环境
-
-
1、 'StartStreaming'
-
作用:
流处理执行入口
-
参数:
env:test|dev|uat
-
-
2、 'DisposeHDFSStream'
-
作用
流处理主体,监控hdfs路径,监控路径由env参数决定
-
参数:
checkpointDirectory: appName:流处理程序名 env:test|dev|uat
-
-
3、 'DisposeRabbit'
-
作用
流处理主体,接收rabbitmq消息[已弃用]
-
参数:
appName:流处理程序名
-
- 1、 'DisposeRabbit'
-
作用
类表,创建DataFrame
-
-
1、 'config.properties'
-
作用
配置文件
-
-
2、 'ConfigerHelper'
-
作用
获取配置文件内item
-
-
3、 'DBHelper'
-
作用
获取配置文件内item
-
参数:
env:test|dev|uat
-
-
4、 'GraceCloseHelper'
-
作用
Streaming守护线程,用户停止流处理
-
参数:
StreamingContext
-
- Streaming-RabbitMq 源码