大数据组件 All-in-One 的 Dockerfile。
各个组件的版本信息如下(MySQL的 root 密码为 root):
组件 | 版本 |
---|---|
基础镜像 | ubuntu:18.04 |
Hadoop | 3.1.4 |
Spark | 2.4.4 |
Hive (on Tez) | 3.1.2 |
Tez | 0.9.2 |
Hue | 4.5.0 |
Flink | 1.9.1 |
Zookeeper | 3.5.6 |
Kafka | 2.3.1 |
MySQL | 5.7 |
镜像已经推送到Docker Hub,直接执行如下命令应当会开始拉取镜像:
docker run -it -p 8088:8088 -p 8888:8888 -h bigdata iamabug1128/bdp bash
或者 clone 本项目并执行 run-bdp.sh
脚本。
8088 是 YARN 的 Web UI 端口,8888 是 Hue 的端口。
主机名必须指定为 bigdata。
进入镜像后,启动所有组件的命令:
/run/entrypoint.sh
或者,单独启动 Kafka:
/run/start_kafka.sh
查看进程,确认所有进程都已经启动:
root@bigdata:/# jps
1796 ResourceManager
1316 DataNode
2661 RunJar
1205 NameNode
2662 RunJar
3719 Jps
1914 NodeManager
1530 SecondaryNameNode
523 QuorumPeerMain
543 Kafka
除了 Hue 安装在 /usr/share/hue
、MySQL 安装在系统路径以外,其它所有的组件的安装在 /usr/local/
目录下:
root@bigdata:/# ls /usr/local/
bin etc flink games hadoop hive include kafka lib man sbin share spark src tez zookeeper
访问 localhost:8888
,输入 admin, admin
登录 Hue,点击左侧 Files
导航按钮,出现文件浏览器页面:
点击右上角的 Upload
按钮,选择一个文件上传,上传后页面:
回到容器的命令行中,查看 /user/admin
目录:
说明上传确实成功了。
在命令行中切换到 /usr/local/flink
目录,执行 ./bin/flink run -m yarn-cluster -p 4 -yjm 1024m -ytm 4096m ./examples/batch/WordCount.jar
:
在浏览器中打开 http://localhost:8088
,可以看到正在执行的 Flink 任务:
任务顺利完成:
目录结构如下:
BigDataParty $ tree
.
├── Dockerfile
├── README.md
├── build.sh
├── conf
├── packages
├── run-bdp.sh
└── scripts
除了 README 和 Dockerfile 各文件目录简介如下:
- build.sh:下载各组件的压缩包并执行
docker build
- run-bdp.sh:运行构建好的镜像,并暴露 Hue 和 Yarn 的 Web 端口
- conf:存放各个组件的配置文件,构建镜像时拷贝到各组件的目录下
- packages:存放各个组件的压缩包,构建镜像时解压到
/usr/local
目录下 - scripts:存放各个组件初始化和启动脚本,构建镜像时拷贝到
/run
目录下
写这个镜像的目的是为了方便自己平时使用(学习、测试、验证等等),以后还会继续完善,如果你有兴趣,欢迎加入我。