使用 docker 一键搭建 hadoop,hbase, hive 等大数据集群
注意资源的下载地址:链接: https://pan.baidu.com/s/1YSqC59v1djKamLBrfr9L2g密码: wrs2有问题联系我:lizhenchao@atguigu.cn目录说明不要更改docker_bigdata及子目录的目录结构进入到docker_bigdata目录下再执行脚本镜像构建说明build_all.sh 可以构建需要用到的所有镜像, 运行的时候, 根据自己的需
·
注意
资源的下载地址:
链接:https://pan.baidu.com/s/1kPIsw62TpUHQp7HN6r4HAw?pwd=mfyx 提取码:mfyx
有问题联系我:lizhenchao@atguigu.cn
脚本的运行环境: centos7.5 +
目录说明
- 不要更改
docker_bigdata
及子目录的目录结构 - 进入到
docker_bigdata
目录下再执行脚本
镜像构建说明
- build_all.sh 可以构建需要用到的所有镜像, 运行的时候, 根据自己的需要选择需要构建的镜像,最后会创建 3 个容器 hadoop162, hadoop163, hadoop164
- 容器构建后, 直接可用的环境包括
- hadoop集群
- zookeeper集群
- kafka集群
- hbase集群
- es集群
- redis
- hive
- spark
- Phoenix
容器启动说明
- contains.sh start 启动集群容器
- 启动的时候会自动根据当前宿主机的 ip 进行配置, 3 个容器的 ip 分别是 xxx.162, xxx.163, xxx.164, xxx 是根据当前宿主的 ip 自动获取的
- 内置了root和atguigu用户, 密码均为aaaaaa
- 容器第一次启动已经完成的事情
- 虚拟机与容器之间免密登录
- 容器与容器之间免密登录
- 格式化hdfs
- 给mysql的root用户设置密码为aaaaaa
特别说明
- 容器一旦创建成功之后, 以后使用的时候启动即可
- 启动 hadoop: hadoop.sh start
- 启动 kafka: kafka.sh start
- 启动 zookeeper: zk start
- 启动 hbase: start-hbase.sh
更多推荐
已为社区贡献3条内容
所有评论(0)