修改02,03机器上的myid
docker start hadoop01 hadoop02 hadoop03
docker exec -it hadoop01 bash
exit
docker exec -it hadoop02 bash //分别在不同终端运行
cd /usr/local/zookeeper/data
nano myid
将其myid内容修改为2
exit
docker exec -it hadoop03 bash //分别在不同终端运行
cd /usr/local/zookeeper/data
nano myid
将其myid内容修改为3
exit
修改hosts文件
docker exec -it hadoop01 bash
docker exec -it hadoop02 bash
docker exec -it hadoop03 bash
//进入终端后
su - //进入一下root权限不然一会环境变量用不了
三个终端都输入如下
nano /etc/hosts
//修改ip和主机映射关系为如下内容
172.17.0.2 hadoop01
172.17.0.3 hadoop02
172.17.0.4 hadoop03
三个机器互相ssh
//三个终端都要打这几行命令
//注意在交互过程要输入yes全部三个字母,不要只说一个y
service ssh start
ssh hadoop01
exit
ssh hadoop02
exit
ssh hadoop03
exit
启动
先启动hadoop集群
su -
hdfs namenode -format //初始化
start-all.sh //启动
jps //查看一下
结果:
root@hadoop01:~# jps
816 ResourceManager
1393 Jps
299 NameNode
477 DataNode
990 NodeManager
zookeeper启动需要三台机器都启动,停止也是分别停止,三台机器都启动才能看见状态
su -
zkServer.sh start
zkServer.sh status //需要三台都启动后再查看状态
hbase启动在hadoop01上启动就行了
su -
start-hbase.sh
hbase shell //进入控制台
create 'c','d'
list //展示刚刚建立的表
exit
hbase-daemon.sh start thrift //启动thrift服务,python可以连接
最后的结果应该是这些
root@hadoop01:~# jps
4705 NameNode
2354 DataNode
6786 ThriftServer
5188 ResourceManager
5832 QuorumPeerMain
6058 HMaster
6203 HRegionServer
3021 NodeManager
6893 Jps
启动spark
/usr/local/spark/sbin/start-all.sh --webui-port 8081