systemctl stop firewalld
systemctl start docker1.2 集群規劃
1.3 新建6個docker容器redis實例 docker run -d --name redis-node-1 --net host --privileged=true -v /data/redis/share/redis-node-1:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /data/redis/share/redis-node-2:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /data/redis/share/redis-node-3:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /data/redis/share/redis-node-4:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /data/redis/share/redis-node-5:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /data/redis/share/redis-node-6:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6386參數解釋如下:
docker run 創建並運行docker容器實例
--name redis-node-6 容器名字
--net host 使用宿主機的IP和埠,默認
--privileged=true 獲取宿主機root用戶權限
-v /data/redis/share/redis-node-6:/data 容器卷,宿主機地址:docker內部地址
redis:6.0.8 redis鏡像和版本號
--cluster-enabled yes 開啟redis集群
--appendonly yes 開啟持久化
--port 6386 redis埠號
運行成功的效果如下:
1.4 進入容器redis-node-1並為6臺機器構建集群關係進入容器
docker exec -it redis-node-1 /bin/bash構建主從關係
redis-cli --cluster create 192.168.159.33:6381 192.168.159.33:6382 192.168.159.33:6383 192.168.159.33:6384 192.168.159.33:6385 192.168.159.33:6386 --cluster-replicas 1--cluster-replicas 1 表示為每個master創建一個slave節點
由上圖可知,哈希槽被分為三段,0-5460,5461-10922,10923-16383
並且可以看到集群節點的主從關係,
192.168.159.33:6385--->192.168.159.33:6381
192.168.159.33:6386--->192.168.159.33:6382
192.168.159.33:6384--->192.168.159.33:6383
這裡三主三從已經搭建完畢了。
注意:上面的集群關係是隨機分配的,所以沒有明確指定的情況下,映射關係可能有出入。
1.5 查看集群狀態連接進入6381作為切入點,查看集群狀態
redis-cli -p 6381
cluster info
cluster nodes
可以很清楚的看到集群的主從關係
192.168.159.33:6385--->192.168.159.33:6381
192.168.159.33:6386--->192.168.159.33:6382
192.168.159.33:6384--->192.168.159.33:6383
2、主從容錯切換遷移案例2.1 數據讀寫存儲
啟動6個節點構成的集群並通過exec進入
docker exec -it redis-node-1 /bin/bash
redis-cli -p 6381對6381埠的節點添加幾個key測試
可以看到,我們每存儲一個key,都會先計算哈希槽的落點,有的落點超過了分配的哈希槽區域,就會存儲失敗,其實我們現在要連接的是整個集群,而不是單個節點,上面的連接命令是錯誤的。
正確的連接集群的命令是:
redis-cli -p 6381 -c新增幾個key測試
可以很明顯地看到,每次存儲一個值,都要根據計算出的哈希槽落點去存儲,落到哪個節點就會重定向到落點所在的集群節點。
查看集群信息
redis-cli --cluster check 192.168.159.33:6381
這裡也可以看清除各個節點數據存儲情況以及主從映射關係。
2.2 容錯切換遷移我們現在將6381節點掛掉,規劃圖如下:
先停止6381節點,
docker stop redis-node-1
這個時候進入6382這個節點查看下集群信息
docker exec -it redis-node-2 /bin/bash
redis-cli -p 6382 -c cluster nodes
可以看到,6381節點已經宕機了,此時它原來的從節點6385上位,成為了master節點。
此時如果將6381節點恢復,那麼集群的狀態會不會發生變化呢?
docker start redis-node-1
查看集群狀態
可以看到,就算此時6381恢復了,它也只能是從節點,6385依舊是主節點。
怎樣恢復原來的集群狀態,即讓6385重新成為6381的從節點呢?
查看6381是否已經成為主節點
由上圖可看出,6385此時已經掛掉,6381重新上位成為master節點。
可以看到,6381已經成為了master,6385是6381的slave節點,至此,集群已經恢復成了初始的3主3從的架構,即
查看集群狀態
redis-cli --cluster check 192.168.159.33:6381
3、主從擴容案例(3主3從到4主4從)3.1 擴容規劃
將3主3從的集群擴容為4主4從的集群。
3.2 新建6387、6388兩個節點 docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6387 docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis:6.0.8 --cluster-enabled yes --appendonly yes --port 6388 docker ps
此時有8個節點。
3.3 進入容器實例內部 docker exec -it redis-node-7 /bin/bash3.4 將新增的6387節點(空槽號)作為master節點加入原集群 redis-cli --cluster add-node 192.168.159.33:6387 192.168.159.33:6381參數說明:
redis-cli --cluster add-node 自己實際IP位址:6387 自己實際IP位址:6381
6387 就是將要作為master新增節點
6381 就是原來集群節點裡面的領路人,相當於6387拜拜6381的碼頭從而找到組織加入集群
3.5 檢查集群情況第1次 redis-cli --cluster check 192.168.159.33:6381
可以看到,此時雖然6387節點已經加入了集群,但並沒有分配哈希槽號。
3.6 重新分槽號 redis-cli --cluster reshard 192.168.159.33:6381參數說明:
命令:redis-cli --cluster reshard IP位址:埠號
我們為了平均分配哈希槽,所以為6387節點分配16384/master臺數=16384/4=4096
receiving node ID:就是6387這臺節點的容器ID
3.7 檢查集群情況第2次 命令:redis-cli --cluster reshard IP位址:埠號 redis-cli --cluster check 192.168.159.33:6381
可以看到,槽號已經重新分配
6381:[1365-5460]
6382:[6827-10922]
6383:[12288-16383]
6387:[0-1364],[5461-6826],[10923-12287]
為什麼6387是3個新的區間,以前的還是連續? 重新分配成本太高,所以前3家各自勻出來一部分,從6381/6382/6383三個舊節點分別勻出1364個坑位給新節點6387
3.8 為主節點6387分配從節點6388 redis-cli --cluster add-node 192.168.159.33:6388 192.168.159.33:6387 --cluster-slave --cluster-master-id fe96386f9f5401836d67af25bf8549d2c9e20840命令:redis-cli --cluster add-node ip:新slave埠 ip:新master埠 --cluster-slave --cluster-master-id 新主機節點ID
最後的新主機節點ID就是6387的容器ID
3.9 檢查集群情況第3次 redis-cli --cluster check 192.168.159.33:6382這裡從任意一臺節點執行都可以,不是非要6382埠的機器
可以看出,6388已經加入了集群,並且成為了6387節點的從節點,至此,3主3從的redis集群成功擴容為4主4從。
4、主從縮容案例4.1 目的目的:讓6387和6388兩臺節點下線。
4.2 檢查集群情況1,獲得6388節點的ID redis-cli --cluster check 192.168.159.33:6382
暫時還是4主4從的集群
4.3 將6388刪除:從集群中將4號從節點6388刪除 redis-cli --cluster del-node 192.168.159.33:6388 08620d4a6390ea8ff8ecdc135c556dde5abc15a1命令:redis-cli --cluster del-node ip:從機埠 從機6388節點ID
檢查下發現,只剩下7臺機器了
redis-cli --cluster check 192.168.159.33:6382
此時集群中只剩下7臺機器了。
4.4 將6387的槽號清空,重新分配將6387的槽號清空,重新分配,本例將清出來的槽號都給6381
redis-cli --cluster reshard 192.168.159.33:6381
4.5 檢查集群情況第二次 redis-cli --cluster check 192.168.159.33:6381
可以看到,此時雖然6387的哈希槽已經被6381接手,但是6387節點還在集群當中沒有刪除。
4.6 將6387節點從集群中刪除命令:redis-cli --cluster del-node ip:埠 6387節點ID
redis-cli --cluster del-node 192.168.159.33:6387 fe96386f9f5401836d67af25bf8549d2c9e20840
4.7 檢查集群情況第三次 redis-cli --cluster check 192.168.159.33:6381
可以看到,此時集群中只剩下3臺節點了,成功從3主3從縮容到4主4從