charlesgreat ks 3.2.1 原先只有1个master节点m1 同是是工作节点 加了2个master节点 m2 m3, 同时把原先的m1 的工作节点去掉 使用了内置 HAproxy 创建高可用集群,增加了2个master节点 更新后发现了几个问题: m1还是可以作为工作节点 没有像m2、m3 一样增加了污节点信息 node-role.kubernetes.io/master=:NoSchedule m1节点重启时 通过m2的IP:30880登录不上 这种方式不对吗?还是高可用有问题?
24sama charlesgreat 目前kk不会为节点添加污点 目前k8s集群是高可用了,但是你的kubesphere集群是否是高可用?如果不是,并且kubesphere的相关部分pod运行在m1节点时,关闭m1节点会造成kubesphere集群功能异常。
lan-liang charlesgreat m1还是可以作为工作节点 没有像m2、m3 一样增加了污节点信息 也就是你在扩容成三节点时预期是m1只作为master? 似乎看你的讲述 那么这时候你预期会有三个非工作节点的master节点集群? m1节点重启时 通过m2的IP:30880登录不上 这种方式不对吗?还是高可用有问题? 这个Haproxy解决的是k8s集群node节点到master节点通信的高可用,如果你的ks部署在m1节点上并且m2和m3都是非工作节点,那么登录不上似乎是正确的现象. 这时候你的ks相关pod情况是怎样的?
charlesgreat lan-liang 配置参考的是如下的文档,你说的pod的情况是什么意思? 如果按照这个文档配置,m1挂的的话,通过m2的IP:30880应该可以登录控制UI吧? https://kubesphere.com.cn/docs/installing-on-linux/high-availability-configurations/internal-ha-configuration/