Connor Jeff 找到原因了,是因为v2的用户太多了,创建了17万个configmap;升级后不断连接kube-apiserver导致的。 但是新的V3自身也有其他问题,写了个程序获取的各环境资源,登录次数比较多,导致record达到131万个,etcd也会出问题
hongming Connor loginrecord 会定期清理,可以调整保存时间 kubectl -n kubesphere-system edit cm kubesphere-config 调整 loginHistoryRetentionPeriod 来控制保存时间,修改配置后重启 ks-controller-manager kubectl -n kubesphere-system rollout restart deploy ks-controller-manager