节点间是不是开了防火墙
多节点安装问题,卡在etcd报错
试试执行: ./kk delete cluster 然后重新安装:
export KKZONE=cn
./kk create cluster -f config-sample.yaml
节点之间没有开防火墙,遇到同样的错误。centOS 7.8
卸载之后重新安装,依然同样的报错
centOS7.8 3个master节点,3个worker节点,etcd部署在master节点上,遇到同样的问题。
如果是用的kk 2.1之后的版本,试试在config文件中,配置.etcd.type
为kubeadm。
https://github.com/kubesphere/kubekey/blob/master/docs/config-example.md
使用的kubekey是2.0.0版本的。我这边尝试了将etcd type 改为kubeadm 后依然报同样的错误。
具体错误:
etcd health check failed: Failed to exec command: sudo -E /bin/bash -c “export ETCDCTL_API=2;export ETCDCTL_CERT_FILE=‘/etc/ssl/etcd/ssl/admin-test-k8s-master3.pem’;export ETCDCTL_KEY_FILE=‘/etc/ssl/etcd/ssl/admin-test-k8s-master3-key.pem’;export ETCDCTL_CA_FILE=‘/etc/ssl/etcd/ssl/ca.pem’;/usr/local/bin/etcdctl –endpoints=https://ip:2379,https://ip:2379,https://ip:2379 cluster-health | grep -q ‘cluster is healthy’”
doudecheng
2.1之后的版本才支持了这个配置。2.0版本不行
可知道这个错误是什么原因导致的,我们开发环境也是按照同样的配置同样的安装环境装的,没有问题,执行kk的安装很顺利,现在按照同样的步骤安装测试环境却报这个错误。
doudecheng
可能是防火墙,安全组,网络之类的问题。
可以手动把上面kk执行的命令复制下来,去掉 grep 执行一下,看一下命令返回的内容。
也可以到对应机器上用systemctl status etcd看一下具体节点上的etcd日志
我也遇到类似问题
这5台机器都能登录的。 为啥kk 报不能访问呢?
epiphyllum
hadoop100这台节点ssh到其他节点的端口是默认的22吗?
24sama 换2.0.0 就可以了。 说明肯定是2.2.0有问题。
- 已编辑
epiphyllum
2.1.0之后的版本都加上了连接超时的pre-check,你应该是建立ssh的连接时间超时了(默认值:10秒)。
- {name: master1, address: 192.168.101.128, internalAddress: 192.168.101.128, user: root, password: "123", timeout: 30}
可以参考上面的内容配置timeout,单位是秒
我机器都是虚拟机, 不太可能30s超时, 而且我都验证了, 每台之间无密码登录都非常流畅。
下次我改下参数试试看看。
请问 问题解决了嘛
你好,你的问题解决了吗?
asdadasdad 就是将kubekey的版本更换为2.0.0就可以了
这个最后怎么解决啊
有谁知道这个问题怎么解决吗