1 个月 后
yudong 更改标题为「KubeSphere 镜像构建器(S2I)服务证书过期(x509)问题
2 个月 后

ygqygq2 可能是k8s集群节点时间未同步导致的,可以检查下节点时间。

22 天 后
8 天 后

yudong 如果集群内不止安装了 kubesphere,还安装了 rancher 或者其他组件,应该具体查下 validating-webhook-configuration 和 mutating-webhook-configuration 替换的位置是否正确,根据实际情况修改脚本

13 天 后

yudong v3.4.0-patch.0 下载不了,

registry.cn-beijing.aliyuncs.com/kubesphereio/ks-installer:v3.4.0-patch.0

kubesphere/ks-installer:v3.4.0-patch.0

都下载不了

我现在是安装了devops的

    19 天 后

    确实解决了问题,拉了新的镜像ks-installer:v3.4.1-patch.0重新跑一下install即可

    15 天 后

    版本3.4

    安装的时候勾选了devops功能,按照提示执行了./update-s2i-cert.sh

    现在kubectl logs -f -n kubesphere-monitoring-system notification-manager-operator-6bfc9564bc-xz6c7 -c notification-manager-operator

    还是提示2024/08/31 22:30:17 http: TLS handshake error from 192.168.159.16:44133: remote error: tls: bad certificate

    期间执行过 kubectl -n kubesphere-system rollout restart deployment ks-installer

      执行这个脚本

      caBundle=$(kubectl get validatingWebhookConfiguration notification-manager-validating-webhook -o jsonpath=‘{.webhooks[0].clientConfig.caBundle}’)

      cat > /tmp/patch.yaml <<EOF

      spec:

      conversion:

      webhook:
      
        clientConfig:
      
          caBundle: ${caBundle}
      
          service:
      
            namespace: kubesphere-monitoring-system

      EOF

      kubectl patch crd configs.notification.kubesphere.io –type=merge –patch-file /tmp/patch.yaml

      kubectl patch crd receivers.notification.kubesphere.io –type=merge –patch-file /tmp/patch.yaml

        wanjunlei

        是解决我那个问题吗,我没有这个资源,印象里清理过所有validatingWebhookConfiguration,不然执行cluster-configuration.yaml脚本 总有错误

        wanjunlei

        还有需要提供得信息嘛,现在登录不进去无法正常使用。从帖子历史记录来看证书过期问题2月就有了,我8月安装得ks所拉取得镜像还会有这问题?

        darker 这个不是validate,是mutating。你可以先尝试一下能不能解决你的问题