hongming 还有其他可以解决的么,升级之路太难了
过渡无压力!KubeSphere v3.4.x 到 v4.x 平滑升级全攻略
hongmingK零SK壹S
- 已编辑
确认一下 image hash 是否一致,我这能复现你遇到的问题,修复后也重新验证过, 相关问题的修复记录 https://github.com/kubesphere/ks-upgrade/pull/27/files#diff-a539a85bdf77e6a269d56942c9ce3f56b0e1a0d33cf1ccd03ba6081f582a17dbR429
这一行的空指针加了前置判断,环境中配置的差异会被忽略
/workspace/pkg/jobs/core/core.go:429 +0x22f
请提供一下最新的日志信息,可能不是这里产生的错误了
hongmingK零SK壹S
只能尽可能减少环境的差异,有一些特殊配置在升级过程中可能没有被覆盖到,但能根据异常日志定位到错误 https://github.com/kubesphere/ks-upgrade,比如你遇到的这个空指针问题,就可以稍微调整一下 validatingwebhook 的配置跳过
镜像是一致的呢,我只是打的tag 传到的仓库而已,因为mac M1 系列的本地是拉取不到arm的镜像,所以需要传到我仓库去
hongmingK零SK壹S
是不是 retag 的时候搞错了,改了 imagePullPolicy也没拉到更新后的镜像,日志中的错误信息已经足够定位问题,你也可以自己去构建镜像试试。如果觉得麻烦,可以这么跳过,把导致异常的 validatingwebhook 先备份删除,升级完成后再恢复
hongming tag 不应该的,毕竟后面的imageID 都是一致的, 把异常的validatingwebhook 备份删除,这个操作有点麻烦,咋跳过,咋跳过呢
hongmingK零SK壹S
这个 imageID 看起来也是一致的,也是对的,但这是 x86 的,kubesphere/ks-upgrade 并没有提供 arm 镜像,你看看 prepare-upgrade 的 pod 实际拉取的是哪个呢,还有就是异常日志有没有变化,排除其它问题导致中断
hongming 我看了日志报错,还是那个nil 要不然就需要删除 这些,但是我觉得还是跳过比较多,我尝试使用github 上制作镜像试试
kubectl get validatingwebhookconfigurations | grep kubesphere
cluster.kubesphere.io 1 19h
network.kubesphere.io 1 19h
resourcesquotas.quota.kubesphere.io 1 19h
rulegroups.alerting.kubesphere.io 3 19h
storageclass-accessor.storage.kubesphere.io 1 19h
users.iam.kubesphere.io 1 19h
xingxing122 我拉取了master 分支,打的镜像还是有问题,这个问题修复是在那个分支搞的
hongmingK零SK壹S
- 已编辑
升级网关 failed to get API group resources: unable to retrieve the complete list of server APIs: gateway.kubesphere.io/v2alpha1: the server could not find the requested resource
hongming 改动了,我拉去master 分支自己在本地打了一个镜像
hongmingK零SK壹S
网关升级失败了,CRD 没被更新,可能是这个问题 kubesphere/ks-upgrade#28
可以检查一下 CRD 是否更新了
kubectl get crd gateways.gateway.kubesphere.io -o yaml
重新部署一下 Gateway 扩展组件,把 CRD 重新创建一遍,再来升级网关实例
应用路由这里显示好像有问题,实际访问是没有端口的。