搭建环境:使用6台虚拟机搭建了高可用模式的kubesphere2.0。六台虚拟机的配置都为32核cpu,64G内存,100G本地硬盘。使用ceph搭建了2T的持久化存储。已经使用负载均衡器将请求轮询的分发到6台虚拟机上。

瓶颈现象:使用多线程请求kubesphere的接口来创建包含部署和服务的应用时,在同时创建40个左右应用时,就出现请求超时的现象了。而且看日志都是创建service时的超时。

请问出现这种情况,是因为kubesphere的性能瓶颈,还是存在其他的性能瓶颈?

受限于k8s kube-apiserver, 你可以直接并发测试一下k8s 的API,可以通过监控中心观察一下kube-apisever和etcd的负载情况和监控数据

      --max-connection-bytes-per-sec int                        如果不为0,每个用户连接将会被限速为该值(bytes/sec)。当前只应用于长时间运行的请求。
    
      --max-mutating-requests-inflight int                      在给定时间内进行中可变请求的最大数量。当超过该值时,服务将拒绝所有请求。0值表示没有限制。(默认值200)
    
      --max-requests-inflight int                               在给定时间内进行中不可变请求的最大数量。当超过该值时,服务将拒绝所有请求。0值表示没有限制。(默认值400)
    
      --min-request-timeout int                                 一个可选字段,表示一个handler在一个请求超时前,必须保持它处于打开状态的最小秒数。当前只对监听请求handler有效,它基于这个值选择一个随机数作为连接超时值,以达到分散负载的目的(默认值1800)。