ryan817 肯定是operator啊,自带gpu注入能力不需要构建专用的os,节点发现,可插拔….所有的组件都集成了,我觉得还是很省事的!

    zhu733756 部署官方文档中的两个实例

    另外,这两个实例应该添加文字说明它们分别的作用,目前还是得看 yaml 猜他们的意思

      zhu733756 好的,感谢。不过我测试发现在已装有显卡驱动的GPU机器上,nvidia-driver-daemonset似乎无法启动,社区也有相关的issue(NVIDIA/gpu-operator#126),应该是尚未解决的bug吧?

      @ryan817 本文的安装方式是将driver容器化使用op的方式来进行安装,原issue提到短期会用ignore unload/compile/installing part来解决,还要等一段时间,可先等该方法出来再尝试。

      @zhu733756
      安装NVIDIA GPU Operator时,报Error: cannot re-use a name that is still in use

      希望可以指点一下非常感谢!

        MrVBian 可能是helm安装的name占用了,我注意到上面那个pods应该是用helm安装的,如果你想重新安装,可以先尝试将其卸载 helm uninstall gpu-operator -n gpu-operator-resources, 如果有其他问题可以用helm list -A |grep gpu-operator查一下到底是哪个ns下的name占用了; 另外, 上面那个pods状态not ready应该是容器镜像比较大,由于pods间隔周期逐渐拉大的重启机制,可以尝试delete pod或者scale –replicas=0重启下,如果能解决,完全没必要uninstall。

        5 天 后

        cnetos7的内核没有要求吗?装到最后我的
        nvidia-container-toolkit-daemonset 和
        nvidia-driver-daemonset
        不断重启和error,似乎是k8s上的centos内核版本的问题?

        zhu733756 应该是支持的

        你可以检测下你的处理器架构代号

        $ cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c  #本文测试时处理器架构代号为Broadwell
        16 Intel Core Processor (Broadwell)

          k8s主机os为centos7环境下报错:

          kubectl logs -f nvidia-driver-daemonset-tjzxf -ngpu-operator-resources

          ========== NVIDIA Software Installer ==========

          Starting installation of NVIDIA driver version 450.80.02 for Linux kernel version 5.11.5-1.el7.elrepo.x86_64

          Stopping NVIDIA persistence daemon…
          Unloading NVIDIA driver kernel modules…
          Unmounting NVIDIA driver rootfs…
          Checking NVIDIA driver packages…
          Updating the package cache…
          Unable to open the file ‘/lib/modules/5.11.5-1.el7.elrepo.x86_64/proc/version’ (No such file or directory).Could not resolve Linux kernel version
          Resolving Linux kernel version…
          Stopping NVIDIA persistence daemon…
          Unloading NVIDIA driver kernel modules…
          Unmounting NVIDIA driver rootfs…

            leonanor 可以去gpu-operator官方发布issue,照目前看来版本是支持的,就不知道有没有其他的问题。

            5 天 后

            在esxi6.7上,虚拟机OS由centos7.6换成ubuntu18.04部署成功。几个坑:
            1、要在esxi6.7选择某个work角色的虚拟机做gpu直通。在虚拟机高级设置中添加hypervisor.cpuid.v0=FALSE
            2、直通设置完成后ubuntu启动不了。在“x86:booting smp configuration….”处挂住。这时要在虚拟机升级intelcpu的微码。
            sudo dpkg -l|grep intel
            sudo apt-get purge intel-microcode
            sudo update-grub
            sudo reboot
            升级后重启ubuntu可以正常启动了。
            3、在线升级可能会超时。要下载镜像特别多。最好翻墙先下载好需要的镜像。先用helm fetch nvidia/gpu-operator 下载压缩包,解压后进去文件夹打开 values.yaml找到镜像名称下载。如果翻墙机器不是在设置了gpu直通的k8s机器,docker save -o 导出这些镜像然后docker load 导入镜像。
            下载的镜像名称:
            nvcr.io/nvidia/k8s/container-toolkit:1.4.7-ubuntu18.04
            nvcr.io/nvidia/gpu-operator:1.6.2
            nvcr.io/nvidia/driver:460.32.03-ubuntu18.04
            nvcr.io/nvidia/k8s/dcgm-exporter:2.1.4-2.2.0-ubuntu20.04
            nvcr.io/nvidia/k8s-device-plugin:v0.8.2-ubi8
            nvcr.io/nvidia/gpu-feature-discovery:v0.4.1
            nvcr.io/nvidia/k8s/cuda-sample:vectoradd-cuda10.2

              zhu733756
              跑你的例子的时候报错,是正常的吗?
              2021-03-16 02:22:19.394090: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library libcublas.so.11
              2021-03-16 02:22:19.650521: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library libcublasLt.so.11
              2021-03-16 02:22:19.652326: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library libcudnn.so.8
              Step 0 (epoch 0.00), 21.3 ms
              Minibatch loss: 8.335, learning rate: 0.010000
              Minibatch error: 85.9%
              Validation error: 84.6%
              Step 100 (epoch 0.12), 3.9 ms
              Minibatch loss: 3.231, learning rate: 0.010000
              Minibatch error: 3.1%

              2 年 后

              @zhu733756 你好,请问下这块安装的nvidia_dcgm_exporter和cc里面的gpu-dcgm-exporter是同一个么?

              gpu-dcgm-exporter这个pod总是error,

              容器日志显示如下