概述 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68
概述 按照官网文档,可以按照下面的命令进行安装。 1 2 3 4 5 6 7 distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \ && curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.repo | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo yum-config-manager --enable libnvidia-container-experimental # 验证 nvidia-docker run -–rm nvidia/cuda nvidia-smi Kubernetes GPU插件安装 https://github.com/NVIDIA/k8s-device-plugin#deployment-via-helm 1 2 3 4
概述 同事反馈 GPU 机器的 nvidia-smi 速度很慢,有卡住的情况。 分析 正常还是通过 strace 查看一下,发现系统调用 open 会卡住一段时间。 参考 persistence-mode
概述 NVIDIA TensorRT Inference Server 是 NVIDIA 推出的,经过优化的,可以在 NVIDIA GPUs 使用的推理引擎,TensorRT 有下面几个特点。 支持多种框架模型,包括TensorFlow GraphDef, TensorFlow
概述 OpenVINO™ Model Server is a scalable, high-performance solution for serving machine learning models optimized for Intel® architectures. OpenVINO 是 Intel 推出的用于推理服务的 CPU 加速器,如果你用过 NVIDIA TensorRT,那么对这个
概述 Grafana 内置支持 Prometheus 的用法。 添加数据源 关于添加数据源,就不多赘述了。跟其他数据源的添加是类似的。 Query editor 这里需要重点介绍一下 Query editor 的配置。 Name 描述 Query expression 这