|
本帖最后由 ITdesk 于 2023-4-24 11:48 编辑
记录一下群辉独显N卡,docker jellyfin成功调用的折腾过程
jellyfin相信都不陌生,在群辉上docker一个这个,整理一下资源挺好,之前我就嫌弃核显转码太慢了,主要还崩腾的锅,所以就萌生了一个想加独显的想法,专业的事情专业的卡干活,逛着逛着发现了矿神的套件,群辉可以支持独显了
开始折腾
配置如下
DS918(黑) 6.23版本
独显Tesla P4(风扇某宝买)
1.安装矿神套件
https://imnks.com/7009.html
2.进入群辉ssh
我当前的docker版本如下
Docker version 20.10.3, build b35e731
警告 root权限很大,不懂的命令不要瞎敲,数据无价,数据无价,数据无价!!!
进入root账户(平时可以不用root,用admin就可以执行nvidia-smi)
执行下面代码
如果正常你就可以看到你的显卡信息,这个时候在root账户底下输底下代码,创建docker容器
如果看不到你的显卡信息,那就不要往底下执行,不可能成功的!!!
简单解释一下底下代码
--name 容器名字
-p 端口
-e 变量
-v 挂载
-v /volume2/16TB/jellyfin/config:/config \
-v /volume2/16TB/jellyfin/cache:/cache \
-v /volume2/16TB/video:/video \
#这三段 /volume2/16TB需要修改为你群辉上的路径,这是演示
--device 设备直通
--restart unless-stopped 开机启动
jellyfin/jellyfin:20210922.4-unstable-amd64 容器版本
- docker run -d --name jellyfin \
- -p 8096:8096 \
- -e NVIDIA_VISIBLE_DEVICES=all \
- -v /volume2/16TB/jellyfin/config:/config \
- -v /volume2/16TB/jellyfin/cache:/cache \
- -v /volume2/16TB/video:/video \
- -v /usr/local/bin/nvidia-smi:/usr/local/bin/nvidia-smi \
- -v/usr/local/bin/nvidia-cuda-mps-control:/usr/local/bin/nvidia-cuda-mps-control \
- -v /usr/local/bin/nvidia-persistenced:/usr/local/bin/nvidia-persistenced \
- -v /usr/local/bin/nvidia-cuda-mps-server:/usr/local/bin/nvidia-cuda-mps-server \
- -v /usr/local/bin/nvidia-debugdump:/usr/local/bin/nvidia-debugdump \
- -v /usr/lib/libnvcuvid.so:/usr/lib/libnvcuvid.so \
- -v /usr/lib/libnvidia-cfg.so:/usr/lib/libnvidia-cfg.so \
- -v /usr/lib/libnvidia-compiler.so:/usr/lib/libnvidia-compiler.so \
- -v /usr/lib/libnvidia-eglcore.so:/usr/lib/libnvidia-eglcore.so \
- -v /usr/lib/libnvidia-encode.so:/usr/lib/libnvidia-encode.so \
- -v /usr/lib/libnvidia-fatbinaryloader.so:/usr/lib/libnvidia-fatbinaryloader.so \
- -v /usr/lib/libnvidia-fbc.so:/usr/lib/libnvidia-fbc.so \
- -v /usr/lib/libnvidia-glcore.so:/usr/lib/libnvidia-glcore.so \
- -v /usr/lib/libnvidia-glsi.so:/usr/lib/libnvidia-glsi.so \
- -v /usr/lib/libnvidia-ifr.so:/usr/lib/libnvidia-ifr.so \
- -v /usr/lib/libnvidia-ml.so:/usr/lib/libnvidia-ml.so \
- -v /usr/lib/libnvidia-opencl.so:/usr/lib/libnvidia-opencl.so \
- -v /usr/lib/libnvidia-ptxjitcompiler.so:/usr/lib/libnvidia-ptxjitcompiler.so \
- -v /usr/lib/libnvidia-tls.so:/usr/lib/libnvidia-tls.so \
- -v /usr/lib/libicuuc.so:/usr/lib/libicuuc.so \
- -v /usr/lib/libcuda.so:/usr/lib/libcuda.so \
- -v /usr/lib/libicudata.so:/usr/lib/libicudata.so \
- --device /dev/dri:/dev/dri \
- --device /dev/nvidia0:/dev/nvidia0 \
- --device /dev/nvidiactl:/dev/nvidiactl \
- --device /dev/nvidia-uvm:/dev/nvidia-uvm \
- --device /dev/nvidia-uvm-tools:/dev/nvidia-uvm-tools \
- --restart unless-stopped \
- jellyfin/jellyfin:20211231.6-unstable-amd64
复制代码
接下来进入容器看下
- docker ps #查看容器
- docker exec -it e60a948c2c80 /bin/bash #进入容器
复制代码
正常情况出现以下
设置jellyfin硬件加速
开始测试转码
在root账号下查看转码信息(平时不用root,普通admin就行了)
可以看到转码成功了,调用到独显了,至此docker jellyfin可以调用群辉上的独显去转码,完结
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|