jellyfin服务器怎么设置?
jellyfin服务器设置方法如下:
1首先进入到docker里面,镜像管理,镜像仓库搜索镜像-Jellyfin点击下载。
2安装程序选择版本,默认选择latest就好。
3拉取程序数据,可以选择后台下载,安装有一段时间,等待以下提示安装完成。
4这个时候可以到容器管理添加容器。
如何用Docker成为更高效的数据科学家?
使用Docker容器来开发机器学习模型的好处有很多。近日,GitHub的资深机器学习科学家HamelHusain在TowardsDataScience上发表了一篇入门级的Docker容器教程,文章从基本的概念谈起,清楚明白地介绍了Docker容器的一些基本的操作和注意事项。机器之心对本文进行了编译介绍。本文所涉及的所有相关代码请访问:_Tutorial
过去五年来,Docker容器已然成了一个热门词汇,似乎我的所有软件工程师朋友都在使用它们来开发应用。我想搞清楚这种技术可以如何让我更有效率,但我发现我在网上找到的教程要么过于注重细节(解释了一些我作为数据科学家绝不会使用的功能),要么就过于浅显(没有足够的信息帮助我理解如何快速有效地使用Docker)。
所以我写了这篇快速入门,这样你不必自己去网上筛选信息就能学习到快速上手Docker所需要的一切。
Docker是什么?
你可以把Docker看作是轻量级的虚拟机——包含你运行应用所需要的一切。Docker容器可以获取你的系统的状态的快照,这样其他人就可以使用这个快照快速重建你的计算环境。对于本教程而言,这就是你需要了解的一切。更多详细介绍可参阅:
为什么要使用Docker?
1.重现性:作为专业的数据科学家,让你的结果能够重现是非常重要的。重现性不仅有助于同行评议,而且可以确保你创建的模型、应用或分析可以无障碍地运行,这能让你交付的成果更稳健,更能经受时间的考验。举个例子,假如你用Python创建了一个模型,只是运行pipfreeze并将结果得到的requirements.txt文件发送给你的同事是不够的,因为其中只包含特定于Python的依赖条件——而实际上的依赖条件不只有Python,还有操作系统、编译器、驱动程序、配置文件以及你的代码成功运行所需的其它数据。就算你只分享Python依赖条件也能成功,将所有东西都封装到一个Docker容器中还是能减轻其他人重建你的环境的负担,并让他们能更轻松地访问你的成果。
2.计算环境的可移植性:作为一位数据科学家,尤其是机器学习领域内的数据科学家,快速改变你的计算环境的能力能够极大地影响你的生产力。数据科学的开始工作常常是原型设计、探索和研究——这些工作并不一定立即就需要特定的计算资源。这个工作往往是在笔记本电脑或个人计算机上完成的。但是在后面某个时候,你往往会需要不同的计算资源来显著加速你的工作流程——比如使用更多CPU或强大的GPU来执行深度学习等任务。我看到很多数据科学家由于感受到了在远程机器上重建他们的本地环境的困难,就将自己局限在了本地计算环境内。而Docker能让你的环境(你的所有库和文件等等)的移植非常简单。在Kaggle竞赛中,快速移植计算环境也是一个巨大的竞争优势,因为你可以成本高效地利用AWS的宝贵计算资源。最后,创建Docker文件让你能移植很多你喜欢的本地环境配置——比如bash别名或vim插件。
3.强化你的工程能力:熟练使用Docker让你能将模型或分析部署成应用(比如用作提供预测的RESTAPI),从而让其他人也能使用你的成果。此外,你在数据科学工作流程中可能需要与存在于Docker容器中的其它应用进行交互,比如数据库。
Docker术语
在我们继续深入之前,熟悉一下Docker的术语会很有帮助:
·镜像(image):是你想要创建的东西的蓝图。比如:UbuntuTensorFlow,带有英伟达驱动程序和一个运行的Jupyter服务器。
·容器(container):是你实现的运行的镜像的实例化。你可以运行同一个镜像的多个副本。分清镜像和容器之间的差异非常重要,因为这是新入门者常常混淆的两个概念。如果你不清楚镜像和容器的差别,停下来再读一次。
·Dockerfile:用于创建镜像的配方。Dockerfile包含特殊的Docker语法。官方文档说:Dockerfile是一个文本文档,其中包含了用户可以在命令行调用的用来组装成镜像的所有命令。
·commit:和git类似,Docker容器提供了版本控制。通过commit发生的改变,你在任何时间都可以将你的Docker容器的状态保存为一个新镜像。
·DockerHub/ImageRegistry:人们可以发布公开(或私人)Docker镜像的地方,用于促进合作与共享。
·层(layer):对已有镜像的修改,由Dockerfile中的一个指令表示。层按次序应用到基础镜像上,以创建出最终的镜像。
本文将使用这些术语,如果你在阅读时忘记了,一定要回来查看!这些术语很容易混淆,尤其是在镜像和容器之间——所以你在阅读时要保持警惕!
安装Docker
你可以免费下载安装Docker社区版(DockerCommunityEdition),地址:
创建你的第一个Docker镜像
在创建Docker容器之前,创建一个将用于定义镜像的Dockerfile会很有用。我们先慢慢解读一下下面的Dockerfile。你也可以在与本教程关联的GitHub库中找到这个文件:
#reference:_/ubuntu/
FROMubuntu:16.04
#AddsmetadatatotheimageasakeyvaluepairexampleLABELversion1.0
LABELmaintainerHamelHusain
##Setenvironmentvariables
ENV.UTF-8LC_ALLC.UTF-8
RUNapt-getupdate--fix-missingampampapt-getinstall-ywgetbzip2ca-certificates
build-essential
byobu
curl
git-core
htop
pkg-config
python3-dev
python-pip
python-setuptools
python-virtualenv
unzip
ampamp
apt-getcleanampamp
rm-rf/var/lib/apt/lists/*
RUNechoexportPATH/opt/conda/bin:$PATHgtampamp
wget--quiet_-O~ampamp
/bin/bash~-b-p/opt/condaampamp
rm~
ENVPATH/opt/conda/bin:$PATH
RUNpip--no-cache-dirinstall--upgrade
multiprocessing
sklearn-pandas
#OpenPortsforJupyter
EXPOSE7745
#SetupFileSystem
RUNmkdirds
ENVHOME/ds
ENVSHELL/bin/bash
VOLUME/ds
WORKDIR/ds
ADDrun_/ds/run_
RUNchmodx/ds/run_
#Runtheshell
CMD[./run_]
FROM语句
FROMubuntu:16.04
FROM语句包含了Docker最神奇的部分。这个语句指定了你想在上面进行创建的基础镜像。通过使用FROM指定一个基础镜像,Docker将会在你的本地环境中寻找名为ubuntu:16.04的镜像——如果它没有找到,它就会搜索你指定的DockerRegistry,默认是DockerHub:。如果你需要经常在你的Ubuntu等操作系统上安装程序,那么这种分层机制就非常方便。你不必费心从头开始安装Ubuntu,而是可以直接在官方的Ubuntu镜像上开发!DockerHub上托管着种类繁多的镜像,包括那些不只是提供了一个操作系统的镜像,比如如果你想要一个已经安装了Anaconda的容器,你可以选择在官方的AnacondaDocker镜像上开发,地址:。最重要的是,你也可以随时发布你构建的镜像,即使该镜像是通过在其它镜像上加层得到的!这有无尽的可能性。
在这个案例中,我们指定基础镜像为ubuntu:16.04,它会搜索名叫ubuntu的DockerHub库(_/ubuntu/)。镜像名之后的部分16.04是指定了你想要安装的基础镜像的版本的标签(tag)。如果你检索一下UbuntuDockerHub库,你会注意到不同版本的Ubuntu对应于不同的tag:
2017年12月的官方UbuntuDockerHub库截屏
比如,ubuntu:16.04、ubuntu:xenial-20171201、ubuntu:xenial和ubuntu:latest全都是指16.04版的Ubuntu,它们全都是同一个镜像的别名。此外,这里提供的链接指向了对应的Dockerfile,可用于构建每个版本的镜像。有时候你无法在DockerHub中找到Dockerfile,因为维护者可以自己选择是否将关于这些镜像的创建的Dockerfile包含进来。我个人觉得阅读一些Dockerfile有助于更好地理解Dockerfile。(但不要急,读完这篇教程再说!)
你需要特别注意一个标签,即:latest标签。这也是你在不为FROM语句指定标签时默认pull的镜像。比如说如果你的FROM语句是这样:
FROMubuntu
然后你就将pullubuntu:16.04镜像。为什么?——仔细看上面,你可以看到:latest关联的是16.04.
关于Docker镜像最后需要注意的一点:在从DockerHubpull随机的Docker镜像时要做出明智的判断。有恶意的人创建的镜像有可能会包含恶意软件。
LABEL语句
这个语句会为你的镜像添加元数据,而且是完全可选的。我增加这个语句的目的是为了让别人知道可以联系谁,同时也方便我搜索我的Docker容器,尤其是在一个服务器上同时运行着很多容器时。
LABELmaintainerHamelHusainltyouremailgt
ENV语句
ENV.UTF-8LC_ALLC.UTF-8
这让你可以修改环境变量,而且相当直接,相关情况请参阅:
RUN语句
这通常是最需要花功夫的地方,给出了你构建该Docker镜像所想要完成的任务。你可以运行apt-get和pipinstall等任意的shell命令来安装你需要的软件包和依赖包。
RUNapt-getupdate--fix-missingampampapt-getinstall-ywgetbzip2
build-essential
ca-certificates
git-core
...
在这里我安装了一些我喜欢的实用工具,比如curl、htop、byobu,然后安装了Anaconda,之后还安装了一些基础Anaconda中没有的其它库(你可以在完整的Dockerfile中查看其它RUN语句)。
RUN语句后的命令与Docker没什么关系,只是一些你在安装这些软件包时需要运行的正常Linux命令,所以就算你不熟悉这些软件包或Linux命令也不要担心。另外,再给一个建议:当我最早开始学习Docker时,我查看了GitHub或DockerHub上的其它Dockerfile,然后将我需要的部分复制粘贴到了我的Dockerfile。
你可能注意到了RUN语句的格式。每个库或软件包都整齐地进行了缩进,而且为了可读性还按字母进行了排序。这是Dockerfile的普遍惯例,所以我建议你也这样做以便合作。
EXPOSE语句
如果你想公开一个端口,这个语句会很有用——比如,如果你从该容器或某个网络服务内实施一个JupyterNotebook。Docker的文档相当好地解释了EXPOSE语句:
EXPOSE指令实际上并没有发布该端口。它的功能是作为创建该镜像的人和运行该容器的人之间的一类文档,内容是关于打算发布的端口。要实际发布该端口,就要在运行该容器时在dockerrun上使用-p标志并且映射一个或多个端口,或者也可以使用-P标志发布所有端口并将它们映射到高阶端口。
VOLUME语句
VOLUME/ds
这个语句让你可以在Docker容器和主机计算机之间共享数据。VOLUME语句让你可以安装外部安装的卷。主机目录只有在容器运行时才声明(因为你可能在不同的计算机上运行该容器),而不会在定义镜像时声明*。目前你只指定了Docker容器内你想与主机容器共享的文件夹的名称。
Docker用户指南解释说:
主机目录是在容器运行时声明的:主机目录(挂载点)本质上取决于主机。这是为了保证镜像的可移植性,因为一个给定的主机目录无法保证在所有主机上都可用。由于这个原因,你不能在Dockerfile中挂载主机目录。VOLUME指令不支持指定host-dir参数。你必须在创建或运行容器时指定挂载点。
此外,这些卷的目的是将数据保存到容器的文件系统之外,当你要操作大量数据而且不希望你的镜像膨胀得很大时,这会很有用。当你保存一个Docker镜像时,在这个VOLUME目录中的任何数据都不会被保存为该镜像的一部分,但是在这个容器目录之外的数据会被保存。
WORKDIR语句
WORKDIR/ds
这个语句设置了工作目录,以便你在另一条命令中可以无需使用绝对路径就能索引特定的文件。例如这个Dockerfile中的最后一条语句是:
CMD[“./run_”]
该语句就默认假设工作目录是/ds
ADD语句
ADDrun_/ds/run_
这条命令让你可以在Docker容器运行时将文件从主机计算机复制到该Docker容器。我使用这个命令来执行bash脚本以及将.bachrc文件等有用东西导入到容器中。
注意这里的主机容器的路径并没有完全指定,因为其主机路径是你在该容器运行时指定的背景路径(contextdirectory)的相对路径(后面会讨论)。
在我运行这个容器时,run_正好在背景路径的根目录内,所以在该源文件之前没有路径。
用户指南中介绍说:
ADDltsrcgt...ltdestgt
ADD指令从ltsrcgt复制新文件、目录或远程文件URL并将它们添加到路径ltdestgt的镜像的文件系统中。
CMD语句
Docker容器的设计思想是这些容器是短暂的,能保证运行完你想运行的应用就行了。但在数据科学方面,我们往往希望保持这些容器一直运行,即使它们之中并没有主动地运行着什么。很多人都通过运行bashshell来实现这一点(除非你终止它,否则它就不会停止)。
CMD[“./run_”]
在上面的命令中,我运行了一个实例化一个JupyterNotebook服务器的shell脚本。但是,如果你没有什么要运行的特定应用而只是想保持你的容器运行(而不退出),你可以直接运行bashshell,只不过使用以下命令:
CMD[/bin/bash]
这种方法是有效的,因为除非你退出,否则bashshell就不会终止;因此该容器会一直保持运行。
用户指南中介绍说:
在一个Dockerfile中只能有一个CMD指令。如果你列出了不止一个CMD,那么只有最后一个才有效。
CMD的主要目的是为正在执行的容器提供默认配置。这些默认配置可能包含一个可执行文件,或者也可以省略可执行文件,在这种情况下你还必须指定一个ENTRYPOINT指令。
创建你的Docker镜像Dockerfile中的信息可真够多的。不要担心,后面的内容就相对很简单了。现在我们已经在Dockerfile中创建了我们的配方,是时候创造镜像了。你可以通过以下命令完成:
GitHub上也有:_Tutorial/blob/master/basic_tutorial/build_
这会创建一个Docker镜像(而不是容器;如果你不记得这两者之间的差异,请查阅文章前面的术语介绍),你可以在后面运行这个镜像。
从你的Docker镜像创建和运行容器现在你已经准备好让这一切工作起来了!我们可以通过执行以下命令来调出环境:
同样GitHub也有:_Tutorial/blob/master/basic_tutorial/run_
运行完这个命令之后,你的容器就运行起来了!Jupyter服务器也运行起来了,因为在该Dockerfile最后有这个命令:
CMD[“./run_”]
现在你应该可以通过其使用的端口访问你的JupyterNotebook了——在这个案例中可通过:7745/访问,密码是tutorial。如果你是通过远程的运行这个Docker容器,你还必须设置本地端口转发,这样你才能通过你的浏览器访问你的Jupyter服务器。端口转发介绍:
与你的容器交互一旦容器设置完成并运行起来,下面这些命令就有用了:
·为容器附加一个新的终端会话。如果你需要安装一些新软件或使用shell,这会很有用。
·将你的容器的状态保存为新镜像。即使你一开始就在Dockerfile中配置了你想安装的所有库,随着时间的推移,你也可能还是需要对容器的状态进行很大的调整——通过交互来增加更多库和软件包。将你的容器的状态保存为镜像是很有用的,你后面可以将其分享出去或在上面加层。你可以使用dockercommitCLI命令将容器状态保存为新镜像:
dockercommitltcontainer_namegtnew_image_name:tag_name(可选的)
比如说,如果我想将名为container1的容器的状态保存为名为hamelsmu/tutorial:v2的镜像,我可以直接运行这个命令:
dockercommitcontainer_1hamelsmu/tutorial:v2
你可能会疑惑镜像名之前的hamelsmu/是什么——这只是为了让之后将该容器推送到DockerHub的工作更轻松,因为hamelsmu是我的DockerHub用户名(后面会再谈这个问题)。如果你的工作要使用Docker,那么你的公司很可能有一个内部私有的Docker库,你也可以将你的Docker推送到那里。
·列出运行中的容器。当我忘记现在正在运行的容器的名称时,我就常常使用这个命令:
dockerps-a-fstatusrunning
如果你在使用该命令时没有加上statusrunning,那么你就会看到你系统上的所有容器的列表(即使已经不再运行的容器也在)。这对查找旧容器而言很有用。
·列出你在本地保存的所有镜像。
dockerimages
·将你的镜像推送到DockerHub(或其它地方)。如果你想与其他人分享你的工作或将镜像保存到云上,这个命令就会很有用。注意你在做这件事时可不要分享任何私人信息(DockerHub上也有私有库)。
首先创建一个DockerHub库并给你的库起一个适当的名称,参考这里:。然后要运行dockerlogin命令来连接到你在DockerHub或其它注册位置的账户。比如,要推送一个镜像到这个容器(),我首先必须将我的本地镜像命令为hamelsmu/tutorial(我可以选择任意标签名)。比如说,这个CLI命令就为:
dockerpushhamelsmu/tutorial:v2
将之前提到的Docker镜像推送到这个库,其标签为v2,参考:。需要指出:如果你公开了你的镜像,那么其他人就可以直接在你的镜像上加层,就像本教程中我们在ubuntu镜像上加层一样。对于想要重现或延展你的研究的其他人来说,这非常有用。
你已经掌握了现在你知道如何操作Docker了,你可以执行以下任务:
·与同事和朋友共享可重现的研究。
·通过将你的代码暂时迁移到所需的更大的计算环境中,无中断地赢得Kaggle竞赛。
·在你的笔记本电脑上的Docker容器内进行本地的原型开发,然后毫不费力地将同样的计算过程无缝迁移到服务器上,同时还能保留你喜欢的本地环境配置(你的别名、vim插件、bash脚本、自定义提示等)。
·使用Nvidia-Docker在GPU计算机上快速实例化运行TensorFlow、PyTorch或其它深度学习库所需的所有依赖包。(如果你从头开始做,这个过程将非常艰辛。)参阅后面的彩蛋。
·将你的模型作为应用发布,比如用作从Docker容器提供预测的RESTAPI。当你的应用Docker化了以后,就可以按照需要轻松地随意复制。
进阶阅读到这里我们也只学到了Docker的一点皮毛,前面还有很多东西值得掌握。我很关注Docker领域,我认为数据科学家会常常遇到它,希望这篇文章能让你有足够的信心开始使用它。下面这些资源曾在我的Docker之旅中为我提供过帮助:
·有用的Docker命令:_docker_containers/
·更有用的Docker命令:
·Dockerfile参考:
·如何创建和推送到DockerHub上的库:
彩蛋:Nvidia-Docker我学习Docker最早的原因是要在单个GPU上做深度学习模型的原型开发,然后在我需要更多计算资源时再迁移到AWS上。我当时也在学习JeremyHoward的出色的课程(),并且希望与其他人分享我的原型设计。
但是,要将英伟达GPU的驱动程序等所有依赖包都包含以来,你不能使用Docker,而是要用Nvidia-Docker()。这比使用vanillaDocker要多花一些功夫,但只要你理解了Docker,做起来就很简单。
我将我的Nvidia-Docker设置放在这里:_Tutorial/tree/master/gpu_tutorial,你可以用这个来进行练习。