V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
olindk
V2EX  ›  问与答

Ubuntu 下搭建深度学习环境的最简单方法

  •  
  •   olindk · 2018-12-28 20:19:07 +08:00 · 1689 次点击
    这是一个创建于 1940 天前的主题,其中的信息可能已经有所发展或是发生改变。

    前不久我买了张 RTX 2080,开始了搭建深度学习环境的踩坑之旅。我在每个环节上都用不同姿势踩过坑,最后总结出一套应该是最稳妥又容易执行的方法。如果你熟悉 Docker,那直接用英伟达的镜像应该是最简单的方法。不然的话,这篇文章应该能帮得上忙。

    这是文章链接,大家一起交流呀。

    10 条回复    2018-12-29 19:41:23 +08:00
    ugvf2009
        1
    ugvf2009  
       2018-12-28 21:21:36 +08:00 via Android
    nvdia 打包好的镜像吗? share 下
    ugvf2009
        2
    ugvf2009  
       2018-12-28 21:22:09 +08:00 via Android
    最近在搞 hpc 集群部署😄
    cshlxm
        3
    cshlxm  
       2018-12-29 09:56:12 +08:00
    docker 吧,我自己在公司服务器上完整搭了一遍下来,真的是即便是资料最多的 1604 下,cuda cudnn 安装 各种版本需求,真的是 x 疼,总会出点意想不到的依赖缺失,搭了一遍搞定后 又重来一遍,真的是除非想亲自踩坑,不然真不如 docker 一波流
    Nick2VIPUser
        4
    Nick2VIPUser  
       2018-12-29 09:57:00 +08:00 via iPhone
    收藏了
    olindk
        5
    olindk  
    OP
       2018-12-29 10:22:13 +08:00
    @cshlxm 我的这个方法就是用 Anaconda 安装,只需要给系统装好驱动,别的都不用管了。不用手动安装 CUDA 和 cuDNN。
    olindk
        6
    olindk  
    OP
       2018-12-29 10:22:52 +08:00
    @ugvf2009 我不懂 Docker,Google 一下应该很快找到😄。
    cshlxm
        7
    cshlxm  
       2018-12-29 10:39:56 +08:00
    @olindk annaconda 和那个不一回事。。你要运行 tf 是需要 cuda cudnn,根据你运行的 tf 版本要求的 cuda 或者 cudnn 版本也不一样,驱动很好装的
    olindk
        8
    olindk  
    OP
       2018-12-29 14:35:53 +08:00
    @cshlxm Anaconda 会自动安装正确版本的 CUDA 和 cuDNN。在服务器安装驱动确实很容易,但是自己组装的电脑安装桌面版的 Ubuntu,安装驱动就容易踩坑……
    cshlxm
        9
    cshlxm  
       2018-12-29 16:42:40 +08:00
    @olindk annaconda 现在这么智能了,我 8 月份搞的时候 还木有啊,我没装桌面版,装的 server 版 4 块 tesla P40...
    olindk
        10
    olindk  
    OP
       2018-12-29 19:41:23 +08:00
    @cshlxm 应该有段时间了……我 10 月份装的系统。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2771 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 32ms · UTC 14:46 · PVG 22:46 · LAX 07:46 · JFK 10:46
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.