V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
axiao12
V2EX  ›  硬件

现在想入门深度学习领域,个人选择什么显卡更好呢

  •  
  •   axiao12 · 319 天前 · 1685 次点击
    这是一个创建于 319 天前的主题,其中的信息可能已经有所发展或是发生改变。
    最近几年深度学习很火,一直了解都比较浅,想要真正玩这个打算再配两块显卡,预算有限想要控制在 5k 以内纠结于性价比不知道选啥。
    现有一块 1060 3G 显卡,显存是在太小了,基本跑不了啥模型,想要给家里的 EYPC 服务器和自用主机各配一块显卡,不考虑 4080.90 这种太贵了
    看了一下目前 24G 显存里最便宜的是 tesla M40,500 块,但是听说架构太老了,如果是放在 EPYC 服务器做一些预训练测试是否合适呢。对于涉及复杂模型的情况可以考虑分时租一台 A100 来用
    另一块给自用的主机用,对比 2080ti 魔改 22g ,3080 和 4070ti ,看了一下最近测评 4070ti 的性价比好像很高,但是主要是游戏方面,深度学习方面好像相比 2080TI 也没啥优势,而且显存也小只有 12g
    10 条回复    2023-06-12 17:00:10 +08:00
    nightwitch
        1
    nightwitch  
       319 天前 via Android   ❤️ 1
    用 kaggle 和 colab ,学习足够了。
    NSChris
        2
    NSChris  
       319 天前
    买了一个 2080ti 11G 公版 1k9
    先用着吧 反正是学习 不够用了再说
    gam2046
        3
    gam2046  
       319 天前
    tesla 系列是没有配置风扇的,是需要在机架里风扇散热,也就是你在普通机器里用需要自己动手加装像游戏卡的那种风扇。

    条件允许的范围里,尽量选择显存最大的,其他的参数一般很少会导致模型跑不了,大不了就是慢点,但是显存不够那就是只能干瞪眼,一点都跑不了。
    axiao12
        4
    axiao12  
    OP
       319 天前
    @NSChris 我看了一下魔改 2080TI 22G 好像也才 2600 吧,多 700 对我目前预算来说还好
    axiao12
        5
    axiao12  
    OP
       319 天前
    @gam2046 这个我查过的确实要加装,但是我本身就是往 EPYC 工作站机箱里装,哪个空间本身够用的
    就是纠结有没有必要买两张卡,一张慢的大显存,一张快点的小显存
    kloseWu
        6
    kloseWu  
       318 天前
    M40 散热不好,我觉得 P40 24G 的可以考虑考虑。魔改的没有质保,千万不要买
    axiao12
        7
    axiao12  
    OP
       318 天前
    @kloseWu 现在 P40 要 1600 ,太贵了,速度还很慢,这个 P40 现在最多有店保吧和魔改没差吧
    kloseWu
        8
    kloseWu  
       317 天前
    @axiao12 闲鱼早上我刚看有 1100 的,我 1 月份买的时候是 800
    axiao12
        9
    axiao12  
    OP
       317 天前
    @kloseWu 刷到过 1100 的,但是点进去就不是了
    FENebula
        10
    FENebula  
       312 天前
    @axiao12 用来改显存的 2080ti 有啥货源吗?另外不知道 op 有没啥二手够用(指深度学习 stable diffusion 推理出图)的 cpu 主板经验介绍?
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1608 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 16:48 · PVG 00:48 · LAX 09:48 · JFK 12:48
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.