首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Distributions
Ubuntu
Fedora
CentOS
中文资源站
网易开源镜像站
V2EX  ›  Linux

Linux 如何快速拷大量文件, cp 是单进程的?

  •  
  •   yuedingwangji · 85 天前 · 5101 次点击
    这是一个创建于 85 天前的主题,其中的信息可能已经有所发展或是发生改变。

    RT,最近需要给服务器传一些图片,大概有 200 多 G,文件个数更加是不知道多少了,直接考虑先压缩文件夹在传,但是后来想了一下,图片压缩率太小了,而且这样压缩的时候也很长,到时放到服务器还得解压,感觉反而更慢了, 网上有些说可以在复制的时候用流来压缩,这方法还真没实际测试过,不知道怎么样,最后我还是用古老的 cp 来操作的, 操作的时候,我观察进程的 fd 发现,cp 进程居然每次只有 2 个文件符,一个指向源文件,一个指向目标文件, 这是不是就说明 cp 复制了单进程的,如果是的话,那 cp 复制也太慢了吧, 每次复制一个文件,那我 10 几 w 的文件要复制到什么时候呀,求 v2 大神科普

    58 回复  |  直到 2018-11-29 15:05:49 +08:00
        1
    66450146   85 天前
    多进程不见得更快,而且在出错的时候恢复现场更麻烦

    拷大量文件还是用 rsync 吧
        2
    likuku   85 天前
    移动硬盘全盘加密后直接快递 /人肉到 IDC,直接连服务器上对拷,当然也是要用 rsync,能断点续传,能显示进度
        3
    likuku   85 天前
    传输压缩?你图片若已经是 jpg,gif 之类已经被高度压缩过的图,那么传输压缩没啥卵用。
        4
    JasonYo   85 天前 via Android
    rsync
        5
    wwqgtxx   85 天前 via iPhone
    cp 是单线程的不是很正常么,哪个系统自带的复制是多线程的,而且在绝大部分情况下多线程复制反而会更慢
        6
    congeec   85 天前   ♥ 1
    tar
        7
    flynaj   85 天前 via Android
    rsync 后台慢慢来,这个瓶颈应该是你的网络上传速度,按家用带宽 4m 上行,一个小时 1g,最快也要 200 小时。
        8
    yuedingwangji   85 天前
    哈哈,我现在就是直接拷到硬盘硬盘,然后到机房那里去复制数据的,但感觉用 cp 真的好慢呀
        9
    xeaglex   85 天前
    那你自己用脚本异步执行 cp 不就好了
        10
    ysc3839   85 天前
    个人认为复制的瓶颈在于硬盘读写速度。如果你使用多进程复制,会导致硬盘在多个位置读写,速度会比顺序读写慢很多的。
        11
    johnnie502   85 天前
    先打包,不用压缩,比如用楼上的 tar,这样开销小,传的比较快
        12
    dsnake1984   85 天前
    我用 cos/oss 花点钱 还是挺爽的
        13
    ryd994   84 天前   ♥ 14
    震惊,Linux 下最好用的复制命令居然不是 cp
    tar c -C /src/ | tar xv -C /dst/
    cp 慢主要是没有缓存还每文件一次 sync。这个 tar 命令实际上是利用 pipe buffer。
    另外,rsync 也可以用于本地,不妨试试
        14
    ericgui   84 天前
    scp
        15
    clino   84 天前
    上面用 tar 的方法应该是很好的,如果是远程我记得用 ssh 也能用管道
        16
    hawhaw   84 天前 via Android   ♥ 1
    scp 走的是 ssh 性能会有损失,建议服务器直接 nc 开个口子接收数据再传给 tar 解压缩,客户端上用 tar 打包再扔给 nc 发给服务器( nc 开的那个口)
        17
    congeec   84 天前 via iPhone
    @hawhaw 这种方案必须保证链接够稳定,不会断掉。还是 rsync 通用
        18
    crystone   84 天前   ♥ 1
    文件多就打包传啊,有没有压缩无所谓。如 ls 所言的
        19
    l4ever   84 天前
    曾经花了一天时间从公司把 400G JPG,pdf 等资源用 rsync 上传到服务器上的路过.
    挂机放那里不管他呗.
        20
    liangzi   84 天前 via Android
    rsync or Syncthing
        21
    mamax   84 天前
    图片是压缩率太大,搞反了
        22
    yidinghe   84 天前 via Android
    如果有几万甚至几十万小文件,打包再拷贝通常会更快
        23
    zhongyiio   84 天前 via Android   ♥ 2
    rsync -avzP ...,一定要考虑断点续传,就是这里的 P,否则网络一个闪断之类的就傻了
        24
    smdbh   84 天前
    挂一晚就好了
        25
    tnt666666   84 天前 via Android
    瓶颈是 io,不是 cpu
        26
    arrow8899   84 天前
    这个跟你的网速或硬盘速度有关系吧,单线程多线程其实影响不大
        27
    fcten   84 天前
    随机读取大量小文件本来就很慢,多线程也没用
        28
    xiaogui   84 天前
    如果是大量碎小文件的话,推荐打成 tar 包 ,不要压缩,比如每个包 1 G,然后拷贝过去。
        29
    aa514758835   84 天前
    手写一个多线程的 cp,我记得之前写过,没几行
        30
    pierre1994   84 天前
    线程或进程过多,会有磁盘随机 IO 问题
        31
    kernel   84 天前
    @ericgui scp 200G 小文件要复制到明年
        32
    liuxu   84 天前
    说真的,大文件邮寄硬盘更快,毕竟你有 100M 电信,最多也就 10M 上传
        33
    zhongyiio   84 天前 via Android
    @kernel 联通 100m 带宽,上传速度能到 15MB/s,也就十几个小时吧
        34
    omph   84 天前
    写个脚本,定量 tar 打包,然后网络流
        35
    liwl   84 天前
    瓶颈是带宽...不是 IO
        36
    kernel   84 天前
    @zhongyiio scp 和 rsync 不同。每复制一个文件要停一会。感觉是每复制一个文件都要断开新开一次连接。对于大量小文件效率比 rsync 低几十倍。
        37
    TotoroSora   84 天前
    不管是硬盘对拷还是网络流,感觉都是先 tar 打包比较好
        38
    likuku   84 天前 via iPhone
    #13 @ryd994 tar 的办法,哈哈,想起来当年还不知道 rsync 时,硬盘对拷系统就这么用 tar 和管道来着
        39
    liberize   84 天前
    刚用 parsync 传了 800G 的数据到服务器,平均每个文件 10M 吧,瓶颈在上行带宽
        40
    stebest   84 天前
    @ryd994
    @zhongyiio

    @hawhaw
    到这里我想问下,如果使用 Samba 协议挂载远程目录到本地磁盘,然后使用 cp 命令和 rsync 命令,哪个快?
        41
    Rekkles   84 天前
    懒人的我通常都是打包 开个 80 端口 然后 wget
        42
    msg7086   84 天前   ♥ 1
    打包传用 tar,目录直传用 rsync。cp 是复制,但不是给你复制那么多文件用的。
    cp 是一个底层命令,也就是要做到「最简单」,「最不容易出问题」,要是做成多线程的话非让人打死不可。

    @stebest 要速度的话,rsync 几乎总是最快的。
        43
    Gathaly   84 天前
    tar | scp
        44
    ryd994   84 天前 via Android
    @Gathaly 都 tar 了还 scp 干嘛
    tar cz -C /src/ | ssh user@host tar xzv -C /dst/
    还带压缩哦

    然后你会发现这么蛋疼还是 rsync 靠谱,毕竟能断点续传
        45
    wanderpoet   84 天前 via iPhone
    @ryd994 #13 学习了
        46
    qmake   84 天前 via Android
    远程机器建一个稍微大一点的 lv 然后 dd 过去 如果要看进度的话 用 pv
        47
    tanpengsccd   84 天前 via iPhone
    学习了。
        48
    cy97cool   84 天前
    大量小文件推荐用 seaweedfs
    https://github.com/chrislusf/seaweedfs
    to store billions of files! to serve the files fast!
    SeaweedFS implements an object store with O(1) disk seek, and an optional Filer with POSIX interface.
        49
    enjoyCoding   84 天前 via iPhone
    可不可以拆成多个文件夹 多个窗口 cp ?
        50
    timothyye   84 天前 via Android
    今天正好服务器搬家,rsync 又快又棒
        51
    ymj123   84 天前 via Android
    单纯论速度 scp 比 rsync 快的,我实验过很多次。当然楼上说 rsync 有断点续传功能,那挺好。还有 scp 不能拷贝软链接,rsync 可以。你这个就 tar 打包,然后 scp 慢慢传吧。
        52
    figo   84 天前
    老实点吧,作为过来人告诉你最稳定的办法就是先 tar 然后在 scp。
        53
    WilliamHL   84 天前 via iPhone
    rsync 真的很好用
        54
    scholar   84 天前 via Android
    看看 phzip2 的介绍,这个压缩了可以调用多线程。我们计算数据都是 Gb 来的,用它压缩比 tar 压缩成 tar.gz 等都快,压缩率也高很多!但不确定你这小文件众多的情况
        55
    ps1aniuge   84 天前
    rsync 需要安装,若是 win,winscp 最简单。支持多线程。
    在选项===》传输===》后台里设定。
    具体多少线程,根据 **基本跑满服务器带宽,不怎么波动** 为准。
        56
    noqwerty   84 天前 via Android
    上次备份服务器用的是 rsync -avzhP --progress
        57
    aa514758835   83 天前
    手写多线程 cp,代码不多的
        58
    realpg   83 天前
    rsync,或者 tar 直接把流通过 tcp 传输
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   910 人在线   最高记录 4385   ·  
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 22ms · UTC 19:48 · PVG 03:48 · LAX 11:48 · JFK 14:48
    ♥ Do have faith in what you're doing.
    沪ICP备16043287号-1