V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ecnelises
V2EX  ›  算法

文件增量同步算法有哪些可以改进的地方?

  •  
  •   ecnelises · 2022-05-08 23:29:48 +08:00 · 961 次点击
    这是一个创建于 710 天前的主题,其中的信息可能已经有所发展或是发生改变。

    在网上看了一些关于 rsync 核心算法的介绍(比如这个 ),了解到这个增量同步做法的核心是:

    • 把旧文件按固定大小(假设块大小是 n )拆成块,然后对每块算散列值
    • 建立一个长度为 n 的固定窗口,从头在新文件上滑动
      • 如果旧文件有某块的散列和当前窗口匹配,就前进 n 个字节开启下一轮匹配
      • 否则前进 1 字节再匹配,这个字节就标记为新增的
      • 散列算法经过特意选择,上一轮的计算结果可以重用
    • 最后得到一个这个文件由哪些新增内容和已有块组成的结果,就可以只同步更改的部分了

    还没有看 rsync 的源码,不知道它最新的实现和上面有多少出入。

    一些网盘(比如 Dropbox )把增量同步当作自己的核心技术。我想了想 rsync 这个做法有哪些可以改进的地方,只能想到简单的几点:

    • 纯文本文件是按行为单位的,所以同步纯文本文件时,散列的单位可以是不定长的行而非固定长的块。但这样要传输的数据就会变多(大部分行都短于一个 512B 的块)甚至需要多次网络请求(如果把多行作为一个散列单位),所以还不知道究竟能不能加速
    • 一些二进制文件,有特有的数据包格式(比如压缩包,音乐文件),整个文件可能被分为文件头和若干段,我们可以有意识利用这些信息做同步,而不是粗暴地以固定长度选块。做法可能因不同格式而异
      • 压缩文件有个问题,就是其中的某个文件变化一点点,压缩后的结果可能截然不同。这种情况只能根据文件大小判断是全量同步还是临时解压后再做对比

    这么看好像能提高的地方也不多。

    1 条回复    2022-05-09 16:37:35 +08:00
    learningman
        1
    learningman  
       2022-05-09 16:37:35 +08:00
    按道理来说,每种文件格式设计一种增量同步才是最合理的。比如 tar 和纯文本直觉上都能有很高效的 diff 。
    但是实际上成本划不来。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2964 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 15:08 · PVG 23:08 · LAX 08:08 · JFK 11:08
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.