V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
HiBoy23
V2EX  ›  问与答

大数据量高并发情况下写入数据库问题

  •  
  •   HiBoy23 · 2018-07-12 14:28:43 +08:00 · 2073 次点击
    这是一个创建于 2117 天前的主题,其中的信息可能已经有所发展或是发生改变。

    在使用 kafka-storm-MariaDB 流程中,storm 计算后的数据量很大,最后需要入库到 MariaDB,有没有大神有什么好的方法可以减轻数据库压力,定时器五分钟执行一次,数据量大概五分钟有三千万左右,目前逻辑是正常 insert into 语句,Batch 数量为十万条 commit 一次。

    目前尚无回复
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1089 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 18:39 · PVG 02:39 · LAX 11:39 · JFK 14:39
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.