首页   注册   登录

begeekmyfriend

Be geek, my friend!
  •   喜马拉雅fm / 音视频炼丹士
    V2EX 第 170352 号会员,加入于 2016-04-23 22:34:34 +08:00
    begeekmyfriend 最近回复了
    @takato 我使用了 TF 的一个高手魔改 API 版本终于复现了 state of the art,可见 TF 本身功能是没什么问题,但的确存在很多脑残设计。
    @takato 就是因为 PyTorch 的那个项目(不是 PyTorch 本身)复现有瑕疵才问的,奈何作者跑路中
    @iBaoger 阁下是?
    @lihongjie0209 @Weny 第一、你们用过 Tensorflow 吗?第二、你们用过 TF 的 API 更深的地方吗?
    @yangyaofei 说得再详细一点,AttentionWrapper 内部本身封装了一个 decoder RNN,但论文里的 decoder RNN 是需要自己设计的,没法子只能 AttentionWrapper 外面再做一个 decoder,但是我们还需要把 decoder 的输出反馈到 encoder 端,形成闭环,但是 AttentionWrapper 阻止了这种灵活性,只能把反馈接到 decoder 的输入端。总之无法严格实现论文的架构,所以只能把整个 Attention 类拷过来,打散自己搭建。
    @yangyaofei https://github.com/keithito/tacotron/issues/170#issuecomment-389766623
    说来话长,AttentionWrapper 简直是个 bug 设计。这些都是实践中总结对比出来的,可验证的。一下子我的训练数据少了很多,收敛也快了很多。
    @v2lf 你认错人了吧?我可是一度吹捧 Linus 的
    @huanghaofu86 我没有 DB 开发经验,全是业余作品
    @fcten 就是上层的缓存啊,底层(包括我的 cache )指的是落地用的
    @fcten 行级锁那是上层概念,底层怎么可能每一条记录上锁?
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   4120 人在线   最高记录 5043   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 10ms · UTC 03:19 · PVG 11:19 · LAX 19:19 · JFK 22:19
    ♥ Do have faith in what you're doing.