V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
ejin
V2EX  ›  问与答

feedly有https就是不给你用,这是什么心态,还自动跳到其他订阅,然后就被墙了

  •  
  •   ejin · 2013-07-07 15:35:04 +08:00 · 7785 次点击
    这是一个创建于 3944 天前的主题,其中的信息可能已经有所发展或是发生改变。
    feedly的https何意?www域名有https,cloud.feedly.com又没有,有什么用嘛,防止账号被劫持?劫持你cloud.feedly.com的cookie照样可以劫持你账号

    还有,如果你点击标记所有为已读,好吧,你无法想象,你在吃饭的时候看着it新闻,点击一下之后,自动跳到了1024的订阅里,看到那满屏的裸女,保证你立刻就没有了食欲。

    可能是我人品不好吧,这样的情况没有遇到,但是总是给我自动跳转到被墙的网站订阅上,比如youtube。于是打不开了。

    也可能是我的怪癖吧,默认还是希望显示已读的内容,但是它不是,貌似还没地方设置,要一个个订阅选择显示已读的条目。对于有100+订阅的人来说,这太蛋疼了。

    好吧这只是个吐槽贴
    28 条回复    1970-01-01 08:00:00 +08:00
    horsley
        1
    horsley  
       2013-07-07 15:54:04 +08:00
    小小的推荐一下Slickreader
    有HTTPS,可以直接看已读内容,体验不错的说
    aku
        2
    aku  
       2013-07-07 15:56:32 +08:00
    用inoreader吧
    feedly
    newsblur
    the oldreader
    digg
    AOL reader
    都只能看最近的
    怒了,这算什么RSS?
    现在免费的一个一个试过去,就inorerader能看到以前的(6年前),也支持https,可以关掉社交,可以导进google-reader-take-out数据


    好吧,这是愤怒的吐槽

    btw 收费的feedbin怎么样?有人有过吗?
    aku
        3
    aku  
       2013-07-07 16:01:57 +08:00
    @horsley silkreader的rss条目能上溯到多久以前?
    另外,我看到newsbur的页面跟它好像啊。
    wozzl
        4
    wozzl  
       2013-07-07 16:14:18 +08:00 via Android
    theoldreader其实不错,不过它竟然连PC版和安卓版恩不能同步…无语
    wozzl
        5
    wozzl  
       2013-07-07 16:15:03 +08:00 via Android
    其他几个都是在PC上各种慢,真心没有完美的
    ejin
        6
    ejin  
    OP
       2013-07-07 16:18:45 +08:00
    @horsley 导入中。

    @aku 那不是他们的错哎,毕竟人家刚开始,也只能获取现在的啊,只能获取存下来,人家有几年的肯定是以前存下来的,或者是从别的阅读器导来的。这不是阅读器的错啊 - -!!!
    aku
        7
    aku  
       2013-07-07 16:27:30 +08:00
    @ejin https://yoleoreader.com/
    这个只是一个女生搞得也能上溯到几年前啊。
    不过据hacker news, 好象是个女博士
    wjchen
        8
    wjchen  
       2013-07-07 16:53:46 +08:00
    @aku 除非是那种做了很多年的,不然应该是导入了google reader的数据吧。
    而且这样极消耗硬盘空间。
    ejin
        9
    ejin  
    OP
       2013-07-07 16:56:33 +08:00
    @aku rss本身只会提供10条20条50条,你只能获取到这么多,人家也只提供这么多,你怎么获取几年前的?一个个网站采集去?不懂不要乱说好么。

    那些有几年前的,要么是几年前自己就存在,慢慢积累起来的,要么通过api从别的阅读器,比如google reader,但是这样获取的话,数据量会很大,api必然也有限制,慢了你又嫌弃,总之就是那回事了。
    ejin
        10
    ejin  
    OP
       2013-07-07 17:12:05 +08:00
    @wjchen 没错,极其消耗硬盘不说,还没几个人会去看,谁没事去翻几年前的老文章呢
    aku
        11
    aku  
       2013-07-07 17:53:30 +08:00
    @ejin rss的xml的确只是记录了几十条item
    google reader 出现在2005年。
    2005之前的条目是怎么抓取的呢?
    google reader 之类的不可能完全依赖rss,肯定还用了爬虫。
    google reader本来就不是一个真正纯的rss reader,更像是一个archiver
    作为google reader 的代替,feedly就购买了大量服务器,如果只是纯粹的抓取rss,根本不必如此。


    想必用google reader的人中,把它当作archiver的不只我一个吧。至于数据量大的问题,不是我们用户该操心的。数据量再大,也不会比搜索引擎的cache大。


    另外,这些代替品中,有的甚至连2月份的都显示不出来。对一个google reader的代替品,这样也满足的话,要求未免也太低了。

    若只是rss阅读器,我肯定不会提这样的要求。

    另外,动辄说别人不懂,容易破坏讨论的氛围,还是不要这样吧。。。
    wjchen
        12
    wjchen  
       2013-07-07 18:27:21 +08:00
    @aku 可以肯定https://yoleoreader.com/不是对网页爬虫,而是用了google reader的数据。
    我找了个只有我一人订阅的rss,去这个网站试了试,并没有看到以前的数据。
    而且哪来这么多文章需要archive,真正有价值的加下星标,其他rss应该能导入加星标的条目。
    Do
        13
    Do  
       2013-07-07 18:28:33 +08:00 via iPhone
    cloud.feedly.com也有https,但是回强制跳转回http,满屏裸女是因为你订阅了1024吧,feedly回自己跳转回已读条目。
    现在看来digg和feedly根本不靠谱!
    ejin
        14
    ejin  
    OP
       2013-07-07 18:49:12 +08:00
    @aku google说的很清楚了,因为付出了太多的资源,而得到的用户太少,这还不明白为什么么

    一个用户,比如我,有个几G的内容很正常,但是我一般只看一次就丢在那不会再看了,但是它又必须保存下来,更有甚者比如你,还要更多!连阅读器运营之前的数据你都要!

    还有其他情况,有的人有10个订阅,有的可能有100个,google也说了,有很大量的订阅,是只有一个用户,我的订阅里有一些条目,就是只有我一个用户的,不管我是否登录,几个月不来,google却要每天帮我去抓取,一天还要去很多次,这要多少资源?抓取了还要帮我存好,源站有多大数据他就要为我存多少数据,甚至我根本不会去使用,10年前订阅的数据,我会去看?但是他却要时刻准备着!

    而我却不用为此花一分钱,而google却付出了太多的资源,包括宽带,计算机运算、存储都是要钱的。

    现在google终于受不了了,走了,很多人还说google作恶了等等。

    现在出现了很多替代品,但是又怎样,替代品就要有google有的全部数据?拥有google的强大的功能,宽带?存储?运算?全是钱啊,连拥有这么多服务器的google都受不了了,谁受得了?你受得了?那为什么你自己不去搞一个,而在到处找呢?

    凡事应该替别人想想,不要成天被媒体给玩了,媒体为什么爱吹,因为只有炒作,才会有人看,才会有人喷,广告才卖得出去。
    aku
        15
    aku  
       2013-07-07 18:59:32 +08:00
    @wjchen 哦,yoleoreader.com,我用一个只有我订阅的rss试了一下,只显示最近的。然后我用了一个订阅多一些的rss,xml只有最新的十几条,yoleoreader.com能显示到2006年。这么说,应该是部分用了爬虫。有可能使用了google reader的数据,但是不可能全部爬下来,我个人的google reader的数据(不是google-take-out)爬下来就有1G多。应该是有的只是读取rss的xml里有的,有的还用爬虫抓取额外的。

    archive的精妙在于,在你需要的时候,能够拿到文章。加星只是标记。但是有的文章已经消失了,甚至网站都没了,而archive却还能让你拿到文章。

    真正需要archive的文章肯定不多。这么多年,加星条目整理后我还有几千条。
    我不知道其中多少加星条目,现在还能在网上找到。如果是在google reader里,我不必担心它们会消失。但是转移到其他阅读器,有多少还会有效,我不乐观。也许我能看到的,只是一张加星列表。

    现在,我如果想把文章加星,我还会把它share 到pocket。这样会有内容的备份。真正重要的,会存为pdf,加入个人知识备份。

    真正重要的东西丢失了,即使数量不多,心里多少还是会纠结的。
    wjchen
        16
    wjchen  
       2013-07-07 19:07:35 +08:00
    @aku google takeout导出的压缩包里,里面的starred.json既有url,也有内容。
    难道各种rss阅读器不能导入?那做得太差了。。。
    aku
        17
    aku  
       2013-07-07 19:14:58 +08:00   ❤️ 2
    @ejin 对google reader所做的,我很感激。大量消耗服务器资源才能做到,而这正是google reader难以代替的地方。但是这恰恰是google的优势所在,google 搜索 的爬虫其实能完成这一切。若非搜索引擎提供商,做rss阅读的话,要么只用rss抓取不足;要么投入大量资源抓取,最后可能亏损倒闭。

    其实google给出的理由,我还是觉得太牵强。即使关闭google reader,google search engine对网页的抓取索引和cache依旧不会停止。而google reader所做的与此并无什么区别。两者的功能很多地方是重叠的。

    不过最后,还是感谢google这些年来的服务。毕竟,这么多家搜索引擎提供商中,只有google提供了reader
    aku
        18
    aku  
       2013-07-07 19:19:22 +08:00
    @wjchen 有的只能上传subscriptions.xml
    inoreader可以导入整个take-out,应该能看到加星条目内容。
    jeeson
        19
    jeeson  
       2013-07-07 19:45:23 +08:00
    @wjchen takeout 数据的导入要考虑一个问题 -- 篡改

    同一篇文章很可能有多个用户收藏,如果导入,是每个用户都导入一条记录还是大家用一个数据?

    feed, 文章项目 这些资源通常是公共的,如果某篇文章的第一个用户把经过修改的数据导入,就会导致后来的用户阅读到的是被篡改的数据。
    chainkhoo
        20
    chainkhoo  
       2013-07-08 03:58:21 +08:00 via iPad
    feedbin还不错 在国内环境下稳定性比feedly好得多 而且默认是ssl
    不过很多人推荐的都是fever 据说已经是rss的巅峰了
    j1945
        21
    j1945  
       2013-07-08 07:52:06 +08:00
    我只是来看看楼主啥时候分享1024的订阅地址的,以前有个小号专门订阅了GR里有人分享的1024订阅大合集,然后就闲置了,有没有不是网盘分享直接挂ed2k或者megnet或者种子可以RSS直接订阅的。
    nVic
        22
    nVic  
       2013-07-08 08:07:29 +08:00 via iPad
    RSS仅仅是rss,你想把它当作evernote也可以,但是你又想免费又想无限存储,那就没办法。
    ejin
        23
    ejin  
    OP
       2013-07-08 11:24:42 +08:00
    @j1945 其实不是1024,是maya的bt合集而已,说成1024比较容易理解,也属于网盘吧,应该是maya自己的站,你要是去过就知道
    yautou
        24
    yautou  
       2013-07-08 12:22:16 +08:00
    尼玛一路看下来终于还是歪楼了。。。
    ejin
        25
    ejin  
    OP
       2013-07-08 13:12:09 +08:00
    @yautou 吐槽贴,只是变成大家一起吐槽而已
    cml10101
        26
    cml10101  
       2013-08-11 17:09:46 +08:00
    你好,我登陆feedly时域名那里也是显示loud.feedly.com,登陆等待一会后google页面上就显示空白了,再没有反应,你是怎么弄得啊?feedly在我电脑上不能用了吗?
    ejin
        27
    ejin  
    OP
       2013-08-12 01:42:37 +08:00   ❤️ 2
    @cml10101 feedly进去后会访问一个网址里带有*feedly.blogspot.com*的网址。屏蔽就可以了,不然一直会被墙中断掉。用去广告的插件,加个规则*feedly.blogspot.com*
    cml10101
        28
    cml10101  
       2013-08-12 08:53:04 +08:00
    @ejin 菜鸟表示还是不会弄啊,我再学学吧
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   5840 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 31ms · UTC 02:28 · PVG 10:28 · LAX 19:28 · JFK 22:28
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.