V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
punny
V2EX  ›  Python

推特上好康的太多了,想保存下来。

  •  
  •   punny · 10 天前 · 2115 次点击

    想写一个爬虫,来每天爬取我账号 like 过的推文,包括文字,图片视频等,将他保存在本地。 我想知道是否可以实现,并且是否有现成的项目,或者是否困难。

    8 条回复    2024-05-14 14:21:29 +08:00
    k7262140
        1
    k7262140  
       10 天前
    hitomi_downloader 只能图片和视频
    NanJi
        2
    NanJi  
       10 天前
    有什么好的,介绍几个啊
    man2vec
        3
    man2vec  
       10 天前
    让 ChatGPT 写,不到半小时就能搞定。
    就是下视频比较麻烦,yt-dlp 应该能搞定。
    vczyh
        4
    vczyh  
       9 天前
    每日大作战?
    lisxour
        5
    lisxour  
       9 天前   ❤️ 1
    你说的都可以实现,问题出在请求频率限制,现在 twitter 的请求频率限制得很死,爬虫的话三两下就超了,得冲会员,才能解锁更大的限制
    xingheng
        6
    xingheng  
       9 天前
    vangjing
        7
    vangjing  
       9 天前   ❤️ 1
    alwaysol
        8
    alwaysol  
       9 天前
    少看点,伤肾
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1008 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 20:41 · PVG 04:41 · LAX 13:41 · JFK 16:41
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.