写了一个LINUX DO资源贴爬虫,方便找资源

要被制裁了

应该不至于吧,只是爬取了帖子,并没有对原帖内容做处理,链接是指向l站的

2 Likes

多久爬一次?

2小时一次,增量爬取,不会对l站造成压力

但是最终还是要进到帖子里去,这样应该还是会卡级别吧

这个RSS订阅也十分可以

discourse自带, :bili_040:

跳原链接确实原帖内容和下载资源不会越级

不知道有些标题适不适合出现

1 Like

我只能说很牛!

牛牛牛阿

1 Like

这就是所谓的万物皆可.rss

思路是 捕获aff的html内容吗 遇到已保存的就停止

1 Like

差不多,不过discourse自带搜索rest api,直接用rest api爬取了,然后对资源做一定的筛选

挂了么?

应该没有吧

牛的老哥 用上了 收藏永不停止

mrak

mark

大佬太强了

为啥我用不了这个呢,我用的「NetNewsWire」这个RSS软件