2024年我写了个脚本批量下载知乎回答/文章/想法/专栏/视频,公众号文章内容/话题/图片/封面/视频/音频,微博内容/图片/视频/评论/转发数据,导出excel和pdf
下载所有知乎回答以渤海小吏的号为例:
导出的excel包含所有知乎回答问题标题和链接。
然后用脚本将excel里的回答批量下载:
下载的所有回答html内容,文件名为回答日期加标题。
接着批量将html转换pdf,效果如图
再将所有pdf合成一个pdf文件:
每个回答都有原知乎回答链接。
下载所有知乎文章以半佛仙人的号为例 :
导出的excel数据包含知乎文章标题,链接,评论数和赞同数。
然后用脚本将excel里的文章批量下载:
下载的所有文章html内容,文件名为回答日期加标题。
接着批量将html转换pdf,效果
再将所有pdf合成一个pdf文件,每篇文章都有原知乎文章链接 再次更新,2024 批量下载知乎回答/文章/想法/专栏/视频导出 excel 和 pdf :
还有知乎专栏批量下载,我录制了个简单的视频:
下载的excel数据包含类型,标题,链接,创建时间,更新时间,简介,评论数和赞同数。
所有专栏文章生成的合集pdf:
还有文章内容html和视频
再说批量下载某个公众号的所有历史文章批量下载公众号文章内容/话题/图片/封面/音频/视频,导出html,pdf,excel包含阅读数/点赞数/在看数/留言数/赞赏数 ,下载效果如图:
生成的excel文章数据包含每篇文章日期,文章标题,文章链接,文章简介,文章作者,文章封面图,是否原创,IP归属地,阅读数,在看数,点赞数,留言数,分享数,赞赏次数,文章类型(群发/发布),是否删除,粉丝数,视频数,音频数等,比如深圳卫健委2022年的文章阅读数都是10万+,文章数据分析见文章2022年过去,抓取公众号阅读数点赞数在看数留言数做数据分析, 以深圳卫健委这个号为例 。
为了方便找历史文章2024批量导出公众号所有文章生成目录,这下方便找文章了,部分公众号的历史文章同步到了我的博客 ,持续更新,不用在手机上翻历史文章了公众号历史文章太多,手机上翻起来太费劲,怎么快速找到某一天的文章? ,比如深圳卫健委从2014到2024发布1万多篇文章,第一篇文章是这个:
每篇文章下的留言内容也可以导出到excel,内容包含文章日期,文章标题文章链接,留言昵称,留言内容,点赞数,回复和留言时间2023批量下载公众号文章内容/话题/图片/封面/视频/音频,导出html和pdf格式,含阅读数/点赞数/在看数/留言数/赞赏数,比如深圳卫健委在2022年的所有文章就有14万多条留言。
除了文章数据还有批量下载文章内容,这里以莫言老师的公众号为例,下载的所有历史文章内容和音频,视频 :
最后将所有文章合并成一个pdf文件 ,含文章留言和书签,点击左侧书签跳转到对应文章
文章下的留言增加了留言时间。 2024批量下载公众号文章内容/话题/图片/封面/视频/音频,导出excel和pdf,文章数据包含阅读数/点赞数/分享数/留言数
最后是微博批量下载,以李健的微博为例 ,抓取2010-2024年所有的微博数据excel,包含微博链接,微博内容,发布时间,点赞数,转发数,评论数,话题等。 2024 批量下载微博内容/图片/视频/评论/转发数据,导出excel和pdf
每个月的微博转评赞总数曲线,2015年是高峰。
微博原创与转发量曲线,2013年大量转发。
平常主要用iPad和网页版发微博。
微博内容生成的词云图效果:
导出所以微博内容生成pdf:
所有的微博图片:
再次更新:2024批量下载公众号文章内容/话题/图片/封面/视频/音频,导出文章pdf,文章数据含阅读数/点赞数/在看数/留言数