Python爬虫
橙子味儿的糖
这个作者很懒,什么都没留下…
展开
-
捕获所有文章的超级链接(上篇)-python爬虫
1、进入韩寒博客:http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html 2、按住F12 查找关于韩寒博客列表任意一篇文章的链接的代码:如下是第一篇文章 写给那个茶水妹的《乘风破浪》诞生… 3、写python代码:(该代码 只能下载指定一篇文章) #写给那个茶水妹的《乘风破浪》诞生… #coding:utf-8 impo原创 2018-01-26 15:39:27 · 292 阅读 · 0 评论 -
捕获所有文章的超级链接(下篇)-python爬虫
目标:下载韩寒博客中的所有文章(文章列表有7页,共有315篇文章) 代码如下: #写给那个茶水妹的《乘风破浪》诞生… #coding:utf-8 import urllib.request as urllib import time url = ['']*350#url列表,存储350篇文章 #取博文的7页中所有的基地址 page = 1 link = 1 while page <= 7 :原创 2018-01-26 21:01:04 · 225 阅读 · 0 评论 -
捕获所有文章的超级链接(中篇)-python爬虫
目标:下载韩寒博客首页的所有文章(共50篇文章) python代码 #写给那个茶水妹的《乘风破浪》诞生… #coding:utf-8 import urllib.request as urllib import time url = ['']*50#url列表,存储50篇文章 con = str(urllib.urlopen('http://blog.sina.com.cn/s/article原创 2018-01-26 16:49:57 · 206 阅读 · 0 评论