爬虫
空条三锅
这个作者很懒,什么都没留下…
展开
-
第一次用爬虫的数据存储到excel
记录成长代码异常简陋,大佬勿笑。import requests#引用函数库from lxml import etree#引用函数库import xlwt#引用函数库url='https://www.eol.cn/e_html/gk/dxpm/index.shtml'#获取网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chro原创 2021-02-07 14:36:52 · 518 阅读 · 2 评论 -
第一次用爬虫批量下载小说章节
import requests#应用库from lxml import etree#引用库import os#引用库if not os.path.exists('./终极斗罗/'):#创建终极斗罗文件夹 os.makedirs('./终极斗罗/')url='http://www.biquw.com/book/16583/'#获取小说网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebK原创 2021-02-06 10:26:09 · 389 阅读 · 0 评论 -
教你爬虫单次下载小说章节
跟爬取图片类似,思路是找url,再获取想要的内容并储存。import requests#引用库from lxml import etree#引用库import os#引用库if not os.path.exists('./沧园图/'):#先判断是否有叫沧园图的文件,若没有则创建一个当前目录下名为沧园图的文件, os.makedirs('./沧园图/')url='http://www.biquw.com/book/19877/8484359.html'#找到你想爬取小说章节网站链接head原创 2021-02-06 10:03:27 · 237 阅读 · 0 评论 -
教你用爬虫单次下载网上图片
import requests #引入reques函数库url = 'http://pic.netbian.com/uploads/allimg/180826/113958-153525479855be.jpg'#获取图片链接(注意后缀要有jpg不然获取得响应数据不对)headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4原创 2021-02-03 14:32:20 · 279 阅读 · 4 评论 -
第一次用python批量爬取图片
话不多说,直接看代码!!!!!import requests#应用库import re#应用库url='https://www.ivsky.com/tupian/dajiao_maotouying_v62812/'#网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36原创 2021-02-03 13:40:19 · 229 阅读 · 1 评论