自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 问答 (2)
  • 收藏
  • 关注

原创 第一次用爬虫的数据存储到excel

记录成长代码异常简陋,大佬勿笑。import requests#引用函数库from lxml import etree#引用函数库import xlwt#引用函数库url='https://www.eol.cn/e_html/gk/dxpm/index.shtml'#获取网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chro

2021-02-07 14:36:52 518 2

原创 第一次用爬虫批量下载小说章节

import requests#应用库from lxml import etree#引用库import os#引用库if not os.path.exists('./终极斗罗/'):#创建终极斗罗文件夹 os.makedirs('./终极斗罗/')url='http://www.biquw.com/book/16583/'#获取小说网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebK

2021-02-06 10:26:09 388

原创 教你爬虫单次下载小说章节

跟爬取图片类似,思路是找url,再获取想要的内容并储存。import requests#引用库from lxml import etree#引用库import os#引用库if not os.path.exists('./沧园图/'):#先判断是否有叫沧园图的文件,若没有则创建一个当前目录下名为沧园图的文件, os.makedirs('./沧园图/')url='http://www.biquw.com/book/19877/8484359.html'#找到你想爬取小说章节网站链接head

2021-02-06 10:03:27 236

原创 教你用爬虫单次下载网上图片

import requests #引入reques函数库url = 'http://pic.netbian.com/uploads/allimg/180826/113958-153525479855be.jpg'#获取图片链接(注意后缀要有jpg不然获取得响应数据不对)headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4

2021-02-03 14:32:20 279 4

原创 第一次用python批量爬取图片

话不多说,直接看代码!!!!!import requests#应用库import re#应用库url='https://www.ivsky.com/tupian/dajiao_maotouying_v62812/'#网站链接headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36

2021-02-03 13:40:19 228 1

原创 Python中=+和+=的区别

直接上手代码输出发现,这是n和m和结果这其实是增强字符,先赋值在加起来,这是一个累加的过程我们可以看到这样一个结果那=+是怎么回事呢,我们先看看结果结果是2,其实啊这个+号这里就代表一个整数,可以忽略掉,那么这就是一个赋值的过程。总结以下:+=简单的说就是累加=+就是赋值你明白了么?我是python小白,有大佬请斧正。...

2021-01-28 22:39:09 2756

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除