Python爬虫及其它函数知识读记及简单用法,持续更新中...

Python爬虫相关函数知识读记及简单用法,持续更新中…

requests [riˈkwests] n. 请求,要求( request的名词复数 ); 需要; 所请求的事物; 申请书

函数或单词— 音标中文意思-------用法及简单示例
Response—[risˈpɔns]n,反应,响应
requests.get(‘URL’)返回Response对像,例:res = requests.get(‘URL’)res为Response的对像
response(对像).status_codestatus[ˈsteitəs] n.状况;地位;资格;身份;情形.,code[kəud]n.代码,代号;电码----检查请求是否成功,返回200为请求成功例:print(res.status_code)
response(对像).contentcontent 读作:[ˈkɔntent]n.(pl.)内容;书报内容 ,— 把Response对象的内容以二进制数据的形式返回,例:pic = res.content
response(对像).text把Response对象的内容以字符串的形式返回,例:res = requests.get(‘URL’) novel=res.text
response(对像).encoding定义Response对象的编码,例: res = requests.get(‘URL’) res.encoding=‘utf-8’ 遇上乱码的时候,才考虑用res.encoding
<! DOCTYPE html>是一个全局声明,目的是告诉浏览器,你现在处理的这个文档是HTML文档

在这里插入图片描述

BeautifulSoup(文件,‘html.parser’)Soup [suːp]汤,parser[ˈpɑːsə]分析器、解析器----- 解析文件,括号中第0个参数必须是字符串类型,第1个参数是解析器,souty就是已经被解析过的BeautifulSoup对象
find()与find_all()查找一个或全部符合要求的
openpyxl.Workbook()创建新的workbook(工作簿)对象,wb = openpyxl.Workbook()
active----[ˈæktiv]活跃的------获取这个工作簿的活动表,通常就是第一个工作表,sheet = wb.active
.title-----[ˈtaitl]标题;称号------ 给工作表重命名,sheet.title = ‘new title’ --(sheet为工作表的名称)
save—[seiv]保存----保存文件并重命名,wb.save(‘Marvel.xlsx’)-
openpyxl.load_workbookwb = openpyxl.load_workbook(‘Marvel.xlsx’)调用函数,打开工作簿
load—[ləud]装载、载重量—
sheetnames—片名—获取工作簿所有工作表的名字,sheetname = wb.sheetnames
sheet—[ʃiːt]表—
value—[ˈvælju:]A1_cell = sheet[‘A1’] ,A1_value = A1_cell.value,print(A1_value),#把工作表中A1单元格赋值给A1_cell,再利用单元格value属性,就能打印出A1单元格的值
cookiescookie的复数–[ˈkuki] 饼干,Headers–response下面参数,可以绑定登陆账号密码存在本地浏览器中,下次自动登陆
session—[ˈseʃən]会议,开会----
monkey—[ˈmʌŋki]猴子
patch—[pætʃ]补丁
monkey.patch_all()gevent-库monkey模块—能把程序变成协作式运行,即可以帮助程序实现异步,协程
spawn—[spɔːn]产卵—
gevent.spawn( )gevent.spawn()的参数应为要调用的函数名及该函数的参数
join-- [dʒɔin]加入----(joinall–联合)
gevent.joinall( )调用gevent库里的joinall方法,能启动执行所有的任务。
task-- [tɑːsk]任务
queue---- [kjuː]排队\队列–
empty()— [ˈempti]空的—queuec对象中判断对列是否为空,例:work.empty()
full()— [fʊl]满的— queuec对象中判断对列是否为满。
spiders— [ˈspaɪdəz]蜘蛛(spider的复数)—scrapy框架里默认存放爬虫代码的目录。
parse— [pɑːz]解析—Scrapy里默认处理response的一个方法,如:def parse(self, response):
spider—[ˈspaɪdə®]蜘蛛— scrapy框架下定义爬虫类,并继承自scrapy.Spider类,如:class DoubanSpider(scrapy.Spider):
items—[ˈaɪtəmz]n,项目,账目(Item的复数)—scrapy框架下默认定义记录数据的文件:items.py
scrapy.Itemclass DoubanItem(scrapy.Item): 定义一个记录数据的类,继承自scrapy.Item类
Field—[fiːld]字段— 例:name = scrapy.Field()
yield—[jiːld]产量—yield item即把获得的item传递给引擎
settings—[ˈsɛtɪŋz]设置
start- [stɑːt]开始–
project-[ˈprɔdʒekt]n,计划,设计,项目–
callback— [ˈkɔːlbæk]回调—
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值