Python学习杂记(网络爬虫)

网络爬虫的第一步:
根据URL,获取网页的HTML信息。Python3中,可以使用urllib.request和requests进行网页爬取。
Urllib3是一个功能强大,条理清晰,用于HTTP客户端的Python库。
如何将信息输入到文本框内?
如果会报编码错误,其原因是网页及python的编码都是utf-8,在写进txt时Windows默认转码成gbk,遇到某些gbk不支持的字符就会报错。
with open(‘E:\Python_note/Spider_baidu.txt’,’w+’,encoding=’utf-8’) as f:
f.write(req.text)
通过这一句表示,将req.text文本按utf-8的格式写入E:\Python_note\Spider_baidu.txt目录下,如果Spider_baidu.txt不存在则会创建一个txt文本。

爬虫的第一步是获取整个网页的HTML信息,第二部则是解析HTML信息,提取我们感兴趣的内容。提取的方法有很多,可以用正则表达式 ,Xpath、Beautiful Soup等。

遇到的问题:
如何将resultset 转换成 str
直接用str(resultse)强行转换。

Beautiful Soup中的find()函数与find_all():
find(name,attrs,recursive,text,**wargs)
过滤参数:
查找标签,基于name参数
查找文本,基于text参数
基于正则表达式的查找
标签属性的查找,基于attrs参数
基于函数的查找

find()用来查找第一个匹配结果出现的地方,而find_all()正如名字所示,将会找到所有匹配结果出现的地方。应用到find()中的不同过滤参数同理可以用到find_all()中,实际上,过滤参数可以用于任何查找函数,如find_parents()或和find_siblings()。

未完待续…….

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值