python网络爬虫信息组织与提取

提取HTML中所有URL链接
搜索到所有<a>标签
解析<a>标签格式,提取href后的链接内容!

import requests
r = requests.get("http://python123.io/ws/demo.html")
r.text
demo = r.text
from bs4 import BeautifulSoup
soup = BeautifulSoup(demo , "html.parser")
print(soup.prettify())
from bs4 import BeautifulSoup
Soup = BeautifulSoup(demo, “html.parser”)
for link in soup.find_all('a'):
print(link.get(‘href’))

如果输入报错:
https://blog.csdn.net/weixin_42859280/article/details/84203450

find_all(name)

查找所有的tag name:
for tag in soup.find_all(True):
 Print(tag.name)

引入正则表达式:import re


 

匹配含有‘b’的标签。并将其输出!
查找属性。必须带个‘p’。因为这个是一个类别。p中包含course字符串的信息!

 

对属性做约束!看来通过,id=’link1’进行匹配的错误一个都不可以!

 


模糊查找,就需要正则表达式啦!
Import re
soup.find_all(id=re.compile(‘link’))
以link开头,但是不完全一致!
用正则表达只需要给出一部分就可以进行模糊搜索!

 soup.find_all('a',recursive=False)对子孙进行搜索。

String:<>...</>中字符串区域的检索字符串。

 

用过之后:

 


<tag>(..)等价于<tag>.find_all(..)
soup(..)等价于 soup.find_all(..)

7个方法:

 

总结:

 

 

三种标记信息的比较:好多图系列~

YAML:

JSON

 

 

HTML:

YAML1:

 

 

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值