python爬虫获取页面元素的css样式,BeautifulSoup获取指定class样式的div的实现

如何获取指定的标签的内容是解析网页爬取数据的必要手段,比如想获取

...
这样的div标签,通常有三种办法,

1)用字符串查找方法,然后切分字符串(或切片操作),如str.index(patternStr)或str.find(patternStr),这种方法快,但步骤多,因为要去头去尾。

2)用正则表达式,比如'

([\s\S]+?)
',通过正则表达式的括号,可以获取匹配的内容,即

import re

def getTags(html):

reg = r'

([\s\S]+?)
'

pattern= re.compile(reg)

tags= re.findall(pattern, html)

return tags

不过正则表达式仍有缺点,例如'

([\s\S]+?)
'括号中的问号表示非贪婪匹配,正常情况下可以匹配到所需要的内容,但如果class="result_info"的div中还嵌套了子的div,那么正则表达式的后半部分"
"将会匹配子div的结尾部分
,而不是希望的父div.

假如有这样一个html:

some paragraph test 1

some paragraph test 2

some contents in sub div

backend content here

那么backend contents here这段内容将会匹配不到,正则表达式将会将id为div_sub的

作为结尾。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,下面是一个简单的爬虫脚本,使用 Python 的 requests 和 BeautifulSoup 库来获取百度搜索结果页面中的内容。 ```python import requests from bs4 import BeautifulSoup # 要搜索的关键词 keyword = 'Python' # 构造搜索请求的URL url = f'https://www.baidu.com/s?wd={keyword}' # 发送请求并获取响应 response = requests.get(url) # 解析响应内容 soup = BeautifulSoup(response.text, 'html.parser') # 查找所有的搜索结果标题和链接 results = soup.find_all('h3', class_='t') # 输出搜索结果标题和链接 for result in results: title = result.a.get_text() link = result.a['href'] print(title) print(link) ``` 运行上述代码,即可在控制台中看到搜索结果的标题和链接。注意,由于百度的网页结构可能会随时更改,上述代码可能不适用于所有情况。 ### 回答2: 使用Python编写一个爬虫脚本获取百度搜索结果的信息是相对简单的任务。首先,我们需要导入相关的模块,如requests和BeautifulSoup。然后,通过发送HTTP请求,获取百度搜索结果页面的内容。接着,使用BeautifulSoup对结果页面进行解析,提取出需要的信息。 下面是一个简单的实现示例: ``` import requests from bs4 import BeautifulSoup def baidu_search(query): url = 'https://www.baidu.com/s' params = {'wd': query} headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, params=params, headers=headers) if response.status_code == 200: soup = BeautifulSoup(response.text, 'html.parser') results = soup.find_all('div', class_='result') for result in results: title = result.h3.get_text() link = result.h3.a['href'] summary = result.find('div', class_='c-abstract').get_text() print('标题:', title) print('链接:', link) print('摘要:', summary) print('------') # 在这里调用函数,并传入需要查询的关键字 baidu_search('Python爬虫') ``` 这个脚本首先定义了一个`baidu_search`函数,接受用户输入的关键字作为参数。然后,通过构造URL和Headers,发送GET请求获取百度搜索结果页面的内容。接下来,使用BeautifulSoup页面进行解析,并通过CSS选择器提取标题、链接和摘要等信息。最后,打印出这些信息。 当运行这个脚本并传入关键字"Python爬虫"时,将会输出搜索结果的标题、链接和摘要等信息。当然,你还可以根据自己的需要,进一步对这些信息进行处理或存储。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值