requests+beautifulsoup爬虫

本文记录了使用Python的requests和beautifulsoup库进行爬虫的入门过程,主要目标是抓取航空公司的中英文名称、二字码、三字码和呼号等信息,通过查找并提取页面上所有p标签内的文本内容,将数据保存到txt文件。
摘要由CSDN通过智能技术生成

爬虫简单入门。由于工作需要,需要从网上爬取一些内容。在此记录一下开发过程遇到的问题 

爬取航空公司信息。包括航空公司中英文名、二字码、三字码、呼号等信息。调研从

https://www.ufsoo.com/airline/page-12.html网站获取信息。信息格式为:

需要的内容包含<p>标签中。所以选择用beautifulsoup 的find_all获取所有p标签下的文本,并存储到txt文件。

完整代码:

#coding=utf-8

from bs4 import BeautifulSoup
#获得系统编码格式
import requests
head={
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9',
'Connection': 'keep-alive',
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值