此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出。欢迎各位前来交流。(部分材料来源网络,若有侵权,立即删除)
本人博客所有文章纯属学习之用,不涉及商业利益。不合适引用,自当删除!
若被用于非法行为,与我本人无关
代码
import requests #用于请求网页
from bs4 import BeautifulSoup #用于处理获取的到的网页源码数据
from urllib.parse import urlparse #用于处理url
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36 Edg/90.0.818.56',
'Cookie':'#自己加'}
def get_baidu():
what=input("请输入查询内容:")
what=str(what)
url = 'https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&ch=3&tn=site888_2_pg&wd={}&oq=%25E5%25BE%25AE%25E5%258D%259A&rsv_pq=ab9433940005fc20&rsv_t=f721nLpQiz6ELa%2BXTEM1GulsITO9WZ656CgvrvKzqe1k4COXnRJIaM3oVDLyffZkK4DB&rqlang=cn&rsv_enter=1&rsv_dl=tb&rsv_sug3=6&rsv_sug1=6&rsv_sug7=100&rsv_sug2=0&rsv_btype=t&inputT=1552&rsv_sug4=2322'.format(what)
rs = requests.session()
r = rs.get(url, headers=headers)
soup = BeautifulSoup(r.content, 'lxml')
h3=soup.find_all('h3')
for H3 in h3:
try:
data=[]
a=H3.find('a')
data.append(a.text)
data.append(a['href'])
link=a['href']
try:
RS = requests.session()
R = RS.get(url=link,allow_redirects=False,verify=False, headers=headers)
LINK=R.headers["Location"]#再次请求之后location定位
data.append(LINK)
domain = str(urlparse(LINK).scheme + "://" + urlparse(LINK).netloc)#获取域名
Subdomain.append(domain)
data.append(domain)
except:
pass
for i in data:
print(i)
except:
pass
if __name__ == '__main__':
get_baidu()
过程分析
- 首先对于输入的查找内容进行构造url然后发送请求并解析
- 定位到指定的标签获取我们所搜索到的文本信息以及百度的跳转url
- 然后进行域名提取
- 最后是完善错误机制
运行结果
完成情况
- 成功提取了百度引擎的中搜索到的标题与跳转url,并且得到了真实url以及真实域名