用 Python 进行百度搜索,并自动打开前 5 个结果

情景介绍
在使用搜索引擎的时候,除非目的非常明确,我都会用鼠标中键连续在新选项卡中打开好几个页面,然后再逐一查看。本文编写 Python 脚本,使得这个过程自动化。也就是,给定搜索关键词进行百度搜索,挑出搜索结果的前 5 条,然后在浏览器中打开它们。

Python 知识点
Web­Browser、Re­quests、Beau­ti­ful­Soup 模块的基本操作。

概述
首先梳理程序要执行的步骤。

从参数列表中获取关键词;
进行百度搜索并下载搜索页面;
得到前 5 个搜索结果的链接;
在浏览器中打开这些连接。
在开始编写代码之前,确保已经安装必需的库:webbrowser、requests、bs4。本文代码测试环境为 Windows 上的 Python 3.7.0。
本文地址:https://www.jeddd.com/article/python-search-and-auto-open.html
获取关键词
要从参数列表中获取内容,要用到 sys.argv。由于搜索的关键词可能由多个单词组成,因此要用空格连接它们成为一个长字符串。代码如下:

import sys, webbrowser, requests, bs4

从参数列表中获取关键词

keywords = ‘%20’.join(sys.argv[1:])

TODO 2: 进行百度搜索并下载搜索页面

TODO 3: 得到前5个搜索结果的链接

TODO 4: 在浏览器中打开这些连接

注意:%20 是空格的 URL 编码。以上代码使用空格连接第 2 个(下标为 1)到最后一个参数,并保存在变量 key­words 中。

下载搜索页面
构造搜索 URL
百度搜索的 URL 格式为 https://www.baidu.com/s?wd=<关键词>,只需将其与 key­words 变量连接就好了。

伪装 User-Agent
百度会拒绝 Python re­quests 库直接发起的请求,并返回一个跳转页面。因此我们必须将 UA 伪装成一个普通用户的浏览器,用下面这个 Chrome 的 UA 就可以了:

Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36
下载页面
使用 re­quests 库,用上面伪装的 UA 向构造好的百度搜索 URL 发起 get 请求就可以下载得到搜索页面了。代码如下:

import sys, webbrowser, requests, bs4

从参数列表中获取关键词

keywords = ‘%20’.join(sys.argv[1:])

进行百度搜索并下载搜索页面

fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常

TODO 3: 得到前5个搜索结果的链接

TODO 4: 在浏览器中打开这些连接

得到结果链接
要用 Beau­ti­ful­Soup 选择搜索页面上的结果链接,必须知道百度搜索结果链接的格式,这就要用到浏览器的开发者工具了。

用百度搜索任意内容,并在一条结果上点击右键并点击【检查】(不同浏览器略有不同,此处以 Chrome 为例),观察到百度搜索结果的链接都是

标签中的 标签,而且

标签均有一个名为 t 的类。

你不需要知道 t 类是什么意思,只需要将它作为一个标记,查找我们需要的 元素即可。

好的,现在我们知道了想要的链接位于 t 类内的 标签,其 href 属性就是最后要打开的页面链接!

这部分的代码如下:

import sys, webbrowser, requests, bs4

从参数列表中获取关键词

keywords = ‘%20’.join(sys.argv[1:])

进行百度搜索并下载搜索页面

fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常

得到前5个搜索结果的链接

searchSoup = bs4.BeautifulSoup(searchPage.text, features=“html.parser”)
elements = searchSoup.select(’.t a’)

TODO 4: 在浏览器中打开这些连接

在浏览器中打开
接下来要找到前 5 个搜索结果的链接,并在浏览器中打开它们。当然,如果你输入的关键词过于生僻,以至于搜索结果不到 5 个,那么就应该取搜索结果的数量。综上,要打开的页面数为 5 和结果总数的最小值。

在上一步中,我们已经找到了搜索结果的 标签,而 标签的 href 属性的值就是要打开的链接。(由于百度做了混淆,这并不是原始链接,不过没关系,会正常跳转的,不影响打开页面)

在一个循环中依次调用 web­browser 的 open 方法即可在系统默认浏览器中打开这些链接。最终完整代码如下:

import sys, webbrowser, requests, bs4

从参数列表中获取关键词

keywords = ‘%20’.join(sys.argv[1:])

进行百度搜索并下载搜索页面

fakeua = {“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.84 Safari/537.36”}
searchPage = requests.get(‘https://www.baidu.com/s?wd=’ + keywords, headers = fakeua)
searchPage.raise_for_status() # 如果失败就抛出异常

得到前5个搜索结果的链接

searchSoup = bs4.BeautifulSoup(searchPage.text, features=“html.parser”)
elements = searchSoup.select(’.t a’)

在浏览器中打开这些连接

for i in range(min(5, len(elements))):
webbrowser.open(elements[i].get(‘href’))
本文地址:https://www.jeddd.com/article/python-search-and-auto-open.html
代码测试
将上述代码保存为 search.py,然后打开命令行,执行:

python search.py linux git
该脚本以 “linux git” 为关键词在百度搜索,取得前 5 个搜索结果,然后在浏览器中打开它们。成功!

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值