google爬取搜索结果

前几天渗透一个网站,google搜索的时候,发现300多名账号在这里插入图片描述
于是就寻思着爬下来,爬虫google,嘿,没干过,之前都是爬一些小网站,图片那啥的。这次不仅要爬取页面内容,还要调用google搜索。一起来看看有哪些问题要克服吧

google的反爬虫技术也是蛮厉害的。你有没有遇到过一种情况,当你连续快速搜索的时候,或者当你使用inurl:, insite: 等搜索语法过多的时候,google会出现验证码。

那种情况就是你的ip被记录了,或者你搜索的行为被记住了。什么是行为被记住了呢,正常人搜索是大概率不会用到搜索语法的,一个人使用搜索语法并且很频繁,就非常有可能被当作机器对待。

针对这种反爬虫的情况,主要有一下几个策略:
1.使用代理
每发出一个请求的时候就随机使用一个代理
2.更换请求的user-agent
在这里插入图片描述
3.更换搜索的google域名
经常搜索的域名有www.google.com殊不知,google还有不下200个域名提供搜索在这里插入图片描述
4.更换cookie
发包的时候动态设置cookie

以上都做到了,就可以爬取google的信息了,加油少年。
工具链接

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搜索引擎的搜索结果或目标网站的链接,你可以使用Selenium库来处理动态页面。Selenium是一个自动化测试工具,可以模拟用户在浏览器中的操作。 首先,你需要安装Selenium库和对应的浏览器驱动。以下是一个示例代码,使用Selenium和Chrome浏览器驱动来谷歌搜索结果的链接: ```python from selenium import webdriver # 设置Chrome浏览器驱动路径 driver_path = "/path/to/chromedriver" # 替换为你的Chrome驱动路径 # 创建Chrome浏览器实例 options = webdriver.ChromeOptions() options.add_argument("--headless") # 无头模式,可选 driver = webdriver.Chrome(executable_path=driver_path, options=options) # 获谷歌搜索结果的链接 query = "Python虫" # 替换为你想要搜索的关键词 url = f"https://www.google.com/search?q={query}" driver.get(url) # 解析搜索结果页面 links = driver.find_elements_by_css_selector("div.r a") for link in links: print(link.get_attribute("href")) # 关闭浏览器实例 driver.quit() ``` 请注意,你需要下载对应版本的Chrome浏览器驱动,并将`driver_path`替换为你的驱动路径。另外,如果你想在可视化界面中运行代码,可以去掉`options.add_argument("--headless")`这行代码。 这个示例代码使用Selenium模拟打开谷歌搜索页面,并解析搜索结果的链接。你可以根据需要修改代码来适配其他搜索引擎或网站。记得遵守网站的使用规则和法律法规,确保你的虫行为合法合规。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值