python爬取url_python爬虫之爬取谷歌url

前言:python使用selenium库时需要安装chromedriver以及对应的chrome版本

代码块

from selenium import webdriver

from selenium.webdriver.common.by import By #获取元素

from selenium.webdriver.support.ui import WebDriverWait #设置获取元素超时时间,如果获取失败则抛出异常

from selenium.webdriver.support import expected_conditions as EC #获取元素

from selenium.webdriver.common.keys import Keys #输入键盘值

from selenium.common.exceptions import TimeoutException # 超时获取元素报错原因

import time #设置延迟

import re #正则表达式模块

from pyquery import PyQuery as pq

browser = webdriver.Chrome()#打开google浏览器

urls = []

def chushi(keyword): #初始化

keyword = str(keyword)

browser.get("https://www.google.com")

wait = WebDriverWait(browser, 10) #设置获取元素的超时时间为10s

input = wait.until(EC.presence_of_element_located((By.NAME,"q"))) #获取属性name为q的元素

input.send_keys(keyword) #输出键盘值

input.send_keys(Keys.ENTER) #输出回车键

time.sleep(3) #等待3s

geturl()

def geturl():

html = browser.page_source

list1 = re.findall('(.*?)

urls.extend(set(list1)) #set:删除列表里的重复值 extend:在列表末尾添加内容

def next_page():

try:

time.sleep(3)

wait = WebDriverWait(browser, 10)

button = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,"#pnnext > span:nth-child(2)")))

button.click() #模拟鼠标右键点击

time.sleep(1)

geturl()

except TimeoutError:

print("请求失败,正在重新请求")

next_page()

def save_url():

with open("url.txt",'w+') as f:

url = "\n".join(urls) #str.join:给列表里的内容之间加个换行符输出成字符串

f.write(url)

if __name__ == '__main__':

page = int(input("请输入页数"))

keyword = input('请输入关键字')

if page == 1:

chushi(keyword)

next_page()

else:

chushi(keyword)

for i in range(0, page - 1):

next_page()

save_url()

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值