备注:爬取百度搜索结果数据

使用chrome的driver爬取数据:

from selenium import webdriver 
from selenium.webdriver.common.by import By 
from selenium.webdriver.common. keys import Keys 
from selenium. webdriver.support import expected_conditions as EC
from selenium. webdriver.support.wait import WebDriverWait 
from selenium.webdriver.common.action_chains import ActionChains
from urllib import request
import requests
from lxml import etree
import pandas as pd

browser = webdriver.Chrome() 

filepath = 'C:/data.csv'

data = pd.read_csv(filepath)
nrows = len(data)

path_data = []
find_data = data['keyword'].values.tolist()

for i in range(0,nrows):
    browser.get('https://www.baidu.com') 
    query =find_data[i]
    input = browser.find_element_by_id ('kw') 
    input.send_keys(query) 
    ActionChains(browser).send_keys(Keys.ENTER).perform()
    #input.send_keys(Keys.ENTER) 
    wait = WebDriverWait(browser, 10) 
    wait.until(EC.presence_of_element_located((By.ID,'content_left'))) 
    #print(browser.current_url) 
    #print(browser.get_cookies()) 
    #print(browser.page_source)   
    source_html = browser.page_source
    html_object=etree.HTML(source_html)
    path_data = html_object.xpath('//div[@id="tsn_inner"]/div[2]/span[1]/text()')
    data['hot_num'][i] = str(path_data)

data.to_excel('C:/百度20230228.xlsx',sheet_name='Sheet1',index=False)

备注:文章就是之前爬取方式的一个变种,增加了chromedriver的下载,使用selenium貌似需要成功安装后才能使用这个方式。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值