selenium模拟fireFox浏览器,爬取网页信息

开发环境:python2.7

#-*- coding:utf-8 -*-

#实现了通过selenium 爬取网站所有的信息
from selenium import  webdriver
from selenium.webdriver.common.keys import Keys
import  re
def pageNum(number):
        print number.text
import sys
reload(sys)
sys.setdefaultencoding('utf-8')

#开始执行seleum

if __name__=='__main__':
    Url = 'http://example.com/Netweb_List/Netweb_Home_Lose_List.html'

    driver=webdriver.Firefox()
    driver.set_window_position(x=50,y=60)
    driver.set_window_size(width=1366,height=700)
    driver.get(url=Url)
    number = driver.find_element_by_css_selector(
        '#Netweb_Home_Lose_ListCtrl1_pager1 > table:nth-child(1) > tbody:nth-child(1) > tr:nth-child(1) > '
        'td:nth-child(1)')
    all_num=int(number.text[14:17]) #获取总页数
    f=open('link.txt','w')
    #下面抓取所有丢失物品链接,保存在文件中
    for i in range(1,all_num):
        #下面进行页面的点击提交
        nextSelecter=driver.find_element_by_id('Netweb_Home_Lose_ListCtrl1$pager1_input')
        nextSelecter.clear()
        nextSelecter.send_keys(str(i))
        nextSelecter2=driver.find_element_by_id('Netweb_Home_Lose_ListCtrl1$pager1_btn')
        nextSelecter2.click()
        href=driver.find_element_by_css_selector('.myTable > tbody:nth-child(1)')
        href2=href.find_elements_by_css_selector('tr td:nth-child(1) a')
        #根据获取到的个人信息链接
        for i in href2:
            f.write(i.get_attribute('href')+'\n')    #将链接写入文件

    link=[] #所有的个人丢失物品的链接
    for i in range(len(link)):
        driver.get(link[i])
        Ele = driver.find_element_by_css_selector('.content1 > tbody:nth-child(1)')
        str2=str(Ele.text).replace('\n','').replace(' ','') #解析到的所有信息
        #print str2
        p = re.compile('联系方式:(\w*)')
        mat = p.findall(str2) #匹配联系方式
        if len(mat)>0:
            print mat[0]
    driver.close()  #关闭浏览器

github地址:https://github.com/wu-yy/myhomeCrawler

好的,我了解了。您的问题是如何使用Selenium搜索并爬取网页上的特定信息。以下是步骤: 1. 安装Selenium库。您可以使用以下命令在Python中安装它: ``` pip install selenium ``` 2. 下载并安装浏览器驱动。Selenium需要浏览器驱动来模拟用户在网页上的操作。您可以选择使用Chrome、Firefox、Edge等浏览器的驱动。下载地址如下: - Chrome驱动:https://sites.google.com/a/chromium.org/chromedriver/downloads - Firefox驱动:https://github.com/mozilla/geckodriver/releases - Edge驱动:https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/ 下载后,将驱动程序的路径复制到您的Python代码中。 3. 编写Python代码。以下是一个简单的示例,它使用Selenium和Chrome驱动来搜索并爬取CSDN博客中的指定信息: ```python from selenium import webdriver from selenium.webdriver.common.keys import Keys # 使用Chrome浏览器驱动 driver = webdriver.Chrome('/path/to/chromedriver') # 打开CSDN博客首页 driver.get('https://www.csdn.net/') # 在搜索框中输入关键字 search_box = driver.find_element_by_name('q') search_box.send_keys('Python') search_box.send_keys(Keys.RETURN) # 找到搜索结果中的第一篇博客,并点击进入 result = driver.find_element_by_css_selector('.search-list .title') result.click() # 爬取博客中的指定信息 content = driver.find_element_by_css_selector('.blog-content-box') print(content.text) # 关闭浏览器 driver.quit() ``` 这个示例会在Chrome浏览器中打开CSDN博客首页,然后在搜索框中输入关键字“Python”,并在搜索结果中找到第一篇博客。接着,它会爬取这篇博客中的内容,并输出到控制台中。最后,关闭浏览器。 您可以根据需要修改代码中的搜索关键字、选择器等参数,以适应不同的网页信息爬取需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蓝鲸123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值