爬虫(4)爬取数据写入excel

话不多说,先贴代码

from selenium import webdriver
from bs4 import BeautifulSoup
import csv

driver=webdriver.Chrome()
url="https://www.kylc.com/stats/global/yearly/g_gdp/1960.html"
xpath="/html/body/div[2]/div[1]/div[5]/div[1]/div/div/div/table"
driver.get(url)
tablel=driver.find_element_by_xpath(xpath).get_attribute('innerHTML')

out=open('d:/gdp.csv','w',newline='')
csv_write=csv.writer(out,dialect='excel')

soup=BeautifulSoup(tablel,"html.parser")
table=soup.find_all('tr')
for row in table:
    cols=[col.text for col in row.find_all('td')]
    if len(cols)==0 or not cols[0].isdigit():
        continue
    csv_write.writerow(cols)
out.close()
driver.close()

这次更改的地方如下

import csv
out=open('d:/gdp.csv','w',newline='')
csv_write=csv.writer(out,dialect='excel')
for row in table:
    cols=[col.text for col in row.find_all('td')]
    if len(cols)==0 or not cols[0].isdigit():
        continue
    csv_write.writerow(cols)
out.close()
driver.close()

引入了csv库,将爬取内容写入D盘的gdp.csv文件中,
同时删除了print(cols)
因为爬取内容可以直接看excel
使用
out.close()
driver.close()
关闭文件和网页

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值