爬虫学习第四部分

本次进行数据爬取

 


import time
from  selenium import webdriver
from bs4 import BeautifulSoup
import pandas as pd

driver = webdriver.Chrome('D:\ProgramData\Anaconda3\chromedriver.exe')
driver.get('')
# 将窗口调整最大
driver.maximize_window()
time.sleep(2)
current_window_1 = driver.current_window_handle
print(current_window_1)
# 向下滚动1000像素
#js = "window.scrollBy(0, 2000)"
# 滚动到当前页面底部
# js = "window.scrollTo(0,document.body.scrollHeight)" 
for i in range(1,20):
    time.sleep(3)
    driver.execute_script("window.scrollTo(window.scrollX, %d);"%(i*1000))
html=driver.page_source
time.sleep(5)
soup = BeautifulSoup(html,'html.parser')
infos=soup.find_all('li',{'class':'item cf'})
lenth=len(infos)
print(lenth)
i=0
results=[]
for c in infos:
    infoc=c.find('h3')
    title=infoc.find('a').get_text()
    url=infoc.find('a')['href']
    i=i+1
    print(i,',',title,',',url)
    results.append([i,title,url])
name=['id','titie','url']
contents=pd.DataFrame(columns=name,data=results)
contents.to_csv('d:/news.csv',encoding='utf_8_sig', index = False)

写入到csv文件用'utf-8'编码出现乱码,需将编码设置为utf-8-sig,即带有签名的 utf-8(UTF-8 with BOM),字节顺序标记,出现在文本文件头部,Unicode编码标准中用于标识文件是采用哪种格式的编码。Excel 在读取 csv 文件的时候是通过读取文件头上的 BOM 来识别编码的,用utf-8生成 csv 文件的时候,没有生成 BOM 信息,会乱码。原文链接:https://blog.csdn.net/qq_36759224/article/details/104417871

index=false,去掉csv中自带的默认索引。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值