数据爬虫小笔记

对东方财富网进行数据 爬取

1、首先是导包

主要使用的是requests、BeautifulSoup和pandas三个包

import requests
from bs4 import BeautifulSoup
import pandas as pd

requests在爬虫中一般用于来处理网络请求

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python包,

通过想使用的转换器实现惯用的文档导航,查找,修改文档的方式

def download_all_htmls():
    """
    下载所有列表页面的HTML,用于后续的分析
    """
    url = f"http://data.eastmoney.com/zjlx/000001.html"
    print("craw html:", url)
    r = requests.get(url,
                    headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36 Edg/94.0.992.31"})
    if r.status_code != 200:
        raise Exception("error")
    htmls=r.text
    return htmls

下载所需的列表网页“http://data.eastmoney.com/zjlx/000001.html"

htmls = download_all_htmls()

下载所需的网页

#查看爬取的代码
htmls

def parse_single_html(html):
    """
    解析单个HTML,得到数据
    @return list({"link", "title", [label]})
    """
    soup = BeautifulSoup(html,'html.parser')
    data_items = soup.find("div", class_="sinstock-filter-wrap").find("table", class_="tab").find("tbody").find_all('td')
    datas = []
    for data_item in data_items:
        name=data_item.find('a').get_text()
        herf='http://data.eastmoney.com'+data_item.find('a')['href']
       
        datas.append({'name':name,'herf':herf})

    return datas

定义一个函数对单个网页进行分析处理,得到数据

使用requests获取到整个页面的html代码,对整个页面代码进行处理,所需要的数据只是页面上的一小部分数据,所以我们需要对页面代码html5解析然后筛选提取出我们想要对数据,使用beautifulsoup便派上用场,beautifulsoup之后通过标签+属性的方式来进行定位

import pprint
pprint.pprint(parse_single_html(htmls))

parse_single_html(htmls)

 

 查看网页上的字符块

df=pd.DataFrame(parse_single_html(htmls))
df

df.to_csv('data.csv',encoding = 'GB2312')

 将数据进行保存,

爬虫使用Python编写笔记并上传到百度网盘通常涉及几个步骤: 1. **安装必要的库**:首先需要安装一些Python爬虫库,如requests用于发送HTTP请求,BeautifulSoup或PyQuery用于解析HTML内容,以及pandas或csv处理数据。 ```python pip install requests beautifulsoup4 pandas pyquery google-auth google-auth-oauthlib google-auth-httplib2 ``` 2. **获取登录信息**:百度网盘有OAuth授权机制,你需要通过官方提供的API获取访问令牌(access token),这通常涉及到注册应用、获取客户端ID和secret,并引导用户授权。 3. **登录操作**:利用`google-auth`库进行身份验证,然后创建Google Drive API客户端,通过访问令牌登录。 4. **下载文件或网页**:使用requests库访问目标网页,解析出需要下载的资源链接,如果是网盘里的文件,会通过API接口操作。 5. **下载存储**:将爬取的数据下载到本地,可以保存为文本、CSV或其他格式,再使用`pydrive`库将数据上传到百度网盘。 ```python from google.oauth2.credentials import Credentials from googleapiclient.discovery import build # 使用Credentials实例化Drive客户端 service = build('drive', 'v3', credentials=Credentials.from_authorized_user_info(info)) # 下载文件名或URL file_id = ... # 替换为你需要的文件id local_filename = service.files().get_media(fileId=file_id).download() # 或者,如果是要爬取整个目录,可能会涉及到递归遍历和逐个下载。 ``` 6. **上传文件**:使用PyDrive或其替代品,如gdown等工具将本地文件上传至指定的百度网盘路径。 7. **错误处理**:记得处理可能出现的网络异常、权限问题及API限制等。 **注意事项**: - 遵守百度网盘的使用政策,尤其是关于自动化登录和抓取的条款。 - 确保你有足够的API调用次数,频繁操作可能导致账号受限。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值