红娘网爬数据

1 篇文章 0 订阅
1 篇文章 0 订阅

红娘网爬数据

代码

import requests
from bs4 import BeautifulSoup
import pandas as pd
header={'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
nianling=[]
dizhi=[]
hun=[]
shengao=[]
hua=[]
for i in range(10):
    url='http://hongniang.com/match?&page='+str(i+1)
    r=requests.get(url,headers=header)
    r.encoding=r.apparent_encoding
    html=r.text
    soup = BeautifulSoup(html,'html.parser')
    for info in soup.find_all('li','pin'):
        nianling.append(info.find('div','xx').find_all('span')[0].text)
        dizhi.append(info.find('div','xx').find_all('span')[1].text)
        hun.append(info.find('div','xx').find_all('span')[2].text)
        shengao.append(info.find('div','xx').find_all('span')[3].text)
        hua.append(info.find('div','db').text.replace('\t','').replace('\n','').replace('\r','').replace(' ','')[5:])
data=pd.DataFrame({'年龄':nianling,'地区':dizhi,'婚姻情况':hun,'身高':shengao,'内心独白':hua})
writer=pd.ExcelWriter('红娘.xlsx')
data.to_excel(writer,'爬虫')
writer.save()

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值