python爬的csv文件在哪里_Python爬虫之踩坑记录--csv文件新增列

本文记录了使用Python爬取拉勾网职位信息,并将技术栈以新增列的方式保存到CSV文件的过程。通过Pandas读取CSV文件,利用requests、BeautifulSoup和正则表达式解析网页,jieba进行关键词提取,最终将结果添加到CSV文件的特定列。
摘要由CSDN通过智能技术生成

起因:爬取拉勾网职位信息模块的技术栈,实现把技术栈爬回之前的csv文件(以新增列的方式)

具体实现过程如下:

使用Pandas的read_csv方法读取csv文件里面的PositionId,访问对应的网址

设置headers、cookies、time.sleep、try-except,防止反爬机制

利用BeautifulSoup方法爬取对应源码并用html.parser实现转化成Html5格式

使用正则表达式清洗

使用jieba库中的jieba.lcut()方法进行单词统计并把结果保存进数组里

先把技术栈存入数组list_position_detail中(因为to_csv()方法,只保留最后一次的结果,得一次执行全部添加

再把技术栈存入字典中(因为可以根据字典的key,去对应保存在那一行),因为字典不能append,所以先用数组append,再转化为字典格式

使用Pandas的to_csv()方法添加列

就如下图中圈红的信息:

image.png

import requests

from bs4 import BeautifulSoup

import time

import random

import pandas as pd

import jieba

import re

import csv

import numpy as np

time1 = random.uniform(0.05,0.1)

time2 = random.uniform(0.1,0

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值