2024年最全学会Python3模拟登录并爬取表格数据!excel高手也自叹不如!(1),2024一位Python中级程序员的跳槽面经

最后

🍅 硬核资料:关注即可领取PPT模板、简历模板、行业经典书籍PDF。
🍅 技术互助:技术群大佬指点迷津,你的问题可能不是问题,求资源在群里喊一声。
🍅 面试题库:由技术群里的小伙伴们共同投稿,热乎的大厂面试真题,持续更新中。
🍅 知识体系:含编程语言、算法、大数据生态圈组件(Mysql、Hive、Spark、Flink)、数据仓库、Python、前端等等。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

‘Chrome/74.0.3729.131 Safari/537.36’,

‘Host’: ‘www.ctic.org’}

data = {‘_csrf’: ‘SjFKLWxVVkkaSRBYQWYYCA1TMG8iYR8ReUYcSj04Jh4EBzIdBGwmLw==’,

‘CRMSearchForm[year]’: ‘2011’,

‘CRMSearchForm[format]’: ‘Acres’,

‘CRMSearchForm[area]’: ‘County’,

‘CRMSearchForm[region]’: ‘Midwest’,

‘CRMSearchForm[state]’: ‘IL’,

‘CRMSearchForm[county]’: ‘Adams’,

‘CRMSearchForm[crop_type]’: ‘All’,

‘summary’: ‘county’}

response = requests.post(url, data=data, headers=headers)

print(response.status_code)

果不其然,输出 400 ……我猜这就是传说中的 cookies 在搞鬼吗?《Python3网络爬虫实战》只看到第6章的我不禁有些

心虚 跃跃欲试呢!

首先,我搞不清 cookies 具体是啥,只知道它是用来维持会话的,应该来自于第一次 get ,搞出来看看先:

response1 = requests.get(url, headers=headers)

if response1.status_code == 200:

cookies = response1.cookies

print(cookies)

输出:

<RequestsCookieJar[

Nah,看不懂,不看不管,直接把它放到 post 里试试

response2 = requests.post(url, data=data, headers=headers, cookies=cookies)

print(response2.status_code)

还是 400 ,气氛突然变得有些焦灼,我给你 cookies 了啊,你还想要啥?!

突然,我发现一件事: post 请求所带的 data 中那个一开始就显得很可疑的 _csrf 我仿佛在哪儿见过?

那个我完全看不懂的 cookies 里好像就有一个 _csrf 啊!但是两个 _csrf 的值很明显结构不一样,试了一下把 data 里的 _csrf 换成 cookies 里的 _csrf 确实也不行。

但是我逐渐有了一个想法:这个两个 _csrf 虽然不相等,但是应该是匹配的,我刚刚的 data 来自浏览器, cookies 来自python程序,所以不匹配!

于是我又点开浏览器的DevTools,Ctrl+F搜索了一下,嘿嘿,发现了:

Python3模拟登录并爬取表格数据!做表格的高手也没我厉害

Python3模拟登录并爬取表格数据!做表格的高手也没我厉害

这三处。

第一处那里的下一行的 csrf_token 很明显就是 post 请求所带的 data 里的 _csrf ,另外两个是js里的函数,虽然js没好好学但也能看出来这俩是通过 post 请求获得州名和县名的,Binggo!一下子解决两个问题。

为了验证我的猜想,我打算先直接用requests获取点击 View Summary 前的页面的HTML和 cookies ,将从HTML中提取的 csrf_token 值作为点击 View Summary 时 post 请求的 data 里的 _csrf 值,同时附上 cookies ,这样两处 _csrf 就应该是匹配的了:

from lxml import etree

response1 = requests.get(url, headers=headers)

cookies = response1.cookies

html = etree.HTML(response1.text)

csrf_token = html.xpath(‘/html/head/meta[3]/@content’)[0]

data.update({‘_csrf’: csrf_token})

response2 = requests.post(url, data=data, headers=headers, cookies=cookies)

print(response2.status_code)

输出 200 ,虽然和Chrome显示的 302 不一样,但是也表示成功,那就不管了。把 response2.text 写入html文件打开看是这样:

Python3模拟登录并爬取表格数据!做表格的高手也没我厉害

Yeah,数据都在!说明我的猜想是对的!那一会再试试我从没用过的 requests.Session() 维持会话,自动处理 cookies 。

尝试pandas库提取网页表格

现在既然已经拿到了目标页面的HTML,那在获取所有年、地区、州名、县名之前,先测试一下 pandas.read_html 提取网页表格的功能。

pandas.read_html 这个函数时在写代码时IDE自动补全下拉列表里瞄到的,一直想试试来着,今天乘机拉出来溜溜:

import pandas as pd

df = pd.read_html(response2.text)[0]

print(df)

输出:

Python3模拟登录并爬取表格数据!做表格的高手也没我厉害

Yeah!拿到了,确实比自己手写提取方便,而且数值字符串自动转成数值,优秀!

准备所有参数

接下来要获取所有年、地区、州名、县名。年份和地区是写死在HTML里的,直接xpath获取:

Python3模拟登录并爬取表格数据!做表格的高手也没我厉害

州名、县名根据之前发现的两个js函数,要用 post 请求来获得,其中州名要根据地区名获取,县名要根据州名获取,套两层循环就行

def new():

session = requests.Session()

response = session.get(url=url, headers=headers)

html = etree.HTML(response.text)

return session, html

session, html = new()

years = html.xpath(‘//*[@id=“crmsearchform-year”]/option/text()’)

regions = html.xpath(‘//*[@id=“crmsearchform-region”]/option/text()’)

_csrf = html.xpath(‘/html/head/meta[3]/@content’)[0]

region_state = {}

state_county = {}

for region in regions:

data = {‘region’: region, ‘_csrf’: _csrf}

response = session.post(url_state, data=data)

html = etree.HTML(response.json())

region_state[region] = {x: y for x, y in

zip(html.xpath(‘//option/@value’),

html.xpath(‘//option/text()’))}

for state in region_state[region]:

data = {‘state’: state, ‘_csrf’: _csrf}

response = session.post(url_county, data=data)

html = etree.HTML(response.json())

state_county[state] = html.xpath(‘//option/@value’)

啧啧,使用 requests.Session 就完全不需要自己管理 cookies 了,方便!具体获得的州名县名就不放出来了,实在太多了。然后把所有年、地区、州名、县名的可能组合先整理成csv文件,一会直接从csv里读取并构造 post 请求的 data 字典:

remain = [[str(year), str(region), str(state), str(county)]

for year in years for region in regions

for state in region_state[region] for county in state_county[state]]

remain = pd.DataFrame(remain, columns=[‘CRMSearchForm[year]’,

‘CRMSearchForm[region]’,

‘CRMSearchForm[state]’,

‘CRMSearchForm[county]’])

remain.to_csv(‘remain.csv’, index=False)

由于州名有缩写和全称,也本地保存一份

import json

with open(‘region_state.json’, ‘w’) as json_file:

json.dump(region_state, json_file, indent=4)

我看了一下,一共49473行——也就是说至少要发送49473个 post 请求才能爬完全部数据,纯手工获取的话大概要点击十倍这个数字的次数……

正式开始

那么开始爬咯

import pyodbc

with open(“region_state.json”) as json_file:

region_state = json.load(json_file)

data = pd.read_csv(‘remain.csv’)

读取已经爬取的

cnxn = pyodbc.connect(‘DRIVER={Microsoft Access Driver (*.mdb, *.accdb)};’

‘DBQ=./ctic_crm.accdb’)

crsr = cnxn.cursor()

crsr.execute(‘select Year_, Region, State, County from ctic_crm’)

done = crsr.fetchall()

done = [list(x) for x in done]

done = pd.DataFrame([list(x) for x in done], columns=[‘CRMSearchForm[year]’,

‘CRMSearchForm[region]’,

‘CRMSearchForm[state]’,

‘CRMSearchForm[county]’])

done[‘CRMSearchForm[year]’] = done[‘CRMSearchForm[year]’].astype(‘int64’)

state2st = {y: x for z in region_state.values() for x, y in z.items()}

done[‘CRMSearchForm[state]’] = [state2st[x]

for x in done[‘CRMSearchForm[state]’]]

排除已经爬取的

remain = data.append(done)

remain = remain.drop_duplicates(keep=False)

total = len(remain)

print(f’{total} left.n’)

del data

%%

最后

Python崛起并且风靡,因为优点多、应用领域广、被大牛们认可。学习 Python 门槛很低,但它的晋级路线很多,通过它你能进入机器学习、数据挖掘、大数据,CS等更加高级的领域。Python可以做网络应用,可以做科学计算,数据分析,可以做网络爬虫,可以做机器学习、自然语言处理、可以写游戏、可以做桌面应用…Python可以做的很多,你需要学好基础,再选择明确的方向。这里给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

👉Python所有方向的学习路线👈

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

👉Python必备开发工具👈

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。

👉Python全套学习视频👈

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

👉实战案例👈

学python就与学数学一样,是不能只看书不做题的,直接看步骤和答案会让人误以为自己全都掌握了,但是碰到生题的时候还是会一筹莫展。

因此在学习python的过程中一定要记得多动手写代码,教程只需要看一两遍即可。

👉大厂面试真题👈

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 29
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python3是一种广泛使用的编程语言,它提供了强大的数据处理、网络数据分析能力。如果需要网页中的表格数据Python3是一个非常好的选择。 首先,要网页数据,需要使用Python3中的requests和BeautifulSoup模块。requests模块用来发送HTTP请求,获网页源代码,而BeautifulSoup模块用来解析网页数据,从中提所需的信息。 接下来,我们需要找到目标网页中的表格。可以通过使用Chrome浏览器的开发者工具(F12快捷键),在Element选项卡中查找表格的class、id或其他属性信息。 找到表格之后,我们可以使用BeautifulSoup模块中的find_all()方法,根据表格的标签和属性来查找并提表格数据。通过遍历表格中的所有行和列,可以将表格数据保存到一个列表或字典中,方便后续处理和分析。 最后,要注意网络的合法性和道德性。需要遵守网站的规定和协议,不要过度频繁地访问同一网站,不要损害网站的正常运营和用户权益。 总之,使用Python3网页表格是一项非常有价值的技能,能够帮助我们更好地处理和分析网站上的数据,为我们的工作和研究带来更多的便利和效率。 ### 回答2: Python3是一种高级编程语言,具有易读易写的特点,而虫则是利用编程技术获互联网上特定数据的过程,所以Python3非常适合用于网页表格网页表格的过程可以分为以下几个步骤: 1.导入所需的python模块:我们需要使用Python中的requests、BeautifulSoup、re、pandas等模块。其中requests模块可用于获网页内容,BeautifulSoup可用于解析网页内容获我们想要的表格,而re和pandas模块则可以将表格内容转化为合适的格式。 2.使用requests.get请求获网页内容。 3.将获的网页内容传给BeautifulSoup进行解析。在这一步中,我们需要找到我们需要表格所在的HTML标签以及表格内部所需要的各个字段,这些要素都可以用BeautifulSoup来获。 4.设计正则表达式来获表格中所要的数据。 5.使用pandas模块将获到的数据转化为DataFrame格式,处理后可以将其保存为CSV等格式的文件。 总的来说,使用Python3网页表格需要深入了解requests、BeautifulSoup、re、pandas等模块的使用方法,同时也要对HTML语法有一定的了解,才能够高效地解析出所需要的数据,并且能够对数据进行处理和统计分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值