Python爬虫爬取数据

我是Python小白,我会用比较通俗易懂的方法告诉你如何去爬取数据。

一开始,我们需要pycharm(也就是我们编代码的工具),其次我们需要打开我们需要爬取数据的网页,我以鞋子为例。

那么,接下来就开始吧

首先,我们打开某东,搜索鞋子。

 随便点进去一个,找到他的评价

 右击空白处,点检查,

 

 出现以下界面时,我们点Network,

 然后刷新我们找到的京东鞋子界面,就可以看到他出来很多东西,如下图所示

 这时候,我们打开评论,随便找到一个评论,复制一下,然后找到有一个放大镜一样的东西那,点开,然后粘贴我们刚才复制的评论。

 就可以看到这些东西

 我们点开,发现右边Name里面有这些东西,我们直接复制这个URL。

 好了,我们找到了关键的东西。那么接下来我们来编写代码

首先,第一行 是import requests

第二行就是resp=requests.get(‘URL’)[此处URL就是你自己找的]

第三行就是print(resp.text)。

其实拥有这三行代码就可以了,但是呢,我们是在pycharm中爬取的数据,京东只有在浏览器访问时才会允许我们,我们用pycharm访问时,不会给我们,

如下如所示 

为了解决这个问题呢,我们可以让我们的python程序伪装成浏览器,我们需要添加一个东西,请求头,

首先,我们随便打开一个浏览器,右击空白部位,点击检查。

 点进去后我们点击网络,然后刷新一下这个网页。

 我们随便点开一项,看标头里面有一个User-Agent,我们直接复制。

 然后我们再来补充一行代码

headers={‘User-Agent’:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36 Edg/94.0.992.50’}//此处这个是我找的,你们找的是什么就粘贴什么。

get函数里面最后加一个headers=headers。

-------------------------------------------------------------------------------------------

下面是代码模板

import requests
headers={'user-agent': '你自己找的user-agent'}
resp=requests.get('你自己想要爬取数据的网页URL',headers=headers)
print(resp.text)

----------------------------------------------------------------------------------------

下面是我找的一个(可以直接复制粘贴)

import requests
headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36 SLBrowser/7.0.0.6241 SLBChan/30'}
resp=requests.get('https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId=10335871588&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1',headers=headers)
print(resp.text)

结果就是这个,我随便截了一小部分。

 总结起来,只有三点,第一点,写好代码模型,第二点,找到URL,第三点,找到User-agent。

最后,给初学者一个用python创建.txt文档的代码

fp=open('D:/yyds.txt','a+')
print('helloworld',file=fp)
fp.close()

  • 28
    点赞
  • 104
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
Python爬虫是一种用于自动化从网页中提取数据的程序。在Python爬虫中,有多种方法可以用来爬取数据。其中四种常用的方法包括使用正则表达式、使用BeautifulSoup库、使用lxml库的xpath语法以及使用Scrapy等分布式爬虫框架。正则表达式是一种强大的文本匹配工具,可以用来从HTML代码中提取所需数据。BeautifulSoup库是一种HTML和XML的解析库,可以根据标签、属性等定位和提取数据。lxml库是一个高性能的XML和HTML解析库,可以使用xpath语法来定位和提取数据。Scrapy是Python中最流行的开源分布式爬虫框架,可以用于构建高性能的爬虫程序,支持异步IO和分布式爬取。通过这些方法,我们可以灵活地选择适合自己需求的方式来爬取数据。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [Python爬虫入门之爬虫解析提取数据的四种方法](https://blog.csdn.net/xuezhangmen/article/details/130573647)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [Python爬虫:高效采集数据的几种方法](https://blog.csdn.net/oGuJing123/article/details/131377643)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值