爬虫小练习01—获取网站源码

第一步

明确自己需要爬取的网页网址URL

https://bbs.zol.com.cn/

在这里插入图片描述

第二步

引入requests库,使用request库发起请求

import requests
url = "https://bbs.zol.com.cn/"
r = requests.get(url)
r

此时若显示的状态码不是200,有可能是网站得知用户在使用爬虫程序访问, 禁止你继续访问。故手动添加Headers,在Headers中, User-Agent 项会记录用户的使用系统和浏览器版本,伪装成一个普通的用户
User-Agent查找方式:(查找自己的电脑)
在这里插入图片描述在这里插入图片描述在这里插入图片描述

修改后代码:

import requests
url = 'http://bbs.zol.com.cn/'
headers ={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'}
r = requests.get(url, headers = headers)
r

在这里插入图片描述

第三步

# 查看网页的源代码
r.text

若我们采集到的网页源码中的中文部分没有正常解析,有可能是网页编码格式不正确

# 这里显示出的编码是我们解析网页使用的编码
r.encoding
# 使用appent_encoding  用软件推测网页编码
r.apparent_encoding
# 给encoding属性重新赋值, 用推测的编码去解析网页内容
r.encoding = r.apparent_encoding

然后重新查看网页源码

完整代码

import requests
# 访问的网址
url = 'http://bbs.zol.com.cn/'
# 字典格式的变量
headers ={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'}
# 固定语法(和请求的网页相关的内容,都封装在了r中)
r = requests.get(url, headers = headers)
# 给encoding属性重新赋值, 用推测的编码去解析网页内容
r.encoding = r.apparent_encoding
#查看网页源代码
r.text
# 访问的消息头
r.headers
# 获取状态码
r.status_code
  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于Python的网站爬虫代码源码.zip 此文件共两个项目,demo2和spider。demo2是我维护博客过程中帮助自己减轻工作量而写的一个爬虫程序,spider项目为python爬虫的一个小练习。 ## demo2 由于我的csdn博客和liuchuo.net博客上有一些代码并不对应,所以写了一个爬虫查找所有不对应的博客文章并输出markdown表格。 ### 主要功能: 1. 爬取csdn上所有PAT甲级的文章,并将结果返回在item_list 2. 爬取liuchuo.net上所有PAT甲级的文章,并将结果返回在item_dict 3. 获取csdn博客上所有PAT甲级文章的代码片段,并将代码中的空格去除 4. 获取liuchuo.net上所有PAT甲级文章的代码片段,并将代码中的空格去除 5. 比较csdn和liuchuo.net的代码,将代码不相同的文章列表用markdown语法以表格的形式输出到outpud.md文件中 (乙级同理,只需将代码中的关键词“甲级”改为“乙级”) ### 文件解释: spider_main.py:爬虫总调度程序 article.py:Article类,包括题解id、标题、URL和代码 output.md:输出的markdown格式的表格文件 ## spider ### 主要功能: 从文章中的某一个页面,爬取其页面的a标签,用正则匹配将所有爬取的页面中符合http://www.liuchuo.net/articles/ 形式的链接提取为待爬取的URL,将文章页面的标题h1标签和时间time标签分别存储在data字典的title和time中,将url、title和time以表格形式输出到html页面 ### 文件解释: spider_main:爬虫总调度程序 url_manager:URL管理器 html_downloader:html网页下载器 html_parser:html网页解析器 html_outputer:html网页输出器 output.html:运行输出的结果,以html代码格式写入html文件中
Python爬虫可以通过请求目标网页获取网页源码,然后利用第三方库进行解析和处理。对于将网页源码写入Word文档,可以使用Python-docx库来实现。 首先,我们需要用Python爬虫获取网页源码。可以使用requests库发送HTTP请求,获取目标网页的响应内容,并将其保存为一个变量。 接下来,我们需要使用BeautifulSoup库对网页源码进行解析和处理。该库可以将网页源码转换成一个对象,并提供了一些方便的方法来提取和操作特定的元素。 然后,我们需要使用Python-docx库创建一个空的Word文档,并向其中添加内容。该库提供了一些方法来创建文档对象、添加段落、样式和表格等。 最后,我们将经过解析和处理的网页源码的内容添加到Word文档中的段落中,然后保存文档即可。 下面是一个简单的示例代码,实现了将爬取的网页源码写入Word文档的功能: ```python import requests from bs4 import BeautifulSoup from docx import Document # 获取网页源码 url = '目标网页的URL' response = requests.get(url) html_content = response.text # 解析网页源码 soup = BeautifulSoup(html_content, 'html.parser') content = soup.find('div', {'class': 'content'}).text # 创建Word文档 document = Document() document.add_paragraph(content) # 保存文档 document.save('output.docx') ``` 上述代码中,我们通过requests库发送GET请求获取网页源码,然后使用BeautifulSoup库解析源码,提取目标内容。接下来,我们创建一个空的Word文档,并将内容添加到其中。最后,我们使用save方法保存文档为output.docx。 注意,为了运行上述代码,你需要先安装requests、BeautifulSoup和python-docx库。可以通过pip命令进行安装。 以上就是使用Python爬虫获取网页源码并写入Word文档的简单实现。希望对你有帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值