一个网站爬取数据的心得体会

社区有相同的爬取代码,试用后出现

pycharm运行之后出现<script src="/_guard/auto.js"></script>

经多次查找是,该网站增加了反爬虫机制。经过调试增加cookie。正常爬取。
import re
import requests

url = "https://www.dytt89.com/"
headers = {
    "Cookie" : "guardok=6I18VOAyw6EqY0iBU/du7SV3hZbFGROUfDRCf8hFXC0wf8/Lez2mxNaCGb3Zij0faZJBnZQIukMBTdiNqc7cvw==",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36 Edg/125.0.0.0"
}
response = requests.get(url=url,headers=headers)
response.encoding = "gb2312"
response_text = response.text
# print(response_text)
response.close()
obj_ul = re.compile(r"2024必看热片.*?<ul>(?P<ul>.*?)</ul>" , re.S)
# 再相应数据中提取信息
ul = obj_ul.finditer(response_text)
for ul_lines in ul:
    print(ul_lines.group('ul'))
  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 这是一个使用 Python 的爬虫代码示例,它使用了 requests 库和 BeautifulSoup 库来爬取网站数据: ```python import requests from bs4 import BeautifulSoup url = "https://www.example.com" # 要爬取网站URL page = requests.get(url) soup = BeautifulSoup(page.content, 'html.parser') # 使用 BeautifulSoup 来查找页面中的特定元素 data = soup.find_all('div', class_='example-class') # 打印爬取数据 print(data) ``` 请注意,需要先安装 requests 库和 BeautifulSoup 库,可以通过 pip install requests bs4 安装。 此外,在爬取数据时需要遵守相关的网络爬虫法规,并且在爬取数据时需要小心不要给网站造成不必要的负担。 ### 回答2: 以下是基于Python一个简单的网站爬取数据的代码示例: ```python import requests from bs4 import BeautifulSoup def scrape_website(url): # 发起GET请求获取网页内容 response = requests.get(url) # 使用BeautifulSoup解析网页内容 soup = BeautifulSoup(response.content, 'html.parser') # 在这里添加你需要爬取数据的逻辑 data = soup.find('div', class_='data').text # 这里只是一个示例,假设我们要爬取网页中的类为'data'的div标签的文本内容 # 返回爬取到的数据 return data # 定义要爬取网站URL website_url = "https://www.example.com" # 调用爬取函数 scraped_data = scrape_website(website_url) # 打印爬取到的数据 print(scraped_data) ``` 这是一个基本的网站爬取代码,你可以根据自己的实际需求进行修改和扩展。需要注意的是,合理使用网站爬虫,并遵守相关网站的使用规则和法律法规。 ### 回答3: 下面是一个基于Python的简单网站爬取数据的示例代码: ```python import requests from bs4 import BeautifulSoup def main(): # 设置请求头信息,模拟真实浏览器请求 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.131 Safari/537.36' } # 发送 GET 请求获取网页内容 url = 'http://example.com' # 替换成你想要爬取的网页 URL response = requests.get(url, headers=headers) # 解析网页内容 soup = BeautifulSoup(response.text, 'html.parser') # 根据网页结构和需要获取的数据,使用合适的选择器选择元素并提取数据 data = soup.select('.classname') # 替换成你想要选择的元素的类名、选择器等 for item in data: print(item.text) # 打印提取的数据,可以根据实际需求进行处理保存等操作 if __name__ == '__main__': main() ``` 请替换代码中的`url`为你想要爬取的网页的URL,通过选择合适的选择器提取你需要的数据,并根据需求进行相应的处理,如保存到文件、存储到数据库等。注意,爬取网站时要遵守网站的爬虫规则,不要过度频繁地发送请求,以免对网站造成不必要的负担。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值