python爬虫1:爬取搜狗首页的页面数据

#需求:爬取搜狗首页的页面数据(ps:只爬取了页面,没有搜索功能)
import requests
#step1:指定url
url = "https://www.sogou.com/"
#step2:发起请求   get方法会返回一个响应对象
response = requests.get(url=url)
#step3:获取响应数据  .text返回的是字符串形式的响应数据
page_text = response.text
print(page_text)
#step4:持久化存储
with open('./sogou.html','w',encoding='utf-8') as fp :
    fp.write(page_text)
print("爬取结束")

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
当然可以!以下是一个使用Python编写的简单图片的代码示例: ```python import requests import os def download_images(keyword, num_images): url = 'https://pic.sogou.com/pics' params = { 'query': keyword, 'mode': '1', 'start': '0', 'reqType': 'ajax', 'tn': '0', 'reqFrom': 'result', 'interV': '', 'category': '', '_asf': 'pic.sogou.com', '_ast': '1629966077', 'w': '01019900', 'p': '40030500', 'dp': '1', 'cid': '', 's': '', 'sut': '0', 'sst0': '1629966077042', 'lkt': '0,0,0', 'pfp': '', 'dpf': '', } headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36', } os.makedirs(keyword, exist_ok=True) for i in range(num_images): params['start'] = str(i * 48) response = requests.get(url, params=params, headers=headers) response_json = response.json() for item in response_json['items']: image_url = item['picUrl'] image_name = image_url.split('/')[-1] image_path = os.path.join(keyword, image_name) try: image_data = requests.get(image_url, headers=headers).content with open(image_path, 'wb') as f: f.write(image_data) print(f"成功下载图片:{image_name}") except Exception as e: print(f"下载图片失败:{image_name},错误信息:{str(e)}") # 调用函数进行图片下载 download_images('猫', 10) ``` 这段代码使用了requests库发送HTTP请求,通过图片的API接口获图片链接,并将图片保存到本地。你可以根据需要修改关键词和下载数量来进行自定义。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值