爬虫学习笔记之requests库

这篇博客记录了利用requests库爬取京东、亚马逊网站信息,以及如何通过百度和360搜索引擎提交关键词搜索。同时,介绍了网络图片链接的一般格式,并探讨了IP地址查询的相关知识。
摘要由CSDN通过智能技术生成

mooc 课堂五个爬取的代码
1.爬取京东

import requests
url="https://item.jd.com/100007926792.html"
try:
    r=requests.get(url)
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    print(r.text[:1000])
except:
    print("error")

2.爬取亚马逊

import requests
url="https://www.amazon.cn/dp/B00D20QFXQ?ref_=Oct_DLandingS_D_4a27ed07_61&smid=A3TEGLC21NOO5Y"
try:
    kv={'user-agent':'Mozilla/5.0'}
    r=requests.get(url,headers=kv)
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    print(r.text[0:1000])
except:
    print('error')

3.百度360 搜索关键词提交
百度的关键词接口:http://www.baidu.com/s?wd=keyword
360的关键词接口:http://www.so.com/s?q=keyword

替换keyword既可以进行不同的提交 即wd 换成q

import requests
keyword="python"
try:
    kv={'wd':keyword}
    r=requests.get("http://www.baidu.com/s",params=kv)
    print(r.request.url)
    r.raise_for_status()
    print(len(r.text))
except:
    print("error")

4.网络图片的连接格式
http://www.example.com/picture.jpg

import requests
import os
url = "图片链接“

root="保存路径(D://)
path=root+url.splot('/')[-1]
try:
    if not os.path.exists(root):
        os.mkdir(root)
    if not os.path.exists(path):
        r=requests.get(url)
        with open(path,'wb') as f:
            f.write(r.content)
            f.close()
            print("文件保存成功")
    else:
        print("文件已存在")
except:
    print("error")

5.IP地址查询

import requests
url = "http://m.ip138.com/ip.asp?ip="
try:
    r=requests.get(url+'202.24.80.112')
                  
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    print(r.text[-500:])
except:
    print("error")
                   
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值