python_爬虫限制

import requests
def cr_amaze(url):
    kv={"user-agent":"Mozilla/5.0"}
    try:
        r=requests.get(url,headers=kv)#改变请求头信息
        r.raise_for_status()
        r.encoding=r.apparent_encoding
        return print(r.text[200:4000])
    except:
        return print("失败")



url="https://www.amazon.cn/ASICS-亚瑟士-男-跑步鞋GEL-GALAXY-9-T6G0N-4901-蓝色-白色-黄色-41-5/dp/B06VVY1T73/ref=lp_1897086071_1_1?s=shoes&ie=UTF8&qid=1498642523&sr=1-1&nodeID=1897086071&psd=1"
cr_amaze(url)



百度搜素:
import requests
kv={}
kv["wd"]= input("请输入搜索内容")
try:
    r=requests.get("http://www.baidu.com/s",params=kv)
    print (r.url)
    r.raise_for_status()
    print(len(r.text))
except:
    print("失败")

爬取图片:
import requests
import os
url="https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1498662852777&di=7e160ccc431f257866cc5bf355b4116e&imgtype=0&src=http%3A%2F%2Fn.sinaimg.cn%2Feladies%2Ftransform%2F20160823%2ForrG-fxvcsrm2264890.jpg"
root="D://path//"
path=root+str("4.jpg")
#try:
#1.下载路径不存在创建路径
if not os.path.exists(root):
        os.mkdir(root)
#1下载的路径文件如果不存在下载
if not os.path.exists(path):
    r=requests.get(url)
    with open(path,'wb')as f:
            f.write(r.content)
            f.close()
else:
    print("文件已经存在")
#except:
 #   print("爬取失败")

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值