python实现新浪新闻爬虫

1、没有伪装成浏览器进行爬取操作

将爬取的新闻网址保存到文件夹e:/sinanews/中,成功后直接通过浏览器打开。

import urllib.request
import re
data=urllib.request.urlopen('https://news.sina.com.cn/').read()
data2=data.decode('utf-8','ignore')#加第二个参数ignore
pat ='href="(https://news.sina.com.cn/.*?)">'
allurl=re.compile(pat).findall(data2)
for i in range(0,len(allurl)):
    try:
        print('第'+ str(i)+'次爬取')
        thisurl=allurl[i]
        file='e:/sinanews/'+ str(i)+'.html'
        urllib.request.urlretrieve(thisurl,file)
        print('...成功....!')
    except urllib.error.URLError as e:
        if hasattr(e,'code'): #判断是否有状态码
            print(e.code)
        if hasattr(e,'reason'):#判断是否有原因这个属性
            print(e.reason)

2、伪装为浏览器爬取新闻

爬取博客首页的文章:伪装浏览器,循环爬取文章。user_agent需要设置为特定某个浏览器的user-agent

import urllib.request
import re
url='https://blog.csdn.net/'
headers=('User-Agent','User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/17.17134')
opener=urllib.request.build_opener()#添加报头信息
opener.addheaders=[headers]
data=opener.open(url).read()
#data=urllib.request.urlopen('https://blog.csdn.net/').read()
data2=data.decode('utf-8','ignore')#加第二个参数ignore
print(len(data2))
pat ='href="(https://blog.csdn.net/.*?)"'
allurl=re.compile(pat).findall(data2)
for i in range(0,len(allurl)):
    try:
        print('第'+ str(i)+'次爬取')
        thisurl=allurl[i]
        file='e:/sinanews/'+ str(i)+'.html'
        urllib.request.urlretrieve(thisurl,file)
        print('...成功....!')
    except urllib.error.URLError as e:
        if hasattr(e,'code'): #判断是否有状态码
            print(e.code)
        if hasattr(e,'reason'):#判断是否有原因这个属性
            print(e.reason)

第二种方式,将将opener添加到全局,都可以使用。

import urllib.request
import re
url='https://blog.csdn.net/'
headers=('User-Agent','User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/17.17134')
opener=urllib.request.build_opener()#添加报头信息
opener.addheaders=[headers]
urllib.request.install_opener(opener)#将opener添加到全局,urlopen(url)可用
data=urllib.request.urlopen(url).read().decode('utf-8','ignore') 
pat ='<a href="(https://blog.csdn.net/.*?)"'
allurl=re.compile(pat).findall(data)
for i in range(0,len(allurl)):
    try:
        print('第'+ str(i)+'次爬取')
        thisurl=allurl[i]
        file='e:/sinanews/'+ str(i)+'.html'
        urllib.request.urlretrieve(thisurl,file)
        print('...成功....!')
    except urllib.error.URLError as e:
        if hasattr(e,'code'): #判断是否有状态码
            print(e.code)
        if hasattr(e,'reason'):#判断是否有原因这个属性
            print(e.reason)

爬取之后,保存到文件夹中的如图所示。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值