python爬虫抓取文本_Python实现可获取网易页面所有文本信息的网易网络爬虫功能示例...

本文实例讲述了Python实现可获取网易页面所有文本信息的网易网络爬虫功能。分享给大家供大家参考,具体如下:

#coding=utf-8

#---------------------------------------

# 程序:网易爬虫

# 作者:ewang

# 日期:2016-7-6

# 语言:Python 2.7

# 功能:获取网易页面中的文本信息并保存到TXT文件中。

#---------------------------------------

import string

import urllib2

import re

import os

class WangYi_Spider:

#申明相关属性

def __init__(self):

#给wangyiUrl属性赋值

self.wangyiUrl="http://www.163.com/"

#用来保存页面中文字信息

self.pageinfor=[]

print u'已经启动网易爬虫,爬爬...'

#初始化加载页面并将其转码存储

def wangyi(self):

#读取页面的原始信息并将其从gbk转码

Page=urllib2.urlopen(self.wangyiUrl).read().decode('gbk')

#获取页面标题

title=self.find_title(Page)

print u'网页名称:'+title

#获取页面中文本信息

self.save_infor(title)

#查找页面标题

def find_title(self,page):

#匹配

xxxx

myTitle=re.search(r'

(.*?)',page,re.S)

#初始化标题名为暂无标题

title=u'暂无标题'

#如果标题存在把标题赋值给title

if myTitle:

#(.*?)这称作一个group,组是从1开始

title=myTitle.group(1)

else:

print u'爬虫报告:无法加载网页标题...'

return title

#保存页面信息

def save_infor(self,title):

#加载页面文本信息到数组中

self.get_infor()

#创建并打开本地文件

f=open(title+'.txt','w+')

#把获取的页面信息写入文件中

f.writelines(self.pageinfor)

#关闭打开的文件

f.close()

print u'爬虫报告:文件'+title+'.txt'+u'已经下载:'+os.getcwd()

print u'按任意键退出...'

raw_input()

#获取页面源码并将其存储到数组中

def get_infor(self):

#获取页面中的源码

page=urllib2.urlopen(self.wangyiUrl).read()

#把页面中的内容gbk解码然后获取页面中所有的文本信息

self.deal_infor(page.decode('gbk'))

#从页面代码中获取所需文信息

def deal_infor(self,page):

#获取XXX的文本信息XXX

emTagItems=re.findall("(\W+?)",page,re.S)

#获取XXXX的文本信息XXXX

spanTagItems=re.findall("(\W+?)",page,re.S)

#获取XXXX的文本信息XXXX

aTagItems=re.findall("(\W+?)",page,re.S)

#把em tag中获取的文本信息添加到数组pageinfor中

for emItem in emTagItems:

#对获取的文本信息用gbk进行编码

self.pageinfor.append(emItem.encode('gbk')+'\n')

#把span tag中获取的文本信息添加到数组pageinfor中

for spanItem in spanTagItems:

#对获取的文本信息用gbk进行编码

self.pageinfor.append(spanItem.encode('gbk')+'\n')

#把a tag中获取的文本信息添加到数组pageinfor中

for aItem in aTagItems:

#对获取的文本信息用gbk进行编码

self.pageinfor.append(aItem.encode('gbk')+'\n')

#------------程序入口处----------------

print u"""#---------------------------------------

# 程序:网易爬虫

# 作者:ewang

# 日期:2016-7-6

# 语言:Python 2.7

# 功能:获取网易页面中的文本信息并保存到TXT文件中

#--------------------------------------------------

"""

wangyiSpider=WangYi_Spider()

wangyiSpider.wangyi()

希望本文所述对大家Python程序设计有所帮助。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值