php抓取微博特殊客户,抓取某一用户微博

任务目标

1. 选取任意用户的微博(首页)

2. 抓取信息,包括: 用户名称、用户简介、前10条微博信息,有图片的,包含图片地址

目标地址

http://weibo.com/pinganbeijing

模拟登陆方式

1. 登录模拟表单登录 (验证码识别)

2. Cookie登录

抓取用户名称和用户简介

43e4b5ba2cef

需要抓取的信息

43e4b5ba2cef

用户名称

43e4b5ba2cef

用户简介

安装Selenium

pip install Selenium

安装phantomjs

http://phantomjs.org/download.html

将安装后的EXE文件放到C:\Python27\Scripts文件夹下。

使用XPath

XPath的简单调用方法

from lxml import etree

selector=etree.HTML(源码) #将源码转化为能被XPath匹配的格式

selector.xpath(表达式) #返回为一列表

XPath的简单调用方法

1) // 双斜杠 定位根节点,会对全文进行扫描,在文档中选取所有符合条件的内容,以列表的形式返回。

2) / 单斜杠 寻找当前标签路径的下一层路径标签或者对当前路标签内容进行操作

3) /text() 获取当前路径下的文本内容

4) /@xxxx 提取当前路径下标签的属性值

5) | 可选符 使用|可选取若干个路径 如//p | //div 即在当前路径下选取所有符合条件的p标签和div标签。

6) . 点 用来选取当前节点

7) .. 双点 选取当前节点的父节点

固定coolie登陆

43e4b5ba2cef

获取User-Agent和Cookie

# -*- coding: utf-8 -*-

from lxml import etree

from selenium import webdriver

class ZirconSinaSpider:

driver = webdriver.PhantomJS() # 使用webdriver.PhantomJS

def get_url_content(self, url):

self.init_phantom_driver(url)

def init_phantom_driver(self, url):

cap = webdriver.DesiredCapabilities.PHANTOMJS

cap["phantomjs.page.settings.resourceTimeout"] = 1000

user_agent = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3100.0 Safari/537.36'

cookie = 'your_cookie'

headers = {

'User-Agent': user_agent,

'Cookie': cookie

}

for key, value in headers.iteritems():

cap['phantomjs.page.customHeaders.{}'.format(key)] = value

cap['phantomjs.page.customHeaders.User-Agent'] = user_agent

self.driver = webdriver.PhantomJS(desired_capabilities=cap)

self.driver.get(url)

doctree = self.get_dom_tree()

self.get_content_username(doctree)

self.get_content_user_sim_info(doctree)

self.get_content_top10_info(doctree)

def get_dom_tree(self):

# 执行js得到整个dom

html = self.driver.execute_script("return document.documentElement.outerHTML")

doctree = etree.HTML(html)

print type(doctree)

return doctree

def get_content_username(self,doctree):

username = doctree.xpath('//*[@id="Pl_Official_Headerv6__1"]/div/div/div[2]/div[2]/h1/text()') # 获取用户名称, 这里使用id属性来定位哪个div被匹配 使用text()获取文本内容

print username[0]

def get_content_user_sim_info(self,doctree):

user_sim_info = doctree.xpath('//*[@id="Pl_Official_Headerv6__1"]/div/div/div[2]/div[3]/@title') # 获取用户简介, 使用“@标签属性”获取div便签的title属性值

print user_sim_info[0]

def get_content_top10_info(self,doctree):

user_top10_info = doctree.xpath('//div[@class="WB_detail"]/div[@class="WB_text W_f14"]') # 获取用户前10条微博

i = 1

for each in user_top10_info:

print i

i = i + 1

print each.xpath('string(.)').strip()

url = "http://weibo.com/pinganbeijing"

spider = ZirconSinaSpider()

spider.get_url_content(url)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值