python关键词占比_python爱占百度排名关键词提取

本帖最后由 badbird 于 2014-6-18 18:21 编辑

# -*- coding: cp936 -*-

import urllib,urllib2,re,sys,requests #引用模块

from bs4 import BeautifulSoup

findid=re.compile('>.+

def get_url(url):

num = 1

while 'blue t_l word' in urllib2.urlopen('http://baidurank.aizhan.com/baidu/%s/%s/position/'%(url,num)).read():

num+=1

for x in range(1,num):

html=urllib2.urlopen('http://baidurank.aizhan.com/baidu/%s/%s/position/'%(url,x)).read()#下载页面

soup = BeautifulSoup(html)

keywords=soup.find_all('td',class_='blue t_l word')

keyword_rank=soup.find_all('span',class_='pos')

filename=open("aizhan100.csv","a")

k_list=[]

for k in keywords:

k_string=str(list(k)[1])

#print findid.findall(k_string)[0]

k_list.append(findid.findall(k_string)[0].rstrip('').decode('utf-8').encode('gb2312'))

r_list=[]

for r in keyword_rank:

r_list.append(findid.findall(str(r))[0].rstrip(''))

k_rank=dict(zip(k_list,r_list))

for k in k_rank:

filename.write(k + ',' + k_rank[k]+"\n")

get_url('www.xxxxxx.com')

用了2小时写了一段可以直接提取到在爱占百度排名下的所有网站关键词功能,希望对大家有所帮助。(已本地测试可成功提取,有问题可以直接论坛下探讨) 谢谢

2014-6-18 18:21 上传

点击文件名下载附件

1.17 KB, 下载次数: 1270

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值