163 新闻页面网络爬虫简单抓取数据

#coding=utf-8
from bs4 import BeautifulSoup
import urllib2
import re
def searchurl(url):
    url = urllib2.urlopen(url)
    soup = BeautifulSoup(url)
    return soup
def search163(soup,divs,di):
    tags=soup.select(divs)
    a= tags[0].select(di)
    list1=list()
    for i in a:
        print "标题:",i.get_text()
        print "标题连接:",i["href"]
        list1.append(i["href"])
    return list1
    pass
def searchhold(i,divs,di):
    for a in i:
        soup=searchurl(a)
        cont=search66(soup,divs,di)
        #print cont
def search66(soup,divs,di):
        s=soup.select(divs)
        so= s[0].select(di)
        for i in so:
            print re.sub('\s','',i.get_text()).strip()
if __name__ == '__main__':
    s=searchurl("http://news.163.com/world/")
    i=search163(s,".today_news","a")
    #searchhold(i,"#endText","p")
    pass
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值