python爬虫,抓取百度指定内容的url链接

这并没有什么卵用,我只是拿来练习写的~

#coding:utf8
#获取百度搜索python后 得到网站的url
import httplib
from bs4 import BeautifulSoup
import re


def conn(url):
	nameList = []
	connect = httplib.HTTPConnection(url,80,timeout=30) <span style="white-space:pre">			</span>#连接
	connect.request('GET','/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=2&tn=baiduhome_pg&wd=python&rsv_spt=1&oq=python&rsv_pq=f10981490000252a&rsv_t=0c63QmTLBDZgUO2ObCG3uF370iK6gtPZCnvGSMVn6SQhXwFszeGD61oUUb08xrWBz2cC&rsv_enter=0&rsv_sug3=3&rsv_sug1=2&rsv_sug4=13000')
	response = connect.getresponse() 					#GET请求,获取响应对象
	read = response.read() 			 				#读取对象内容
	soup = BeautifulSoup(read)						#将内容放入bs4解析器,返回一个列表
	data = soup.find_all('a')						#查找里面 !所有! 的a标记,返回一个列表
	for i in data:								#遍历这个列表,每个元素都是一个tag对象
		try:
			i = re.search(r'^http://www\.baidu\.com/link.*',i['href']).group()
			#这个tag对象有许多属性和方法,以字典的方式查找其中的href属性,会返回属性的值
			#在返回的数据中匹配含有特定字符串的数据
			print i
		except Exception,e: #这段数据会有一些不匹配,所以去除报错信息
			pass
url = 'www.baidu.com'
conn(url)


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值