net spider(python 网络爬虫)

# -*- coding: utf-8 -*-
import  urllib2,cookielib
from   bs4 import  BeautifulSoup
url="http://www.baidu.com"


#第一种方法
response1=urllib2.urlopen(url)
print response1.getcode()
print len(response1.read())

#第二种方法
request=urllib2.Request(url)
request.add_header("user-agent","Mozilla/5.0")
response2=urllib2.urlopen(request)
print response2.getcode()
print len(response2.read())


#第三种方法
cj=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
urllib2.install_opener(opener)
response3=urllib2.urlopen(url)
print response3.getcode()
print cj
print response3.read()


#BeautifulSoup实例
html_doc="""********************************************
**********************
******************
*************
*******
""" soup=BeautifulSoup(html_doc, 'html.parser', from_encoding='utf-8') print "获取所有的链接" links=soup.find_all("a") for link in links: print link.name,link['href'],link.get_text() print '获取单个链接' link_node=soup.find('a',href='http://example.com/lacie') print link_node.name, link_node['href'], link_node.get_text() print "正则表达式" link_node=soup.find('a',href=re.compile(r"ill")) print link_node.name,link_node['href'],link_node.get_text() print "获取p段落文字" p_node=soup.find('p',class_="title") print p_node.name,p_node.get_text()

 

转载于:https://www.cnblogs.com/1314520xh/p/9196186.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值