简单爬虫

import urllib.request  
import re  
  
########################################################  
#  
# fetch函数功能:抓取“陕西建筑招标网”的第一页“招标公告”页面,输出公告名字  
#   
#             参数baseUrl是要访问的网站地址   
#  
########################################################  
  
def fetch(baseUrl):  
  
    # 第1步:模拟浏览器发送请求  
    page = urllib.request.urlopen(baseUrl)
    data = page.read()
    data = data.decode('utf-8')    
  
    # 第2步:页面返回后,利用正则表达式提取想要的内容  
    nameList=[]  
    nameList = re.compile(r'target="_blank" title="(.*?)"',re.DOTALL).findall(data)  
  
    # 第3步:返回在页面上析取的“标题名”  
    return nameList  
      
#######     执行    ########   
if __name__ =="__main__":  
     
    #要抓取的网页地址  
    url = "http://sh.uzai.com/lvyoucn/shandong-r-5113.html?utm_source=baidu&utm_medium=cpc&utm_term=%E5%B1%B1%E4%B8%9C%E6%97%85%E6%B8%B8%E7%BD%91&utm_content=%E5%B1%B1%E4%B8%9C-%E9%80%9A%E7%94%A8&utm_campaign=%E6%96%B0%E4%B8%8A%E6%B5%B7-%E5%9B%BD%E5%86%85-%E5%B1%B1%E4%B8%9C"  
  
    #存放到名字列表中  
    NameList = fetch(url)  
  
    # 输出 NameList  
    Length = len(NameList)  
    for i in range(0, Length):  

        print("标题名%d:%s\n"%(i+1, NameList[i]))

#将信息保存到doc 文档

f = open("E:/data.doc", "w+")
for i in range(0, len(NameList)):
    f.write(NameList[i] + "\n")
f.close()

            
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值