test3

19 篇文章 0 订阅
17 篇文章 0 订阅
import time
import urllib, time, os, base64, json
import re, sys
import urllib
from lxml import etree

import requests

def getPage(base_url):
    try:
        page = urllib.request.urlopen(base_url)  # 5 
        content = page.read().decode("utf-8", "ignore").lower()  
               
        re_script=re.compile('<\s*script[\S\s]*<\s*/\s*script\s*>',re.I) #Script     [\\S\\s]+?
        re_style=re.compile('<\s*style[^>]*>[^<]*<\s*/\s*style\s*>',re.I) #style

        content=re_script.sub('',content) #去掉SCRIPT
        content=re_style.sub('',content)#去掉style
        selector = etree.HTML(content.encode("utf-8",'ignore'))
        # answer one
        # menu_items = selector.xpath("/html/body/header/div/ul[@id='head_nav_list']/li/a") # 5
        # for item in menu_items:
        #     writefile("/home/output/crawler_result.csv", item.attrib.get("href")) # 2

        # answer two
        menu_items = selector.xpath("/html/body/header/div/ul[@id='head_nav_list']/li/a/@href")  # 5
        for item in menu_items:
            writefile("/home/output/crawler_result.csv", item)  # 2

    except Exception as e:  # 3
        print("Failed to read from %s." % base_url)
        print(sys.exc_info())
        return False


def writefile(filename, content):
    try:
        fp = open(filename, 'a') # 5
        fp.write(content + "\n") # 5
        fp.close()  # 5
    except:
        return False

now = time.strftime('%Y-%m-%d %X', time.localtime(time.time()))

try:
    # 5
    url = '1'
    getPage(url)

except Exception as e:
    info = '%s\nError: %s' % (now, e)
    writefile('Error.log', info)
    print (info)
    time.sleep(1)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

发量不足

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值