python对html过滤处理

##过滤HTML中的标签
#将HTML中标签等信息去掉
#@param htmlstr HTML字符串.
def filter_tags(htmlstr):
    #先过滤CDATA
    re_cdata=re.compile('//<!\[CDATA\[[^>]*//\]\]>',re.I) #匹配CDATA
    re_script=re.compile('<\s*script[^>]*>[^<]*<\s*/\s*script\s*>',re.I)#Script
    re_style=re.compile('<\s*style[^>]*>[^<]*<\s*/\s*style\s*>',re.I)#style
    re_br=re.compile('<br\s*?/?>')#处理换行
    re_h=re.compile('</?\w+[^>]*>')#HTML标签
    re_comment=re.compile('<!--[^>]*-->')#HTML注释
    re_stopwords=re.compile('\u3000')#去除无用的'\u3000'字符
    s=re_cdata.sub('',htmlstr)#去掉CDATA
    s=re_script.sub('',s) #去掉SCRIPT
    s=re_style.sub('',s)#去掉style
    s=re_br.sub('\n',s)#将br转换为换行
    s=re_h.sub('',s) #去掉HTML 标签
    s=re_comment.sub('',s)#去掉HTML注释
    s=re_stopwords.sub('',s)
    #去掉多余的空行
    blank_line=re.compile('\n+')
    s=blank_line.sub('\n',s)
    s=replaceCharEntity(s)#替换实体
    return s

##替换常用HTML字符实体.
#使用正常的字符替换HTML中特殊的字符实体.
#你可以添加新的实体字符到CHAR_ENTITIES中,处理更多HTML字符实体.
#@param htmlstr HTML字符串.
def replaceCharEntity(htmlstr):
    CHAR_ENTITIES={'nbsp':' ','160':' ',
                'lt':'<','60':'<',
                'gt':'>','62':'>',
                'amp':'&','38':'&',
                'quot':'"','34':'"',}

    re_charEntity=re.compile(r'&#?(?P<name>\w+);')
    sz=re_charEntity.search(htmlstr)
    while sz:
        entity=sz.group()#entity全称,如&gt;
        key=sz.group('name')#去除&;后entity,如&gt;为gt
        try:
            htmlstr=re_charEntity.sub(CHAR_ENTITIES[key],htmlstr,1)
            sz=re_charEntity.search(htmlstr)
        except KeyError:
            #以空串代替
            htmlstr=re_charEntity.sub('',htmlstr,1)
            sz=re_charEntity.search(htmlstr)
    return htmlstr
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python垃圾邮件过滤实战代码可以通过以下步骤完成: 1. 导入必要的库:导入需要用到的Python库,如`re`用于正则表达式匹配,`nltk`用于自然语言处理,`sklearn`用于机器学习。 2. 数据预处理:首先,加载训练数据集和测试数据集,并进行数据清洗,去除HTML标签、特殊字符、停用词等无用信息。然后,将文本转换为数值特征向量,如使用词袋模型(bag-of-words)或TF-IDF向量化方法。 3. 特征提取:使用特征提取方法,如统计学方法(如词频、字符频率、URL长度等)或基于机器学习的方法(如朴素贝叶斯、支持向量机等)来提取特征。 4. 模型训练:使用机器学习算法(如朴素贝叶斯、支持向量机等)对提取的特征进行训练,构建垃圾邮件分类模型。 5. 模型评估:使用测试数据集对训练好的模型进行评估,计算准确率、召回率、F1值等指标,评估模型的性能。 6. 预测和应用:使用训练好的模型对新的邮件进行预测,根据预测结果判断邮件是否为垃圾邮件。 一个简单的实例代码如下所示: ```python import re import nltk from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB def preprocess_text(text): # 清除HTML标签 clean_text = re.sub('<.*?>', '', text) # 去除特殊字符 clean_text = re.sub('[^a-zA-Z]', ' ', clean_text) # 转换为小写 clean_text = clean_text.lower() # 分词 tokens = nltk.word_tokenize(clean_text) # 移除停用词 clean_tokens = [token for token in tokens if token not in stopwords] # 连接为字符串 clean_text = ' '.join(clean_tokens) return clean_text def extract_features(texts): vectorizer = CountVectorizer() features = vectorizer.fit_transform(texts) return features def train_model(features, labels): model = MultinomialNB() model.fit(features, labels) return model def evaluate_model(model, features, labels): predictions = model.predict(features) accuracy = (predictions == labels).mean() return accuracy def predict_email(model, email): cleaned_email = preprocess_text(email) features = extract_features([cleaned_email]) prediction = model.predict(features) return prediction # 加载训练数据和标签 train_data = [...] train_labels = [...] # 数据预处理 preprocessed_data = [preprocess_text(text) for text in train_data] # 提取特征 train_features = extract_features(preprocessed_data) # 构建模型 spam_classifier = train_model(train_features, train_labels) # 评估模型 accuracy = evaluate_model(spam_classifier, train_features, train_labels) # 预测新邮件 new_email = "..." prediction = predict_email(spam_classifier, new_email) ``` 注意,此代码仅提供了一个基本框架,并没有包含完整的代码实现。具体的实现细节还需要根据实际需求进行调整和完善。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值