正则匹配页面所有A标签或Img标签

先贴一个匹配正则的方法供大家参考:


public static ArrayList CutStr(string sStr, string Patrn)
        {
            ArrayList al = new ArrayList();
            try
            {
                Regex tmpreg = new Regex(Patrn, RegexOptions.Compiled);
                MatchCollection sMC = tmpreg.Matches(sStr);
                if (sMC.Count != 0)
                {
                    for (int i = 0; i < sMC.Count; i++)
                    {
                        al.Add(sMC[i].Groups[0].Value);
                    }
                }
            }
            catch (System.Exception ex)
            {
                Log.WriteLog("检查出错:Exception:" + ex.Message + "\r\nStackTrace:" + ex.StackTrace + "\r\n Rule:" + Patrn);
            }
            return al;
        }



MatchCollection对象取Group的方法很好用。推荐!!


匹配页面所有A标签正则:  <a.+?href=\"(.+?)\".*>(.+)</a>    


这个只能匹配不换行的A。一换行就完蛋。换这个试试:<a[^>]+?href=\"([^\"]+)\"[^>]*>([^<]+)</a>


继续添加改进版本:可以匹配href后面跟 单引号,双引号或者不跟符号的情况:

<a[^>]+?href=["']?([^"']+)["']?[^>]*>([^<]+)</a>



匹配页面所有Img标签正则:   <img(.*?)>


在另一篇博文中看到一个关于正则匹配img标签的例子,贴过来看一下:


<img(?!.*?logo).*>

<img - 开头数据
(?! - 负向预查后面的字符
.*?贪婪匹配logo前面所有数据
(?!.*?logo) - 意为匹配所有不包含logo
.*> 则是 匹配所有换行前的>      -  此处不使用 .*? 进行贪婪主要是为了避免 alt="abc>" 这样中间出现> 字符的情况

不过上面会出现个特例情况

例如

<img src="abc.jpg" alt="logo图片">  alt提示包含logo
<img src="test.jpg" logo=1 >  自定义属性


如果考虑这些情况,正则可以再细化到src位置

<img(.*?)(src)=\"(?!.*?logo).*>


正则表达式基础教程:http://www.w3cschool.cc/regexp/regexp-tutorial.html

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
requests和beautifulsoup都是Python中常用的网络爬虫库。正则表达式则是一种用于匹配、搜索、替换字符串的强大工具。这三者可以结合使用,以实现更加高效、灵活的网络爬取任务。 在requests中,可以使用正则表达式来提取页面中的特定信息。例如,假设我们要获取某个网站中所有图片的链接,可以使用requests发送请求,并使用正则表达式匹配页面中所有img标签的src属性: ``` import requests import re url = 'https://www.example.com' response = requests.get(url) pattern = re.compile('<img.*?src="(.*?)".*?>') img_urls = pattern.findall(response.text) ``` 在上述代码中,我们使用了re.compile()函数将正则表达式编译成一个正则对象,然后使用findall()函数在页面中查找所有匹配的字符串。 而在beautifulsoup中,可以使用正则表达式来进行更加复杂的页面解析。例如,假设我们要获取某个网站中所有包含class属性为"article"的div标签的内容,可以使用beautifulsoup提供的find_all()函数,并结合正则表达式进行筛选: ``` from bs4 import BeautifulSoup import requests import re url = 'https://www.example.com' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') pattern = re.compile('^article$') articles = soup.find_all('div', {'class': pattern}) ``` 在上述代码中,我们使用re.compile()函数将正则表达式编译成一个正则对象,然后将其作为find_all()函数的参数,用于筛选class属性为"article"的div标签

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值