正则匹配页面所有A标签或Img标签

先贴一个匹配正则的方法供大家参考:


public static ArrayList CutStr(string sStr, string Patrn)
        {
            ArrayList al = new ArrayList();
            try
            {
                Regex tmpreg = new Regex(Patrn, RegexOptions.Compiled);
                MatchCollection sMC = tmpreg.Matches(sStr);
                if (sMC.Count != 0)
                {
                    for (int i = 0; i < sMC.Count; i++)
                    {
                        al.Add(sMC[i].Groups[0].Value);
                    }
                }
            }
            catch (System.Exception ex)
            {
                Log.WriteLog("检查出错:Exception:" + ex.Message + "\r\nStackTrace:" + ex.StackTrace + "\r\n Rule:" + Patrn);
            }
            return al;
        }



MatchCollection对象取Group的方法很好用。推荐!!


匹配页面所有A标签正则:  <a.+?href=\"(.+?)\".*>(.+)</a>    


这个只能匹配不换行的A。一换行就完蛋。换这个试试:<a[^>]+?href=\"([^\"]+)\"[^>]*>([^<]+)</a>


继续添加改进版本:可以匹配href后面跟 单引号,双引号或者不跟符号的情况:

<a[^>]+?href=["']?([^"']+)["']?[^>]*>([^<]+)</a>



匹配页面所有Img标签正则:   <img(.*?)>


在另一篇博文中看到一个关于正则匹配img标签的例子,贴过来看一下:


<img(?!.*?logo).*>

<img - 开头数据
(?! - 负向预查后面的字符
.*?贪婪匹配logo前面所有数据
(?!.*?logo) - 意为匹配所有不包含logo
.*> 则是 匹配所有换行前的>      -  此处不使用 .*? 进行贪婪主要是为了避免 alt="abc>" 这样中间出现> 字符的情况

不过上面会出现个特例情况

例如

<img src="abc.jpg" alt="logo图片">  alt提示包含logo
<img src="test.jpg" logo=1 >  自定义属性


如果考虑这些情况,正则可以再细化到src位置

<img(.*?)(src)=\"(?!.*?logo).*>


正则表达式基础教程:http://www.w3cschool.cc/regexp/regexp-tutorial.html

爬取网站上的图片并保存通常涉及到网络请求、HTML解析以及文件操作。对于泰迪智能(teddyai.com)这样的网站,由于可能会有动态加载内容或者反爬虫策略,仅依赖正则表达式可能不够精确。但是,如果静态页面上图片链接是基于固定模式的,我们可以尝试使用Python的requests库获取HTML源码,然后利用BeautifulSoup等库解析HTML,提取出图片URL。 以下是一个简化的示例步骤: 1. **安装必要的库**: ```bash pip install requests beautifulsoup4 ``` 2. **编写脚本**: ```python import requests from bs4 import BeautifulSoup import os def download_images(url): # 发送GET请求获取HTML response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 解析图片URLs img_tags = soup.find_all('img') # 可能需要根据实际HTML结构调整此部分 img_urls = [img['src'] for img in img_tags] # 创建目录(如果不存在) if not os.path.exists('teddy_images'): os.makedirs('teddy_images') # 下载并保存图片 for img_url in img_urls: response_img = requests.get(img_url) with open(f'teddy_images/{os.path.basename(img_url)}', 'wb') as f: f.write(response_img.content) # 调用函数,提供泰迪智能网站的URL url = "https://teddyai.com" # 替换为你想抓取的网页地址 download_images(url) ``` 请注意,这个示例假设图片URL在HTML中以`<img>`标签的`src`属性表示,并且直接可用。实际网站的结构可能会有所不同,你可能需要根据实际情况调整解析逻辑。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值