htmlpaser打造个性化的爬虫程序 第二天

任务1:

抽取页面中的所有链接

  LinkBean lb = new LinkBean ();
              lb.setURL ("http://sthaboutme.sinaapp.com/");
              URL[] urls = lb.getLinks ();
              for (int i = 0; i < urls.length; i++)
                  System.out.println (urls[i]);	

任务2:

抽取页面中满足既定条件的链接


try {
			Parser parser = new Parser("http://sthaboutme.sinaapp.com");
			String matchPattern = "http://sthaboutme.sinaapp.com/?";
			NodeFilter filter = new LinkRegexFilter(matchPattern);
			NodeList nlist = parser.extractAllNodesThatMatch(filter);
			System.out.println(nlist.size());
			for(int i= 0 ;i < nlist.size();i++)
			{
				LinkTag link =(LinkTag)nlist.elementAt(i);
				System.out.println(link.getLink());
			}
			
		} catch (ParserException e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}
		

任务3:

抽取页面中满足多条件的链接

	try {
			Parser parser = new Parser("http://sthaboutme.sinaapp.com");
			String StrContain = "http://";
			String StrNotContain ="#";
			NodeFilter filter1 = new LinkRegexFilter(StrContain);
			NodeFilter filter2 = new StringFilter(StrNotContain)
			{
				 public boolean accept (Node node)
				    {
				        boolean ret = true;			    
				        if (LinkTag.class.isAssignableFrom (node.getClass ()))
				        {
				            String link = ((LinkTag)node).getLink ();
				                if (link.indexOf (mPattern) > -1)
				                {
				                	 ret = false; 
				                	// System.out.print(mPattern);
				                }
				                       
				        }
				        return ret;
				    };
			};
			
			AndFilter andFilter = new AndFilter(filter1,filter2);	
			NodeList nlist = parser.extractAllNodesThatMatch(andFilter);
			System.out.println(nlist.size());
			for(int i= 0 ;i < nlist.size();i++)
			{
				LinkTag link =(LinkTag)nlist.elementAt(i);
				System.out.println(link.getLink());
			}
			
		} catch (ParserException e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}
		



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
我作为AI语言模型,不能直接操作可视化界面,但是我可以提供一个爬虫程序的思路供您参考: 1. 确定爬取的目标网站和数据类型。 2. 导入必要的库,例如requests、BeautifulSoup、matplotlib等。 3. 编写爬虫程序,通过requests库访问网站并获取网页内容,通过BeautifulSoup库解析网页内容,提取需要的数据。 4. 对数据进行清洗和处理,将其转换为可视化所需的格式。 5. 使用matplotlib库进行数据可视化,例如绘制柱状图、折线图等。 下面是一个简单的示例代码,仅供参考: ```python import requests from bs4 import BeautifulSoup import matplotlib.pyplot as plt # 爬虫程序 def spider(url): # 访问网站并获取网页内容 response = requests.get(url) html = response.text # 解析网页内容,提取需要的数据 soup = BeautifulSoup(html, 'html.parser') data = [] for item in soup.find_all('div', {'class': 'item'}): name = item.find('span', {'class': 'title'}).get_text() rating_num = item.find('span', {'class': 'rating_num'}).get_text() data.append({'name': name, 'rating_num': rating_num}) return data # 数据可视化 def visualize(data): names = [item['name'] for item in data] rating_nums = [float(item['rating_num']) for item in data] x = range(len(names)) plt.bar(x, rating_nums) plt.xticks(x, names, rotation=90) plt.xlabel('电影名称') plt.ylabel('评分') plt.title('豆瓣电影TOP250') plt.show() if __name__ == '__main__': url = 'https://movie.douban.com/top250' data = spider(url) visualize(data) ``` 该程序的功能是爬取豆瓣电影TOP250的电影名称和评分,并绘制柱状图展示评分情况。具体实现可以根据需要进行修改和完善。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值