网页爬虫的一个类模块。

其中ImageUrls返回分析得到的图片链接。LinkUrls返回分析得到的网页链接。BodyText返回去掉标记的网页正文部分。TitleText返回网页的标题。

{
A Class for Page Analysis
Author: Liu LIU
Mail: Geo(DOT)Cra(AT)Gmail(DOT)com
Web: http://www.aivisoft.net/
}
unit Crawl;

interface

uses
  Math, Windows, SysUtils, Variants, Classes, unitypes;

const
  PoolSize: longint = $100;
  SourceTags1: array[0..9] of string = ('<', '>', '&', '"', '®',
    '©', '™', ' ', ' ', ' ');
  SourceTags2: array[0..9] of string = ('&lt', '&gt', '&amp', '&quot', '&reg',
    '&copy', '&trade', '&ensp', '&emsp', '&nbsp');
  DestTags: array[0..9] of Char = ('<', '>', '&', '"', '?', '?', '?', ' ', ' ', ' ');
type
  TCrawler = class
  private
    LinkPool: array[0..$FF] of TStringList;
    function Hash(S: string): longint;
    function GetPlainText(S: string): string;
    function NaiveMatch(S, T: string; Start, LengthOfS, LengthOfT: longint): longint;
  public
    ImageUrls, LinkUrls: TStringList;
    BodyText, TitleText: string;
    procedure Init;
    procedure PageAnalysis(SrcHTML, SrcUrl: string);
    function LoadFromFile(FileName: string): boolean;
    function SaveToFile(FileName: string): boolean;
    destructor Destroy; override;
  end;

implementation

function TCrawler.Hash(S: string): longint;
var
  i, Total: longint;
begin
  Total := 0;
  for i := 1 to Length(S) do Inc(Total, Ord(S[i]));
  Result := Total mod PoolSize;
end;

function TCrawler.GetPlainText(S: string): string;
var
  i, j, k, l, LengthOfS, t1, t2, y1, y2: longint;
  Cr, Lf, Tab: Char;
  Flags, HasSpace: boolean;
  LowerS, NewS: string;
begin
  Cr := Chr(13); Lf := Chr(10); Tab := Chr(9);
  k := 1; i := 1; LengthOfS := Length(S); NewS := S;
  while i <= LengthOfS do begin
    Flags := false;
    while (NewS[i] = Cr) or (NewS[i] = Lf) do begin
      Inc(i); Flags := i > LengthOfS;
      if Flags then break;
    end;
    if not Flags then NewS[k] := NewS[i] else Dec(k);
    Inc(i); Inc(k);
  end;
  setlength(NewS, k - 1);
  {Clear enters in page}
  NewS := StringReplace(NewS, '</p>', Chr(13) + Chr(10), [rfReplaceAll, rfIgnoreCase]);
  NewS := StringReplace(NewS, '<br>', Chr(13) + Chr(10), [rfReplaceAll, rfIgnoreCase]);
  NewS := StringReplace(NewS, '</div>', Chr(13) + Chr(10), [rfReplaceAll, rfIgnoreCase]);
  LowerS := LowerCase(NewS); LengthOfS := Length(NewS);
  k := NaiveMatch(LowerS, '<script', 1, LengthOfS, 7); i := k;
  l := NaiveMatch(LowerS, '</script>', k + 7, LengthOfS, 9);
  while l > 0 do begin
    l := l + 9;
    k := NaiveMatch(LowerS, '<script', l, LengthOfS, 7);
    if k = 0 then k := LengthOfS + 1;
    Move(NewS[l], NewS[i], k - l);
    i := i + k - l;
    l := NaiveMatch(LowerS, '</script>', k + 7, LengthOfS, 9);
  end;
  if i > 0 then setlength(NewS, i - 1);
  {Clearup scripts}
  LowerS := LowerCase(NewS); LengthOfS := Length(NewS);
  k := NaiveMatch(LowerS, '<style', 1, LengthOfS, 6); i := k;
  l := NaiveMatch(LowerS, '</style>', k + 6, LengthOfS, 8);
  while l > 0 do begin
    l := l + 8;
    k := NaiveMatch(LowerS, '<style', l, LengthOfS, 6);
    if k = 0 then k := LengthOfS + 1;
    Move(NewS[l], NewS[i], k - l);
    i := i + k - l;
    l := NaiveMatch(LowerS, '</style>', k + 6, LengthOfS, 8);
  end;
  if i > 0 then setlength(NewS, i - 1);
  {Clearup style code}
  LowerS := LowerCase(NewS); LengthOfS := Length(NewS);
  k := NaiveMatch(LowerS, '<', 1, LengthOfS, 1); i := k;
  l := NaiveMatch(LowerS, '>', k + 1, LengthOfS, 1);
  while l > 0 do begin
    repeat
      t1 := 0; t2 := 0;
      for j := k to l do begin
        if LowerS[j] = '"' then Inc(t1);
        if LowerS[j] = '''' then Inc(t2);
      end;
      y1 := t1 mod 2; y2 := t2 mod 2;
      if (y1 > 0) or (y2 > 0) then
        l := NaiveMatch(LowerS, '>', l + 1, LengthOfS, 1);
    until (l = 0) or ((y1 = 0) and (y2 = 0));
    if l = 0 then break;
    {ignore the > in "..." or '....'}
    l := l + 1;
    k := NaiveMatch(LowerS, '<', l, LengthOfS, 1);
    if k = 0 then k := LengthOfS + 1;
    Move(NewS[l], NewS[i], k - l);
    i := i + k - l;
    l := NaiveMatch(LowerS, '>', k + 1, LengthOfS, 1);
  end;
  if i > 0 then setlength(NewS, i - 1);
  {Clear control code in <>}
  for i := 0 to 9 do begin
    NewS := StringReplace(NewS, SourceTags1[i], DestTags[i], [rfReplaceAll, rfIgnoreCase]);
    NewS := StringReplace(NewS, SourceTags2[i], DestTags[i], [rfReplaceAll, rfIgnoreCase]);
  end;
  {replace marks}
  NewS := StringReplace(NewS, ' ', ' ', [rfReplaceAll]);
  LengthOfS := Length(NewS);
  for i := 1 to LengthOfS do if NewS[i] = Tab then NewS[i] := ' ';
  k := 1; i := 1; LengthOfS := Length(NewS);
  while i <= LengthOfS do begin
    Flags := false; HasSpace := false;
    while (NewS[i] = ' ') do begin
      Inc(i); Flags := i > LengthOfS;
      HasSpace := true;
      if Flags then break;
    end;
    if HasSpace then Dec(i);
    if not Flags then NewS[k] := NewS[i] else Dec(k);
    Inc(i); Inc(k);
  end;
  setlength(NewS, k - 1);
  NewS := StringReplace(NewS, Lf + ' ', Lf, [rfReplaceAll]);
  NewS := StringReplace(NewS, ' ' + Cr, Cr, [rfReplaceAll]);
  {trim spaces and enters}
  Result := Trim(NewS);
end;

function TCrawler.NaiveMatch(S, T: string; Start, LengthOfS, LengthOfT: longint): longint;
var
  i, j, k: longint;
  Success: boolean;
begin
  Success := false;
  for i := Start to LengthOfS do begin
    Success := true; k := i;
    for j := 1 to LengthOfT do begin
      if S[k] <> T[j] then begin
        Success := false;
        break;
      end;
      Inc(k);
    end;
    if Success then begin
      Result := i;
      break;
    end;
  end;
  if not Success then Result := 0;
end;

procedure TCrawler.Init;
var
  i: longint;
begin
  ImageUrls := TStringList.Create;
  LinkUrls := TStringList.Create;
  for i := 0 to PoolSize - 1 do begin
    LinkPool[i] := TStringList.Create;
    LinkPool[i].Sorted := true;
  end;
end;

procedure TCrawler.PageAnalysis(SrcHTML, SrcUrl: string);
var
  i, j, k, l, LengthOfHTML, HashCode: longint;
  StrQuot, StrSpace, StrTriangle, StrQuot2, StrNewline, StrCross: longint;
  RootUrl, HostName, LowerHTML, SubUrl, DestUrl, Header: string;
begin
  ImageUrls.Clear; LinkUrls.Clear;
  RootUrl := SrcUrl; Header := 'http://';
  if LowerCase(Copy(RootUrl, 1, 6)) = 'ftp://' then begin
    Delete(RootUrl, 1, 6);
    Header := 'ftp://';
  end;
  if LowerCase(Copy(RootUrl, 1, 7)) = 'http://' then Delete(RootUrl, 1, 7);
  if LowerCase(Copy(RootUrl, 1, 8)) = 'https://' then begin
    Delete(RootUrl, 1, 8);
    Header := 'https://';
  end;
  while RootUrl[Length(RootUrl)] = '/' do begin
    Delete(RootUrl, Length(RootUrl), 1);
    if RootUrl = '' then break;
  end;
  if RootUrl = '' then Exit;
  k := Pos('/', RootUrl);
  if k > 0 then HostName := Copy(RootUrl, 1, k - 1) else HostName := RootUrl;
  LengthOfHTML := Length(SrcHTML);
  LowerHTML := LowerCase(SrcHTML);
  {Parsing Links}
  k := NaiveMatch(LowerHTML, '<a href=', 1, LengthOfHTML, 8);
  while k > 0 do begin
    k := k + 8; l := maxlongint;
    StrQuot := NaiveMatch(LowerHTML, Chr(39), k + 1, LengthOfHTML, 1);
    if (StrQuot < l) and (StrQuot > 0) then l := StrQuot;
    StrTriangle := NaiveMatch(LowerHTML, '>', k, LengthOfHTML, 1);
    if (StrTriangle < l) and (StrTriangle > 0) then l := StrTriangle;
    StrSpace := NaiveMatch(LowerHTML, ' ', k, LengthOfHTML, 1);
    if (StrSpace < l) and (StrSpace > 0) then l := StrSpace;
    StrCross := NaiveMatch(LowerHTML, '#', k, LengthOfHTML, 1);
    if (StrCross < l) and (StrCross > 0) then l := StrCross;
    StrQuot2 := NaiveMatch(LowerHTML, '"', k + 1, LengthOfHTML, 1);
    if (StrQuot2 < l) and (StrQuot2 > 0) then l := StrQuot2;
    StrNewline := NaiveMatch(LowerHTML, Chr(10), k, LengthOfHTML, 1);
    if (StrNewline < l) and (StrNewline > 0) then l := StrNewline;
    if l < maxlongint then begin
      SubUrl := TrimRight(Copy(SrcHTML, k, l - k));
      if SubUrl <> '' then begin
        while SubUrl[1] = '"' do begin
          Delete(SubUrl, 1, 1);
          if SubUrl = '' then break;
        end;
        if SubUrl <> '' then begin
          while SubUrl[1] = Chr(39) do begin
            Delete(SubUrl, 1, 1);
            if SubUrl = '' then break;
          end;
          if SubUrl <> '' then begin
            if ('ftp://' = LowerCase(Copy(SubUrl, 1, 6))) or
              ('http://' = LowerCase(Copy(SubUrl, 1, 7))) or
              ('https://' = LowerCase(Copy(SubUrl, 1, 8))) then
              DestUrl := SubUrl
            else begin
              if SubUrl[1] = '/' then
                DestUrl := Header + HostName + SubUrl
              else
                DestUrl := Header + RootUrl + '/' + SubUrl;
            end;
            HashCode := Hash(DestUrl);
            if LinkPool[HashCode].IndexOf(DestUrl) = -1 then begin
              LinkUrls.Add(DestUrl);
              LinkPool[HashCode].Add(DestUrl);
              if (LowerCase(Copy(DestUrl, Length(DestUrl) - 3, 4)) = '.jpg') or
                (LowerCase(Copy(DestUrl, Length(DestUrl) - 3, 4)) = '.bmp') or
                (LowerCase(Copy(DestUrl, Length(DestUrl) - 4, 5)) = '.jpeg') then begin
                ImageUrls.Add(DestUrl);
              end;
            end;
          end;
        end;
      end;
      k := NaiveMatch(LowerHTML, '<a href=', l, LengthOfHTML, 8);
    end else break;
  end;
  {Parsing Image Links}
  k := NaiveMatch(LowerHTML, '<img src=', 1, LengthOfHTML, 9);
  while k > 0 do begin
    k := k + 9; l := maxlongint;
    StrQuot := NaiveMatch(LowerHTML, Chr(39), k + 1, LengthOfHTML, 1);
    if (StrQuot < l) and (StrQuot > 0) then l := StrQuot;
    StrTriangle := NaiveMatch(LowerHTML, '>', k, LengthOfHTML, 1);
    if (StrTriangle < l) and (StrTriangle > 0) then l := StrTriangle;
    StrSpace := NaiveMatch(LowerHTML, ' ', k, LengthOfHTML, 1);
    if (StrSpace < l) and (StrSpace > 0) then l := StrSpace;
    StrQuot2 := NaiveMatch(LowerHTML, '"', k + 1, LengthOfHTML, 1);
    if (StrQuot2 < l) and (StrQuot2 > 0) then l := StrQuot2;
    StrNewline := NaiveMatch(LowerHTML, Chr(10), k, LengthOfHTML, 1);
    if (StrNewline < l) and (StrNewline > 0) then l := StrNewline;
    if l < maxlongint then begin
      SubUrl := TrimRight(Copy(SrcHTML, k, l - k));
      if SubUrl <> '' then begin
        while SubUrl[1] = '"' do begin
          Delete(SubUrl, 1, 1);
          if SubUrl = '' then break;
        end;
        if SubUrl <> '' then begin
          while SubUrl[1] = Chr(39) do begin
            Delete(SubUrl, 1, 1);
            if SubUrl = '' then break;
          end;
          if SubUrl <> '' then begin
            if (LowerCase(Copy(SubUrl, Length(SubUrl) - 3, 4)) = '.jpg') or
              (LowerCase(Copy(SubUrl, Length(SubUrl) - 3, 4)) = '.bmp') or
              (LowerCase(Copy(SubUrl, Length(SubUrl) - 4, 5)) = '.jpeg') then begin
              if ('ftp://' = LowerCase(Copy(SubUrl, 1, 6))) or
                ('http://' = LowerCase(Copy(SubUrl, 1, 7))) or
                ('https://' = LowerCase(Copy(SubUrl, 1, 8))) then
                DestUrl := SubUrl
              else begin
                if SubUrl[1] = '/' then
                  DestUrl := Header + HostName + SubUrl
                else
                  DestUrl := Header + RootUrl + '/' + SubUrl;
              end;
              HashCode := Hash(DestUrl);
              if LinkPool[HashCode].IndexOf(DestUrl) = -1 then begin
                ImageUrls.Add(DestUrl);
                LinkPool[HashCode].Add(DestUrl);
              end;
            end;
          end;
        end;
      end;
      k := NaiveMatch(LowerHTML, '<img src=', l, LengthOfHTML, 9);
    end else break;
  end;
  {Get Title Text}
  TitleText := '';
  k := NaiveMatch(LowerHTML, '<title>', 1, LengthOfHTML, 7);
  if k > 0 then begin
    k := k + 7;
    l := NaiveMatch(LowerHTML, '</title>', k, LengthOfHTML, 8);
    if l > 0 then
      TitleText := Copy(SrcHTML, k, l - k);
  end;
  TitleText := GetPlainText(TitleText);
  {Get Body Text}
  BodyText := '';
  k := NaiveMatch(LowerHTML, '<body', 1, LengthOfHTML, 5);
  if k > 0 then begin
    k := NaiveMatch(LowerHTML, '>', k + 5, LengthOfHTML, 1);
    if k > 0 then begin
      k := k + 1;
      l := NaiveMatch(LowerHTML, '</body>', k, LengthOfHTML, 7);
      if l = 0 then l := LengthOfHTML;
      BodyText := Copy(SrcHTML, k, l - k);
    end;
  end;
  BodyText := GetPlainText(BodyText);
end;

function TCrawler.LoadFromFile(FileName: string): boolean;
var
  i, j, n: longint;
  s: string;
begin
  try
    AssignFile(Input, FileName); Reset(Input);
    for i := 0 to PoolSize - 1 do begin
      ReadLn(n);
      for j := 0 to n - 1 do begin
        ReadLn(s);
        LinkPool[i].Add(s);
      end;
    end;
    CloseFile(Input);
    Result := true;
  except
    Result := false;
  end;
end;

function TCrawler.SaveToFile(FileName: string): boolean;
var
  i, j: longint;
begin
  try
    AssignFile(Output, FileName); Rewrite(Output);
    for i := 0 to PoolSize - 1 do begin
      WriteLn(LinkPool[i].Count);
      for j := 0 to LinkPool[i].Count - 1 do WriteLn(LinkPool[i].Strings[j]);
    end;
    CloseFile(Output);
    Result := true;
  except
    Result := false;
  end;
end;

destructor TCrawler.Destroy;
var
  i: longint;
begin
  ImageUrls.Free;
  LinkUrls.Free;
  for i := 0 to PoolSize - 1 do LinkPool[i].Free;
  inherited;
end;

end.
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
目标检测(Object Detection)是计算机视觉领域的一个核心问题,其主要任务是找出图像中所有感兴趣的目标(物体),并确定它们的别和位置。以下是对目标检测的详细阐述: 一、基本概念 目标检测的任务是解决“在哪里?是什么?”的问题,即定位出图像中目标的位置并识别出目标的别。由于各物体具有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具挑战性的任务之一。 二、核心问题 目标检测涉及以下几个核心问题: 分问题:判断图像中的目标属于哪个别。 定位问题:确定目标在图像中的具体位置。 大小问题:目标可能具有不同的大小。 形状问题:目标可能具有不同的形状。 三、算法分 基于深度学习的目标检测算法主要分为两大: Two-stage算法:先进行区域生成(Region Proposal),生成有可能包含待检物体的预选框(Region Proposal),再通过卷积神经网络进行样本分。常见的Two-stage算法包括R-CNN、Fast R-CNN、Faster R-CNN等。 One-stage算法:不用生成区域提议,直接在网络中提取特征来预测物体分和位置。常见的One-stage算法包括YOLO系列(YOLOv1、YOLOv2、YOLOv3、YOLOv4、YOLOv5等)、SSD和RetinaNet等。 四、算法原理 以YOLO系列为例,YOLO将目标检测视为回归问题,将输入图像一次性划分为多个区域,直接在输出层预测边界框和别概率。YOLO采用卷积网络来提取特征,使用全连接层来得到预测值。其网络结构通常包含多个卷积层和全连接层,通过卷积层提取图像特征,通过全连接层输出预测结果。 五、应用领域 目标检测技术已经广泛应用于各个领域,为人们的生活带来了极大的便利。以下是一些主要的应用领域: 安全监控:在商场、银行
### 回答1: 网页爬虫是一种自动化的程序,它能够抓取网站上的信息。常用的网页爬虫工具有: 1. Scrapy: 这是一个功能强大的网页爬虫框架,可以用来构建爬虫程序。Scrapy可以帮助你轻松提取网站上的数据,并且可以自动处理网页之间的链接。 2. Beautiful Soup: 这是一个 Python 库,可以用来解析网页的 HTML 和 XML 标签。它可以帮助你快速提取网页上的信息。 3. Selenium: 这是一个用于测试网站的工具,也可以用来做网页爬虫。Selenium 可以模拟人在浏览器中操作网页,因此可以爬取 JavaScript 动态生成的内容。 4. Pycurl: 这是一个 Python 的网络传输库,可以用来发送 HTTP 请求和接收 HTTP 响应。 Pycurl 可以帮助你构建简单的网页爬虫程序。 这些工具都是很有用的,你可以根据自己的需要选择适合自己的工具。 ### 回答2: 为了创建一个网页爬虫工具,我们可以使用Python编程语言和一些相关的库和模块。以下是一个基本的步骤和一些建议的库。 首先,我们需要安装Python并设置开发环境。你可以选择安装Anaconda发行版,它包含了Python以及一些流行的数据科学库。 接下来,我们需要安装一些用于网页爬取的库。其中,最常用的是BeautifulSoup和Requests。 BeautifulSoup是一个用于解析HTML和XML文档的库,它可以帮助我们提取网页中的信息。可以使用pip命令来安装BeautifulSoup:pip install beautifulsoup4。 Requests库是一个用于发送HTTP请求的库,它可以帮助我们下载网页内容。可以使用pip命令来安装Requests:pip install requests。 一旦我们安装好了这些库,我们可以开始编写我们的网页爬虫。以下是一个基本的例子: ``` import requests from bs4 import BeautifulSoup # 发送HTTP请求并下载页面内容 url = 'https://www.example.com' response = requests.get(url) content = response.text # 使用BeautifulSoup解析网页内容 soup = BeautifulSoup(content, 'html.parser') # 提取我们感兴趣的信息 title = soup.title.text links = soup.find_all('a') for link in links: print(link['href']) ``` 上述代码中,我们首先发送了一个HTTP请求来下载网页的内容,然后使用BeautifulSoup库解析网页内容。最后,我们可以使用BeautifulSoup提供的方法来提取网页中的信息。 这只是一个简单的例子,你还可以进一步扩展这个网页爬虫工具,以提取更多有用的信息,并存储到数据库或CSV文件中。 重要的是要记住,在编写网页爬虫时,必须遵守网站的访问规则,并尊重网站的隐私政策和使用条款。 ### 回答3: 网页爬虫工具是一种能够自动获取互联网上数据的工具。在市面上,有很多种适用于不同使用场景的网页爬虫工具可供选择。 其中一个比较流行的网页爬虫工具是Python编程语言中的Scrapy框架。Scrapy是一个开源的、高效的、功能强大的网页爬虫框架,它提供了基于规则的数据提取和处理功能,同时具备异步处理、自动抓取和数据存储等功能。通过编写Scrapy脚本,可以使用它的核心组件和扩展功能来实现快速、高效的网页爬取和数据提取。 此外,如果你更倾向于无需编程的网页爬虫工具,可以考虑使用一些图形化工具,如Octoparse和ParseHub等。这种工具通常提供了可视化的界面,允许用户通过交互操作来设置抓取规则,并自动解析网页并提取所需数据。这些工具不需要编写代码,适用于一些简单且规则更为固定的网页爬取任务。 总的来说,网页爬虫工具能够帮助用户快速抽取和整理互联网上的数据。根据您的使用场景和个人技术需求,可以选择适合的工具进行网页爬取和数据提取。无论是Scrapy框架还是图形化工具,都可以大大简化网页爬取的流程,提高效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值