使用Python对新农网爬取小麦种植技术文章

参考博文:Python爬虫实战一之爬取糗事百科段子

爬取的文章列表

代码:

 

# -*- coding: utf-8 -*-
import urllib2
import string 
import re

# 发送请求,得到返回的结果html
def getHtml(url):
    try:
        req = urllib2.Request(url)
        req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.101 Safari/537.36')
        resp = urllib2.urlopen(req)
        html = resp.read()
    except urllib2.URLError, e:
         if hasattr(e, 'code'):
             print e.code
         if hasattr(e, 'reason'):
             print e.reason
    return html


# 解析链接
def parserLinks(links):
    for ls in links:
        for l in ls:
            getContent(l)
            

# 根据链接爬取文章的标题和摘要等信息
def getContent(l):
    url = 'http://www.xinnong.com'
    url += l
    html = getHtml(url)

    pattern = re.compile('<div.*?class="arctit">.*?<h1>(.*?)</h1>.*?<div.*?class="arcinfo">(.*?)  (.*?)</div>'
                         + '.*?<div.*?class="arcdes">(.*?)</div>.*?</div>.*?<div.*?class="arcont" id="article">(.*?)</div>', re.S)
    items = pattern.findall(html)
    for item in items:
        print "url =", url, "title =", item[0], "date =", item[1], "from =", item[2], "digest =", item[3], item[4]
    
    
# 获取文章链接分页列表
def getLinks(startPage, endPage):
    my_links = []
    for i in range(startPage, endPage):
        url = 'http://www.xinnong.com/jishu/liangyou/xiaomai/'
        url += 'p' + str(i) + '.shtml'
        
        html = getHtml(url)
        newslist_index = html.find('newslist')
        lstpage_index = html.find('lstpage', newslist_index)

        html = html[newslist_index - 12 : lstpage_index - 18]
    
        linkPattern = re.compile("href=\"(.+?)\"")
        links = linkPattern.findall(html);
        
        my_links.append(links)

    return my_links



my_links = getLinks(1, 2)
parserLinks(my_links)


爬取结果:

 

「更多精彩内容请关注公众号geekymv,喜欢请分享给更多的朋友哦」

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python使用BeautifulSoup爬取数据可以通过以下步骤实现: 1. 导入所需的库,包括BeautifulSoup、requests和pandas等。 2. 使用requests库获取要爬取页的HTML代码。 3. 使用BeautifulSoup库解析HTML代码,提取所需的数据。 4. 将提取的数据存储到pandas的DataFrame中。 5. 使用pandas的to_excel方法将DataFrame中的数据写入Excel文件中。 下面是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup import pandas as pd # 获取页HTML代码 url = 'https://www.example.com' response = requests.get(url) html = response.text # 解析HTML代码,提取所需数据 soup = BeautifulSoup(html, 'html.parser') data = [] for item in soup.find_all('div', class_='item'): title = item.find('h2').text price = item.find('span', class_='price').text data.append([title, price]) # 将数据存储到DataFrame中 df = pd.DataFrame(data, columns=['Title', 'Price']) # 将数据写入Excel文件中 df.to_excel('data.xlsx', index=False) ``` 这个示例代码爬取了一个名为example.com的站,提取了页中所有class为item的div元素的标题和价格信息,并将这些信息存储到一个名为data.xlsx的Excel文件中。 ### 回答2: Python是一种十分流行的编程语言,它具有强大的数据处理和数据分析能力。在Python中,使用BeautifulSoup爬取数据可以让我们从页中提取数据更加方便和高效。本文将介绍如何使用Python的BeautifulSoup库来爬取数据并生成Excel文档。 第一步,我们需要安装Python的BeautifulSoup库。可以使用以下命令在终端或命令提示符中安装: ``` pip install beautifulsoup4 ``` 第二步,我们可以使用Python的requests库获取页的HTML源代码。例如,可以使用以下代码获取百度首页的HTML源代码: ```python import requests response = requests.get('https://www.baidu.com') html = response.text ``` 第三步,我们需要使用BeautifulSoup来解析HTML源代码并提取所需的数据。例如,以下代码将提取百度首页的所有超链接: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') links = [] for a in soup.find_all('a'): link = a.get('href') if link is not None: links.append(link) ``` 第四步,我们可以使用Python的pandas库来生成Excel文档。例如,以下代码将百度首页的所有超链接生成Excel文档: ```python import pandas as pd df = pd.DataFrame({'Links': links}) df.to_excel('baidu_links.xlsx', index=False) ``` 以上就是使用Python的BeautifulSoup爬取数据并生成Excel文档的基本步骤。需要注意的是,在进行爬虫时,应该尊重站的Robots协议并遵守相关法律法规。另外,在进行数据提取时也应该遵循数据隐私和安全的原则。 ### 回答3: Python中的BeautifulSoup库是一个用于解析HTML和XML文件的工具,可以帮助我们在络上获取数据并从中提取有用的信息。同时,Python也内置了一些用于处理Excel文件的库,如openpyxl、xlwt等。 使用BeautifulSoup进行爬取的基本结构是首先通过Requests库访问目标站,获得HTML源代码,之后使用BeautfulSoup库解析HTML源代码,提取所需的信息。在这个过程中,我们通常需要有足够的络技能,了解HTTP请求和响应的相关参数和方法。 一旦我们从页中获取到所需的数据,我们就需要将这些数据存储在Excel表格中。使用Python处理Excel的库可以帮助我们方便地创建、读取、修改和保存Excel文件。我们通常需要了解Excel文件的基本结构、如何在Excel中创建、修改和删除数据,以及如何保存Excel文件等基础知识。 当我们了解这些基础知识后,我们可以开始使用Python来实现对页数据的爬取和数据分析。我们可以使用BeautifulSoup解析页,使用Excel库来创建和编辑Excel文件,最后将数据保存到新的Excel文件中。同时,在进行数据分析时,我们还可以使用其他Python库来处理和可视化数据,如Pandas、NumPy和Matplotlib。 总之,使用Python进行页数据爬取并将其存储在Excel表格中需要具备基本的络技能和对Excel文件的基本操作知识。在这个过程中,Python提供了许多有用的库帮助我们实现这些操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值