excel导入搜集

原文:http://www.open-open.com/lib/view/open1437203159990.html

public static void getDataFromExcel(String filePath)
  {
    //String filePath = "E:\\123.xlsx";
    //判断是否为excel类型文件
    if(!filePath.endsWith(".xls")&&!filePath.endsWith(".xlsx"))
    {
      System.out.println("文件不是excel类型");
    }
    FileInputStream fis =null;
    Workbook wookbook = null;
    try
    {
      //获取一个绝对地址的流
        fis = new FileInputStream(filePath);
    }
    catch(Exception e)
    {
      e.printStackTrace();
    }
    try 
    {
      //2003版本的excel,用.xls结尾
      wookbook = new HSSFWorkbook(fis);//得到工作簿
       
    } 
    catch (Exception ex) 
    {
      //ex.printStackTrace();
      try
      {
        //2007版本的excel,用.xlsx结尾
        
        wookbook = new XSSFWorkbook(fis);//得到工作簿
      } catch (IOException e)
      {
        // TODO Auto-generated catch block
        e.printStackTrace();
      }
    }
    //得到一个工作表
    Sheet sheet = wookbook.getSheetAt(0);
    //获得表头
    Row rowHead = sheet.getRow(0);
    //判断表头是否正确
    if(rowHead.getPhysicalNumberOfCells() != 3)
    {
      System.out.println("表头的数量不对!");
    }
    //获得数据的总行数
    int totalRowNum = sheet.getLastRowNum();
    //要获得属性
    String name = "";
    int latitude = 0;
     //获得所有数据
    for(int i = 1 ; i <= totalRowNum ; i++)
    {
      //获得第i行对象
      Row row = sheet.getRow(i);
      //获得获得第i行第0列的 String类型对象
      Cell cell = row.getCell((short)0);
      name = cell.getStringCellValue().toString();
      //获得一个数字类型的数据
      cell = row.getCell((short)1);
      latitude = (int) cell.getNumericCellValue();
      System.out.println("名字:"+name+",经纬度:"+latitude);
    }
  }

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 下面是一个Python爬虫爬取哔哩哔哩视频信息并导出Excel的示例代码,具体步骤如下: 1. 导入需要的库。 ``` import requests import json import xlwt ``` 2. 定义请求头和请求参数。 ``` headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} params = { 'mid': '9144082', # 用户id 'pagesize': '30', # 每页大小 'tid': '0', # 0为全部,其他为分类id 'page': '1', # 页码 'keyword': '', # 搜索关键字 'order': 'senddate' # 排序方式,按照发布间排序 } ``` 3. 发送HTTP请求,并解析响应数据。 ``` url = 'https://space.bilibili.com/ajax/member/getSubmitVideos' video_list = [] while True: response = requests.get(url, headers=headers, params=params) data = json.loads(response.text) vlist = data['data']['vlist'] if len(vlist) == 0: break for video in vlist: item = { 'title': video['title'], # 视频标题 'play': video['play'], # 播放数 'review': video['review'], # 弹幕数 'comment': video['comment'], # 评论数 'favorite': video['favorites'], # 收藏数 'coin': video['coins'], # 硬币数 'share': video['share'], # 分享数 'time': video['created'] # 发布间 } video_list.append(item) params['page'] += 1 ``` 4. 将数据导出到Excel文件中。 ``` workbook = xlwt.Workbook(encoding='utf-8') worksheet = workbook.add_sheet('Sheet1') row = 0 for item in video_list: worksheet.write(row, 0, item['title']) worksheet.write(row, 1, item['play']) worksheet.write(row, 2, item['review']) worksheet.write(row, 3, item['comment']) worksheet.write(row, 4, item['favorite']) worksheet.write(row, 5, item['coin']) worksheet.write(row, 6, item['share']) worksheet.write(row, 7, item['time']) row += 1 workbook.save('video_info.xls') ``` 完整代码如下: ### 回答2: 爬虫是一种通过自动化方式来获取网页信息的程序,它可以模拟人类浏览网页的行为,访问网页并提取所需的数据。哔哩哔哩是一个知名的在线视频网站,通过爬虫可以获取其网页上的各种信息。 首先,我们可以使用Python编写一个爬虫程序,使用爬虫框架如Scrapy或BeautifulSoup来获取哔哩哔哩网页上的数据。可以选择爬取视频的标题、观看次数、弹幕数量等信息。通过分析网页的HTML结构,可以编写代码来提取所需的数据。 然后,我们可以将获取到的数据进行处理。可以使用Python中的数据处理库如Pandas来进行数据清洗和整理。可以对数据进行筛选、去除重复项、填充缺失值等处理操作,使得数据更加规整。 最后,我们可以使用Python中的Excel处理库如Openpyxl或XlsxWriter来将处理后的数据导入Excel中。可以创建一个新的Excel文件,或者将数据写入已有的Excel文件的指定工作表中。可以设置Excel中的单元格样式、格式等,使得数据在Excel中展示更为美观。 总之,我们可以通过编写爬虫程序来获取哔哩哔哩网站上的数据,并使用数据处理库对数据进行清洗和整理,最后使用Excel处理库将数据导入Excel中,从而实现对哔哩哔哩数据的爬取和处理。 ### 回答3: 爬虫是一种程序,能够自动化地收集互联网上的数据。而哔哩哔哩是一个知名的视频分享平台,所以我们可以使用爬虫来收集并处理哔哩哔哩的数据,然后将其导入Excel表格中。 首先,我们需要使用Python编写一个爬虫程序。我们可以使用第三方库如Requests和BeautifulSoup来获取和解析哔哩哔哩的网页内容。通过发送HTTP请求,我们可以获取到哔哩哔哩的页面数据。然后,我们可以使用BeautifulSoup库来解析网页的HTML结构,提取出我们需要的数据,如视频的标题、播放量、评论数等。 接下来,我们可以使用Pandas库来处理和转换数据。Pandas是一个强大的数据处理工具,我们可以使用它来将获取到的数据存储为一个数据框(DataFrame)的形式。通过Pandas,我们可以对数据进行清洗、过滤和转换等操作,使得数据变得更加规整和易于分析。 最后,我们可以使用Openpyxl库来将数据导入Excel中。Openpyxl是一个用于读写Excel文件的库,它允许我们在Python中操作Excel表格。通过将数据框转换为Excel的工作表,我们可以将收集到的哔哩哔哩数据保存到Excel文件中,以便于后续的数据分析和可视化。 总之,利用爬虫爬取哔哩哔哩并处理数据导入Excel,可以帮助我们更好地分析和利用哔哩哔哩的数据资源。这不仅有助于我们了解用户行为和兴趣,还可以帮助企业做出更好的营销和业务决策。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值