System.currentTimeMillis()的用法

一、前言

最近看开源项目发现System.currentTimeMillis(),查了一下发现是用来获取当前的总毫秒数,并且new Date()也是调用这个来实现的。所以说如果只需要获取毫秒数或秒数都可以用这个来实现,提高效率。

二、用法

public class test {
    public static void main(String[] args) {
        //总毫秒数  从1970年1月1日开始计算
        long totalMilisSeconds = System.currentTimeMillis();
        //总秒数
        long totalSeconds = totalMilisSeconds / 1000;
        //当前秒数
        long currentSeconds = totalSeconds % 60;
        //总分钟
        long totalMinutes = totalSeconds / 60;
        //当前分钟
        long currentMinutes = totalMinutes % 60;
        //总小时(中国时区需加8小时)
        long totalHours = totalMinutes / 60 + 8;
        //当前小时
        long currentHours = totalHours % 24;
        //总天数
        long totalDays = totalHours / 24;
        Date date = new Date();
        System.out.println("总毫秒数:"+totalMilisSeconds);
        System.out.println("总秒数:"+totalSeconds);
        System.out.println("总分钟数:"+totalMinutes);
        System.out.println("总小时:"+totalHours);
        System.out.println("当前秒:"+currentSeconds);
        System.out.println("当前分钟数:"+currentMinutes);
        System.out.println("当前小时:"+currentHours);
        System.out.println("总天数:"+totalDays);
        SimpleDateFormat sdFormatter = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
        System.out.println(date);
        System.out.println(sdFormatter.format(date));
    }
}

测试结果:
在这里插入图片描述

  • 38
    点赞
  • 127
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
Scrapy是一个强大的Python爬虫框架,用于快速、高效地从网页中提取数据。下面是一个使用Scrapy的爬虫案例。 假设目标是从一个电子商务网站上获取商品的名称、价格和评论。首先,需要创建一个Scrapy项目。在命令行中输入以下命令: ``` scrapy startproject ecommerce ``` 会生成一个名为ecommerce的文件夹,其中包含Scrapy项目的基本结构。接下来,进入项目文件夹并创建一个爬虫: ``` cd ecommerce scrapy genspider products example.com ``` 这里创建了一个名为products的爬虫,爬取的网站是example.com。进入爬虫文件`products.py`,可以看到Scrapy自动生成的代码。在`parse`方法中,可以编写代码来提取需要的数据。 首先,需要确定要提取数据的网页结构。使用Chrome浏览器的开发者工具,可以查看网页的HTML结构。根据需要提取的数据,可以使用XPath或CSS选择器来定位元素。比如,要提取商品的名称和价格,可以使用以下代码: ``` def parse(self, response): products = response.xpath('//div[@class="product"]') for product in products: name = product.xpath('.//h2/text()').get() price = product.xpath('.//span[@class="price"]/text()').get() yield { 'name': name, 'price': price } ``` 这个代码会在网页中查找所有`class`属性为`product`的`div`元素,并提取每个商品的名称和价格。 接下来,需要配置爬虫的URL和启动设置。在项目文件夹中的`settings.py`文件中,可以设置爬虫的起始URL和其他的配置参数。 最后,运行爬虫并保存数据。在命令行中输入以下命令: ``` scrapy crawl products -o data.json ``` 这个命令会运行名为products的爬虫,并将提取的数据保存在data.json文件中。 以上就是一个使用Scrapy爬虫框架的简单案例。通过编写适当的代码,可以根据需要从网页中提取所需的数据。Scrapy提供了丰富的功能和灵活的配置选项,使得爬虫开发变得更加容易和高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值