08-Collections类

一.常用功能

  • java.utils.Collections是集合工具类,用来对集合进行操作。部分方法如下:

  • public static <T> boolean addAll(Collection<T> c, T... elements):往集合中添加一些元素。

  • public static void shuffle(List<?> list) 打乱顺序:打乱集合顺序。

  • public static <T> void sort(List<T> list):将集合中元素按照默认规则排序。

  • public static <T> void sort(List<T> list,Comparator<? super T> ):将集合中元素按照指定规则排序。

代码演示:

public class CollectionsDemo {
    public static void main(String[] args) {
        ArrayList<Integer> list = new ArrayList<Integer>();
        //原来写法
        //list.add(12);
        //list.add(14);
        //list.add(15);
        //list.add(1000);
        //采用工具类 完成 往集合中添加元素  
        Collections.addAll(list, 5, 222, 1,2);
        System.out.println(list);
        //排序方法 
        Collections.sort(list);
        System.out.println(list);
    }
}
结果:
[5, 222, 1, 2]
[1, 2, 5, 222]

代码演示之后 ,发现我们的集合按照顺序进行了排列,可是这样的顺序是采用默认的顺序(升序排序),如果想要指定顺序那该怎么办呢?

我们发现还有个方法没有讲,public static <T> void sort(List<T> list,Comparator<? super T> ):将集合中元素按照指定规则排序。接下来讲解一下指定规则的排列。

注意:

sort(List<T> list)使用前提

被排序的集合里边存储的元素,必须实现Comparable,重写接口中的方法compareTo定义排序的规则,比如在String类中:

public final class String implements java.io.Serializable, Comparable<String>, CharSequence {

如果是自定义类的话,必须要自己重写compareTo方法

二.Comparator比较器

2.1.背景

我们使用的是默认的规则完成字符串的排序,那么默认规则是怎么定义出来的呢?

说到排序了,简单的说就是两个对象之间比较大小,那么在JAVA中提供了两种比较实现的方式,

一种是比较死板的采用java.lang.Comparable接口去实现,

一种是灵活的当我需要做排序的时候在去选择的java.util.Comparator接口完成。

那么我们采用的public static <T> void sort(List<T> list)这个方法完成的排序,实际上要求了被排序的类型需要实现Comparable接口完成比较的功能,在String类型上如下:

public final class String implements java.io.Serializable, Comparable<String>, CharSequence {

String类实现了这个接口,并完成了比较规则的定义,但是这样就把这种规则写死了

2.2.Comparator接口

那比如我想要字符串按照第一个字符降序排列,那么这样就要修改String的源代码,这是不可能的了,那么这个时候我们可以使用

public static <T> void sort(List<T> list,Comparator<? super T> )方法灵活的完成,这个里面就涉及到了Comparator这个接口,位于位于java.util包下,排序是comparator能实现的功能之一,该接口代表一个比较器(所以需要重写Compare方法),比较器具有可比性!顾名思义就是做排序的,通俗地讲需要比较两个对象谁排在前谁排在后,那么比较的方法就是:

public int compare(String o1, String o2):比较其两个参数的顺序。

两个对象比较的结果有三种:大于,等于,小于。

如果要按照升序排序, 则o1 小于o2,返回(负数),相等返回0,01大于02返回(正数)

如果要按照降序排序 则o1 小于o2,返回(正数),相等返回0,01大于02返回(负数)

public class CollectionsDemo3 {
    public static void main(String[] args) {
        ArrayList<String> list = new ArrayList<String>();
        list.add("cba");
        list.add("aba");
        list.add("sba");
        list.add("nba");
        //排序方法  按照第一个单词的降序
        Collections.sort(list, new Comparator<String>() {
            @Override
            public int compare(String o1, String o2) {
                return o2.charAt(0) - o1.charAt(0);
            }
        });
        System.out.println(list);
    }
}

结果如下:
[sba, nba, cba, aba]

2.3.简述Comparable和Comparator两个接口的区别

Comparable:强行对实现它的每个类的对象进行整体排序。这种排序被称为类的自然排序,类的compareTo方法被称为它的自然比较方法。只能在类中实现compareTo()一次,不能经常修改类的代码实现自己想要的排序。实现此接口的对象列表(和数组)可以通过Collections.sort(和Arrays.sort)进行自动排序,对象可以用作有序映射中的键或有序集合中的元素,无需指定比较器。

Comparator强行对某个对象进行整体排序。可以将Comparator 传递给sort方法(如Collections.sort或 Arrays.sort),从而允许在排序顺序上实现精确控制。还可以使用Comparator来控制某些数据结构(如有序set或有序映射)的顺序,或者为那些没有自然顺序的对象collection提供排序。

2.4.扩展

如果想要规则更多一些,可以参考下面代码:

Collections.sort(list, new Comparator<Student>() {
            @Override
            public int compare(Student o1, Student o2) {
                // 年龄降序
                int result = o2.getAge()-o1.getAge();//年龄降序

                if(result==0){//第一个规则判断完了 下一个规则 姓名的首字母 升序
                    result = o1.getName().charAt(0)-o2.getName().charAt(0);
                }

                return result;
            }
        });

效果如下:

Student{name='rose', age=18}
Student{name='ace', age=17}
Student{name='abc', age=16}
Student{name='jack', age=16}
Student{name='mark', age=16}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
可以使用Flink的`DateTimeFormatter`来将字符串转换为`java.time.Instant`对象,然后再使用`Instant.toEpochMilli()`方法将其转换为毫秒数,最终可以通过`org.apache.flink.api.common.eventtime.TimestampAssigner`来创建对应的timestamp。以下是示例代码: ``` import org.apache.flink.api.common.eventtime.TimestampAssigner; import org.apache.flink.api.common.eventtime.Watermark; import org.apache.flink.api.common.typeinfo.TypeInformation; import org.apache.flink.api.java.typeutils.ResultTypeQueryable; import org.apache.flink.streaming.api.functions.AssignerWithPunctuatedWatermarks; import org.apache.flink.streaming.api.functions.timestamps.AscendingTimestampExtractor; import org.apache.flink.streaming.api.windowing.time.Time; import org.apache.flink.streaming.connectors.kafka.KafkaDeserializationSchema; import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema; import org.apache.flink.streaming.connectors.kafka.KafkaTopicPartition; import org.apache.flink.streaming.connectors.kafka.internals.KafkaTopicPartitionState; import org.apache.flink.streaming.util.serialization.KeyedSerializationSchema; import org.apache.flink.table.api.ValidationException; import org.apache.flink.table.types.logical.LogicalType; import org.apache.flink.table.types.logical.TimestampType; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.common.TopicPartition; import java.nio.charset.StandardCharsets; import java.time.Instant; import java.time.ZoneOffset; import java.time.format.DateTimeFormatter; import java.time.temporal.ChronoUnit; import java.util.Collections; import java.util.List; import java.util.Map; import java.util.Objects; public class FlinkTimestampAssigner implements AssignerWithPunctuatedWatermarks<String>, ResultTypeQueryable<Long>, KafkaDeserializationSchema<String>, KafkaSerializationSchema<String>, KeyedSerializationSchema<String> { private static final long serialVersionUID = 1L; private final DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd'T'HH:mm:ssXXX"); private final LogicalType[] argumentTypes; private final int[] arguments; private final TimestampType.TimestampKind timestampKind; public FlinkTimestampAssigner(LogicalType[] argumentTypes, int[] arguments, TimestampType.TimestampKind timestampKind) { this.argumentTypes = argumentTypes; this.arguments = arguments; this.timestampKind = timestampKind; } @Override public Long extractTimestamp(String element, long recordTimestamp) { Instant instant = Instant.from(formatter.parse(element)); return instant.toEpochMilli(); } @Override public Watermark checkAndGetNextWatermark(String lastElement, long extractedTimestamp) { return new Watermark(extractedTimestamp - 1); } @Override public TypeInformation<Long> getProducedType() { return TypeInformation.of(Long.class); } @Override public boolean isEndOfStream(String nextElement) { return false; } @Override public String deserialize(ConsumerRecord<byte[], byte[]> record) throws Exception { return new String(record.value(), StandardCharsets.UTF_8); } @Override public boolean isEndOfStream(String element, KafkaTopicPartition partition, long offset) { return false; } @Override public TypeInformation<String> getProducedType() { return TypeInformation.of(String.class); } @Override public ProducerRecord<byte[], byte[]> serialize(String element, Long timestamp) { return new ProducerRecord<>(getTargetTopic(element), null, timestamp, null, element.getBytes(StandardCharsets.UTF_8)); } @Override public byte[] serializeKey(String element) { return null; } @Override public byte[] serializeValue(String element) { return element.getBytes(StandardCharsets.UTF_8); } @Override public String getTargetTopic(String element) { return null; } @Override public KafkaTopicPartition getTargetTopicPartition(String element) { return null; } @Override public void open(SerializationRuntimeContext context) throws Exception { // do nothing } @Override public void setTopicPartitionState(KafkaTopicPartition partition, KafkaTopicPartitionState state) { // do nothing } @Override public KafkaTopicPartitionState getTopicPartitionState(TopicPartition partition) { return null; } @Override public List<TopicPartition> getCommittableTopicPartitions() { return Collections.emptyList(); } @Override public Map<TopicPartition, Long> getCommittableOffsets() { return Collections.emptyMap(); } @Override public void close() throws Exception { // do nothing } } ``` 在使用时,可以将此作为`DataStream`的`assignTimestampsAndWatermarks()`方法的参数,例如: ``` DataStream<String> input = ...; DataStream<String> withTimestampsAndWatermarks = input.assignTimestampsAndWatermarks(new FlinkTimestampAssigner(new LogicalType[]{new TimestampType(3)}, new int[]{0}, TimestampType.TimestampKind.PROCTIME)); ``` 注意,在上述代码中,`TimestampType.TimestampKind`参数可以根据实际情况进行设置。另外,如果需要将`Instant`对象转换为`java.sql.Timestamp`对象,则可以使用`java.sql.Timestamp.from(instant)`方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值