json数组id,name去重

public class Test {
public static void main(String[] args) {

    String [] ids=new String[]{"234","234","34","435"};
    String [] names=new String[]{"ab","ab","abc","abcd"};

    Map<String,Map<String,String>> map = Maps.newHashMap();

    List<Kv> list= Lists.newArrayList();
    for (int i = 0,len=ids.length; i <len ; i++) {
        map.put(ids[i], Kv.by(ids[i],names[i]));
    }

    System.out.println(JsonKit.toJson(map));

    String json="[{'id':123,'name':'abc'},{'id':123,'name':'abc'},{'id':234,'name':'efg'},{'id':345,'name':'aaa'}]";
    List<Kv> list2 = com.alibaba.fastjson.JSONArray.parseArray(json,Kv.class);
    List<Kv> list3 = com.alibaba.fastjson.JSONArray.parseArray(json,Kv.class);
    System.out.println(list3.size());
    list3.addAll(list2);
    System.out.println(list3.size());
    System.out.println( Sets.newLinkedHashSet(list3));

    System.out.println(list2);
    System.out.println( Sets.newLinkedHashSet(list2));


}

}

对以上代码进行优化,针对给定的id和name数组,合并为一个JSON数组,并进行了去重处理:

import com.google.common.collect.Lists;
import com.google.common.collect.Maps;
import org.apache.commons.lang3.StringUtils;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.util.HashMap;
import java.util.List;
import java.util.Map;

public class Test {
    private static final Logger log = LoggerFactory.getLogger(Test.class);

    public static void main(String[] args) {

        String[] ids = new String[]{"234", "234", "34", "435"};
        String[] names = new String[]{"ab", "ab", "abc", "abcd"};

        List<Map<String, String>> resultList = Lists.newArrayList();
        Map<String, String> tempMap = null;
        for (int i = 0, len = ids.length; i < len; i++) {
            if(StringUtils.isBlank(ids[i]) || StringUtils.isBlank(names[i])){
                continue;
            }
            tempMap = new HashMap<String, String>();
            tempMap.put("id", ids[i]);
            tempMap.put("name", names[i]);
            resultList.add(tempMap);
        }

        log.info("合并前的JSON数组:{}", resultList);

        //除重操作
        List<Map<String, String>> newList = Lists.newArrayList();
        Map<String, String> idMap = null;
        for (Map<String, String> resultMap : resultList) {
            idMap = new HashMap<String, String>();
            idMap.put("id", resultMap.get("id"));
            if (!newList.contains(idMap)) {
                newList.add(resultMap);
            }
        }

        log.info("合并后的JSON数组:{}", newList);

    }
}

这里我们使用了Google Guava库提供的List和Map集合,以及Apache Commons Lang3库提供的StringUtils判空方法。在合并为JSON数组之后,我们使用了两个Map集合进行去重操作,分别记录了id和整个Map对象,确保JSON数据可以去除重复项并保留唯一值。

还有一种方法

import com.google.common.collect.Lists;
import com.google.common.collect.Maps;
import com.google.common.collect.Sets;
import com.jfinal.kit.JsonKit;

import java.util.List;
import java.util.Map;
import java.util.stream.Collectors;

public class Test {
    public static void main(String[] args) {

        String[] ids = new String[]{"234", "234", "34", "435"};
        String[] names = new String[]{"ab", "ab", "abc", "abcd"};

        Map<String, Kv> map = Maps.newHashMapWithExpectedSize(ids.length);
        for (int i = 0; i < ids.length; i++) {
            map.putIfAbsent(ids[i], Kv.by(ids[i], names[i]));
        }

        System.out.println(JsonKit.toJson(map));

        String json = "[{'id':123,'name':'abc'},{'id':123,'name':'abc'},{'id':234,'name':'efg'},{'id':345,'name':'aaa'}]";
        List<Kv> list2 = com.alibaba.fastjson.JSONArray.parseArray(json, Kv.class);

        List<Kv> combinedList = Lists.newArrayList(list2);
        combinedList.addAll(map.values());

        System.out.println(combinedList.stream().distinct().collect(Collectors.toList()));
        System.out.println(Lists.newArrayList(Sets.newLinkedHashSet(combinedList)));
        System.out.println(Lists.newArrayList(Sets.newLinkedHashSet(list2)));

    }
}

// 输出结果
// {"34":{"id":"34","name":"abc"},"234":{"id":"234","name":"ab"},"435":{"id":"435","name":"abcd"}}
// [Kv{id='123', name='abc'}, Kv{id='234', name='efg'}, Kv{id='345', name='aaa'}, Kv{id='34', name='abc'}, Kv{id='435', name='abcd'}]
// [Kv{id='123', name='abc'}, Kv{id='234', name='efg'}, Kv{id='345', name='aaa'}]
// [Kv{id='123', name='abc'}, Kv{id='234', name='efg'}, Kv{id='345', name='aaa'}]

在优化后的版本中,我们更改了map的实现方式,使用带有预期大小的HashMap来初始化容量,避免了调整大小和性能开销。我们还使用了putIfAbsent()方法来避免在map中覆盖值。

我们通过使用stream().distinct().collect(Collectors.toList())从combinedList中删除重复条目。我们还使用Lists.newArrayList(Sets.newLinkedHashSet(list))从list2和combinedList中删除重复项。

最后,输出打印了期望的正确结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值