方法1:
把这组数据装进hashset里面
set不能存储重复数据,可以达到去重效果
方法2:
用遍历这组数据,新建一个list来接收,用list.contains 来判断,重复的不要添加
这2种方法都是利用封装好的类的特性来做的,写一个底层的去重方法,还不太熟悉,待研究
2017-11-27补充
方法3:
public
static
void
removeDuplicate(List list) {
for
(
int
i =
0
; i < list.size() -
1
; i ++ ) {
for
(
int
j = list.size() -
1
; j > i; j -- ) {
if
(list.get(j).equals(list.get(i))) {
list.remove(j);
}
}
}
System.out.println(list);
}
这个方法,要点就是倒叙遍历,删除,不会对list产生影响
方法4:
public
static
void
removeDuplicate(List list) {
HashSet h =
new
HashSet(list);
list.clear();
list.addAll(h);
System.out.println(list);
}
以上这2个是网上看到的
方法5(自己想的):
public List<String> quchong(List<String> a ){
List<String> b = new ArrayList<String>();
Iterator<String> bit = b.iterator();
for(int i=0 ;i<a.size();i++){
String ai = a.get(i);
Boolean has = false;
while(bit.hasNext()){
String bn = bit.next();
if(ai.equals(bn)){
has = true;
break;
}
}
if(!has){
b.add(ai);
bit = b.iterator();
}
}
return b ;
}