ThreadLocal
原理:ThreadLocal不是用来存储值的,存储值得是ThreadLocalMap中,ThreadLocalMap是被Thread强引用的(Thread类中的字段),所以每个线程里面都会有一个ThreadLocalMap,ThreadLocal充当key,要存储的数据充当value。
内存泄露:应用的线程有可能不被销毁,无论是我们自己创建的线程池还是Tomcat创建的线程池,最终都有可能产生线程不被销毁的情况,而只要线程不被销毁,ThreadLocalMap就不会被销毁,ThreadLocalMap就会强引用value,key不会强引用,因为key是一个弱引用,所以key是可以被回收的,但是value不会被回收,就导致了内存泄露(占用空间,又无法被使用),内存泄漏可以使用set方法和remove方法,前者是把值给替换,后者是将值清空掉,使得value的强引用被断开,也就可以被回收了。
深挖点:JVM、Java引用类型、线程池、HashMap
多线程面试题1
题意:多线程加载图片,哪张图片最快获取到,就直接使用哪个,其他的不要了
public void test() {
CompletableFuture<String> future1 = CompletableFuture.supplyAsync(() -> {
System.out.println("加载图片1....");
try {
TimeUnit.SECONDS.sleep(2);
} catch (InterruptedException e) {
throw new RuntimeException(e);
}
return "图片1";
});
CompletableFuture<String> future2 = CompletableFuture.supplyAsync(() -> {
System.out.println("加载图片2....");
try {
TimeUnit.SECONDS.sleep(1);
} catch (InterruptedException e) {
throw new RuntimeException(e);
}
return "图片2";
});
CompletableFuture<Object> future = CompletableFuture.anyOf(future1, future2);
Object o = null;
try {
o = future.get();
System.out.println("最终结果:" + o);
} catch (InterruptedException e) {
throw new RuntimeException(e);
} catch (ExecutionException e) {
throw new RuntimeException(e);
}
}
其他例子:在redis分布式锁中,终极方案是redlock,实现方案就是分别向多个实例加锁,哪个加锁快就用哪个,还有一种是必须等待所有结果,可以用allOf
多线程面试题2
题意:创建两个线程,一个线程打印A,另一个线程打印B,两个线程交替打印
Integer stock = new Integer(1);
class Task implements Runnable {
String out;
public Task(String out) {
this.out = out;
}
@Override
public void run() {
synchronized (stock) {
while(true) {
System.out.println(out);
try {
Thread.sleep(100);
// 先唤醒其他线程
stock.notify();
// 自己进入等待,此处会释放 sync 锁
stock.wait();
} catch (Exception e) {
e.printStackTrace();
}
}
}
}
}
@Test
public void test() {
CompletableFuture.runAsync(new Task("A"));
CompletableFuture.runAsync(new Task("B"));
try {
TimeUnit.SECONDS.sleep(10);
} catch (InterruptedException e) {
throw new RuntimeException(e);
}
}
多线程面试题3
题意:高并发场景下,某批热帖帖子阅读量会暴增,必须使用mysql实现帖子阅读量增加,不能使用redis,保证高性能,怎么做?
答:搞一个共享队列,将controller中请求的消息打包(文章id,阅读量增加数)丢到队列中,形成生产者,使用定时任务作为消费者,根据文章id将请求分批,减少mysql更新操作,保证高性能。