先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7
深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年最新Java开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上Java开发知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
如果你需要这些资料,可以添加V获取:vip1024b (备注Java)
正文
}catch (Exception e){
e.printStackTrace();
}
}
}
①初始(NEW
):新创建了一个线程对象,但还没有调用start()方法。
②运行(RUNNABLE
):Java线程中将就绪(ready)和运行中(running)两种状态笼统的成为“运行”。
线程对象创建后,其他线程(比如main线程)调用了该对象的start()方法。
该状态的线程位于可运行线程池中,等待被线程调度选中,获取cpu 的使用权,此时处于就绪状态(ready)。
就绪状态的线程在获得cpu 时间片后变为运行中状态(running)。
③阻塞(BLOCKED
):表线程阻塞于锁。
④等待(WAITING
):进入该状态的线程需要等待其他线程做出一些特定动作(通知或中断)。
⑤超时等待(TIME_WAITING
):该状态不同于WAITING,它可以在指定的时间内自行返回。
⑥终止(TERMINATED
):表示该线程已经执行完毕。
-
synchronized
关键字 -
Java.util.concurrent
包中的lock
接口和ReentrantLock
实现类
这两种方式实现加锁。
1)Lock
不是Java
语言内置的,synchronized
是Java语言的关键字,因此是内置特性。
Lock是一个类,通过这个类可以实现同步访问;
2)Lock
和synchronized
有一点非常大的不同,采用synchronized
不需要用户去手动释放锁,当synchronized
方法或者synchronized
代码块执行完之后,系统会自动让线程释放对锁的占用;
而Lock则
必须要用户去手动释放锁,如果没有主动释放锁,就有可能导致出现死锁现象。
总结来说,Lock
和synchronized
有以下几点不同:
1)Lock是一个接口,而synchronized是Java中的关键字,synchronized是内置的语言实现;
2)synchronized
在发生异常时,会自动释放线程占有的锁,因此不会导致死锁现象发生,而Lock
在发生异常时,如果没有主动通过unLock()
去释放锁,则很可能造成死锁现象,因此使用Lock
时需要在finally
块中释放锁;
3)Lock可以让等待锁的线程响应中断,而synchronized
却不行,使用synchronized
时,等待的线程会一直等待下去,不能够响应中断; (I/O
和Synchronized
都能相应中断,即不需要处理interruptionException
异常)
4)通过Lock可以知道有没有成功获取锁,而synchronized
却无法办到。
5)Lock可以提高多个线程进行读操作的效率。
在性能上来说,如果竞争资源不激烈,两者的性能是差不多的,而当竞争资源非常激烈时(即有大量线程同时竞争),此时Lock的性能要远远优于synchronized。
所以说,在具体使用时要根据适当情况选择。
1.可重入锁
如果锁具备可重入性,则称作为可重入锁。
像synchronized
和ReentrantLock
都是可重入锁,可重入性在我看来实际上表明了锁的分配机制:
基于线程的分配,而不是基于方法调用的分配。
举个简单的例子,当一个线程执行到某个synchronized
方法时,比如说method1
,而在method1
中会调用另外一个synchronized
方法method2
,此时线程不必重新去申请锁,而是可以直接执行方法method2
。
class MyClass {
public synchronized void method1() {
method2();
}
public synchronized void method2() {
}
}
上述代码中的两个方法method1
和method2
都用synchronized
修饰了,假如某一时刻,
线程A执行到了method1
,此时线程A获取了这个对象的锁,而由于method2
也是synchronized
方法,假如synchronized
不具备可重入性,此时线程A需要重新申请锁。
但是这就会造成一个问题,因为线程A已经持有了该对象的锁,而又在申请获取该对象的锁,这样就会线程A一直等待永远不会获取到的锁。
2.可中断锁
可中断锁:顾名思义,就是可以相应中断的锁。
在Java中,synchronized
就不是可中断锁,而Lock是可中断锁。
如果某一线程A正在执行锁中的代码,另一线程B正在等待获取该锁,可能由于等待时间过长,线程B不想等待了,想先处理其他事情,我们可以让它中断自己或者在别的线程中中断它,这种就是可中断锁。
在前面演示lockInterruptibly()
的用法时已经体现了Lock的可中断性。
3.公平锁
公平锁即尽量以请求锁的顺序来获取锁。
比如同是有多个线程在等待一个锁,当这个锁被释放时,等待时间最久的线程(最先请求的线程)会获得该所,这种就是公平锁。
非公平锁即无法保证锁的获取是按照请求锁的顺序进行的。
这样就可能导致某个或者一些线程永远获取不到锁。
在Java中,synchronized
就是非公平锁,它无法保证等待的线程获取锁的顺序。
而对于ReentrantLock
和ReentrantReadWriteLock
,它默认情况下是非公平锁,但是可以设置为公平锁。
另外在ReentrantLock类中定义了很多方法,比如:
isFair()
//判断锁是否是公平锁
isLocked()
//判断锁是否被任何线程获取了
isHeldByCurrentThread()
//判断锁是否被当前线程获取了
hasQueuedThreads()
//判断是否有线程在等待该锁
在ReentrantReadWriteLock
中也有类似的方法,同样也可以设置为公平锁和非公平锁。
不过要记住,ReentrantReadWriteLock
并未实现Lock接口,它实现的是ReadWriteLock接口。
4.读写锁
读写锁将对一个资源(比如文件)的访问分成了2个锁,一个读锁和一个写锁。
正因为有了读写锁,才使得多个线程之间的读操作不会发生冲突。
ReadWriteLock
就是读写锁,它是一个接口,ReentrantReadWriteLock
实现了这个接口。
可以通过readLock()
获取读锁,通过writeLock()获取写锁。
ReadWriteLock, ReadWriteLock
也是一个接口,在它里面只定义了两个方法:
在谈到DelayQueue
的使用和原理的时候,我们首先介绍一下DelayQueue
,
DelayQueue
是一个无界阻塞队列,只有在延迟期满时才能从中提取元素。
该队列的头部是延迟期满后保存时间最长的Delayed
元素。
DelayQueue
阻塞队列在我们系统开发中也常常会用到,
例如:缓存系统的设计,缓存中的对象,超过了空闲时间,需要从缓存中移出;
任务调度系统,能够准确的把握任务的执行时间。
我们可能需要通过线程处理很多时间上要求很严格的数据,如果使用普通的线程,
我们就需要遍历所有的对象,一个一个的检查看数据是否过期等,
首先这样在执行上的效率不会太高,其次就是这种设计的风格也大大的影响了数据的精度。
一个需要12:00点执行的任务可能12:01才执行,
这样对数据要求很高的系统有更大的弊端。由此我们可以使用DelayQueue。
下面将会对DelayQueue做一个介绍,然后举个例子。
并且提供一个Delayed接口的实现和Sample
代码。
DelayQueue
是一个BlockingQueue
,其特化的参数是Delayed
。
(不了解BlockingQueue
的同学,先去了解BlockingQueue
再看本文)
Delayed
扩展了Comparable
接口,比较的基准为延时的时间值,Delayed
接口的实现类getDelay
的返回值应为固定值(final)
。
DelayQueue
内部是使用PriorityQueue
实现的。
DelayQueue=BlockingQueue+PriorityQueue+Delayed
DelayQueue
的关键元素BlockingQueue
、PriorityQueue
、Delayed
。
可以这么说,DelayQueue
是一个使用优先队列(PriorityQueue
)实现的BlockingQueue
,优先队列的比较基准值是时间。
他们的基本定义如下
public interface Comparable {
public int compareTo(T o);
}
public interface Delayed extends Comparable {
long getDelay(TimeUnit unit);
}
public class DelayQueue implements BlockingQueue {
private final PriorityQueue q = new PriorityQueue();
}
DelayQueue 内部的实现使用了一个优先队列。
当调用 DelayQueue 的 offer 方法时,把 Delayed 对象加入到优先队列 q 中。如下:
public boolean offer(E e) {
final ReentrantLock lock = this.lock;
lock.lock();
try {
E first = q.peek();
q.offer(e);
if (first == null || e.compareTo(first) < 0)
available.signalAll();
return true;
} finally {
lock.unlock();
}
}
DelayQueue 的 take 方法,把优先队列 q 的 first 拿出来(peek),如果没有达到延时阀值,则进行 await处理。如下:
public E take() throws InterruptedException {
final ReentrantLock lock = this.lock;
lock.lockInterruptibly();
try {
for (; ; ) {
E first = q.peek();
if (first == null) {
available.await();
} else {
long delay = first.getDelay(TimeUnit.NANOSECONDS);
if (delay > 0) {
long tl = available.awaitNanos(delay);
} else {
E x = q.poll();
assert x != null;
if (q.size() != 0)
available.signalAll(); //wake up other takers return x;
}
}
}
} finally {
lock.unlock();
}
}
● DelayQueue 实例应用
Ps:为了具有调用行为,存放到 DelayDeque
的元素必须继承 Delayed
接口。Delayed
接口使对象成为延迟对象,它使存放在 DelayQueue
类中的对象具有了激活日期。
该接口强制执行下列两个方法。
一下将使用 Delay 做一个缓存的实现。
其中共包括三个类Pair、DelayItem、Cache
● Pair 类:
public class Pair<K, V> {
public K first;
public V second;
public Pair() {
}
public Pair(K first, V second) {
this.first = first;
this.second = second;
}
}
以下是对 Delay 接口的实现:
import java.util.concurrent.Delayed;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.atomic.AtomicLong;
public class DelayItem implements Delayed {
/**
- Base of nanosecond timings, to avoid wrapping
*/
private static final long NANO_ORIGIN = System.nanoTime();
/**
- Returns nanosecond time offset by origin
*/
final static long now() {
return System.nanoTime() - NANO_ORIGIN;
}
/**
-
Sequence number to break scheduling ties, and in turn to guarantee FIFO order among tied
-
entries.
*/
private static final AtomicLong sequencer = new AtomicLong(0);
/**
- Sequence number to break ties FIFO
*/
private final long sequenceNumber;
/**
- The time the task is enabled to execute in nanoTime units
*/
private final long time;
private final T item;
public DelayItem(T submit, long timeout) {
this.time = now() + timeout;
this.item = submit;
this.sequenceNumber = sequencer.getAndIncrement();
}
public T getItem() {
return this.item;
}
public long getDelay(TimeUnit unit) {
long d = unit.convert(time - now(), TimeUnit.NANOSECONDS); return d;
}
public int compareTo(Delayed other) {
if (other == this) // compare zero ONLY if same object return 0;
if (other instanceof DelayItem) {
DelayItem x = (DelayItem) other;
long diff = time - x.time;
if (diff < 0) return -1;
else if (diff > 0) return 1;
else if (sequenceNumber < x.sequenceNumber) return -1;
else
return 1;
}
long d = (getDelay(TimeUnit.NANOSECONDS) - other.getDelay(TimeUnit.NANOSECONDS));
return (d == 0) ?0 😦(d < 0) ?-1 :1);
}
}
以下是 Cache 的实现,包括了 put 和 get 方法
import javafx.util.Pair;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ConcurrentMap;
import java.util.concurrent.DelayQueue;
import java.util.concurrent.TimeUnit;
import java.util.logging.Level;
import java.util.logging.Logger;
public class Cache<K, V> {
private static final Logger LOG = Logger.getLogger(Cache.class.getName());
private ConcurrentMap<K, V> cacheObjMap = new ConcurrentHashMap<K, V>();
private DelayQueue<DelayItem<Pair<K, V>>> q = new DelayQueue<DelayItem<Pair<K, V>>>();
private Thread daemonThread;
public Cache() {
Runnable daemonTask = new Runnable() {
public void run() {
daemonCheck();
}
};
daemonThread = new Thread(daemonTask);
daemonThread.setDaemon(true);
daemonThread.setName(“Cache Daemon”);
daemonThread.start();
}
private void daemonCheck() {
if (LOG.isLoggable(Level.INFO)) LOG.info(“cache service started.”);
for (; ; ) {
try {
DelayItem<Pair<K, V>> delayItem = q.take();
if (delayItem != null) {
// 超时对象处理
Pair<K, V> pair = delayItem.getItem();
cacheObjMap.remove(pair.first, pair.second); // compare and remove
}
} catch (InterruptedException e) {
if (LOG.isLoggable(Level.SEVERE)) LOG.log(Level.SEVERE, e.getMessage(), e);
break;
}
}
if (LOG.isLoggable(Level.INFO)) LOG.info(“cache service stopped.”);
}
// 添加缓存对象
public void put(K key, V value, long time, TimeUnit unit) {
V oldValue = cacheObjMap.put(key, value);
if (oldValue != null) q.remove(key);
long nanoTime = TimeUnit.NANOSECONDS.convert(time, unit);
q.put(new DelayItem<Pair<K, V>>(new Pair<K, V>(key, value), nanoTime));
}
public V get(K key) {
return cacheObjMap.get(key);
}
}
测试 main 方法:
// 测试入口函数
public static void main(String[] args) throws Exception {
Cache<Integer, String> cache = new Cache<Integer, String>();
cache.put(1, “aaaa”, 3, TimeUnit.SECONDS);
Thread.sleep(1000 * 2);
{
String str = cache.get(1);
System.out.println(str);
}
Thread.sleep(1000 * 2);
{
String str = cache.get(1);
System.out.println(str);
}
}
输出结果为:
aaaa
null
我们看到上面的结果,如果超过延时的时间,那么缓存中数据就会自动丢失,获得就为 null。
● 非阻塞队列
首先我们要简单的理解下什么是非阻塞队列:
与阻塞队列相反,非阻塞队列的执行并不会被阻塞,无论是消费者的出队,还是生产者的入队。在底层,非阻塞队列使用的是 CAS(compare and swap)
来实现线程执行的非阻塞。
● 非阻塞队列简单操作, 与阻塞队列相同,非阻塞队列中的常用方法,也是出队和入队。
● offer()
:Queue 接口继承下来的方法,实现队列的入队操作,不会阻碍线程的执行,插入成功返回 true; 出队方法:
● poll()
:移动头结点指针,返回头结点元素,并将头结点元素出队;队列为空,则返回 null;
● peek()
:移动头结点指针,返回头结点元素,并不会将头结点元素出队;队列为空,则返回 null;
首先我们需要了解悲观锁和乐观锁
悲观锁:假定并发环境是悲观的,如果发生并发冲突,就会破坏一致性,所以要通过独占锁彻底禁止冲突发生。
有一个经典比喻,“如果你不锁门,那么捣蛋鬼就回闯入并搞得一团糟”,所以“你只能一次打开门放进一个人,才能时刻盯紧他”。
乐观锁:假定并发环境是乐观的,即虽然会有并发冲突,但冲突可发现且不会造成损害,所以,可以不加任何保护,等发现并发冲突后再决定放弃操作还是重试。
可类比的比喻为,“如果你不锁门,那么虽然捣蛋鬼会闯入,但他们一旦打算破坏你就能知道”,所以“你大可以放进所有人,等发现他们想破坏的时候再做决定”。
通常认为乐观锁的性能比悲观所更高,特别是在某些复杂的场景。
这主要由于悲观锁在加锁的同时,也会把某些不会造成破坏的操作保护起来;
而乐观锁的竞争则只发生在最小的并发冲突处,如果用悲观锁来理解,就是“锁的粒度最小”。
但乐观锁的设计往往比较复杂,因此,复杂场景下还是多用悲观锁。
首先保证正确性,有必要的话,再去追求性能。
乐观锁的实现往往需要硬件的支持,多数处理器都都实现了一个CAS指令,实现“Compare And Swap”的语义(这里的swap是“换入”,也就是set),构成了基本的乐观锁。
CAS包含3个操作数:
需要读写的内存位置V
进行比较的值A
拟写入的新值B
当且仅当位置V的值等于A时,CAS才会通过原子方式用新值B来更新位置V的值;
否则不会执行任何操作。
无论位置V的值是否等于A,都将返回V原有的值。
一个有意思的事实是,“使用CAS控制并发”与“使用乐观锁”并不等价。
CAS只是一种手段,既可以实现乐观锁,也可以实现悲观锁。
乐观、悲观只是一种并发控制的策略。
七、ConcurrentLinkedQueue
非阻塞无界链表队列
ConcurrentLinkedQueue
是一个线程安全的队列,基于链表结构实现,是一个无界队列,理论上来说队列的长度可以无限扩大。
与其他队列相同,ConcurrentLinkedQueue
也采用的是先进先出(FIFO)入队规则,对元素进行排序。
当我们向队列中添加元素时,新插入的元素会插入到队列的尾部;而当我们获取一个元素时,它会从队列的头部中取出。
因为ConcurrentLinkedQueue
是链表结构,所以当入队时,插入的元素依次向后延伸,形成链表;而出队时,则从链表的第一个元素开始获取,依次递增;
值得注意的是,在使用ConcurrentLinkedQueue
时,如果涉及到队列是否为空的判断,切记不可使用size()==0的做法,因为在size()方法中,是通过遍历整个链表来实现的,在队列元素很多的时候,size()方法十分消耗性能和时间,只是单纯的判断队列为空使用isEmpty()即可。
public class ConcurrentLinkedQueueTest {
public static int threadCount = 10;
public static ConcurrentLinkedQueue queue = new ConcurrentLinkedQueue();
static class Offer implements Runnable {
public void run() {
//不建议使用 queue.size()==0,影响效率。可以使用!queue.isEmpty()
if (queue.size() == 0) {
String ele = new Random().nextInt(Integer.MAX_VALUE) + “”;
queue.offer(ele);
System.out.println(“入队元素为” + ele);
}
}
}
static class Poll implements Runnable {
public void run() {
if (!queue.isEmpty()) {
String ele = queue.poll();
System.out.println(“出队元素为” + ele);
}
}
}
public static void main(String[] agrs) {
ExecutorService executorService = Executors.newFixedThreadPool(4);
for (int x = 0; x < threadCount; x++) {
executorService.submit(new Offer());
executorService.submit(new Poll());
}
executorService.shutdown();
}
}
一种输出:
入队元素为313732926
出队元素为313732926
入队元素为812655435
出队元素为812655435
入队元素为1893079357
出队元素为1893079357
入队元素为1137820958
出队元素为1137820958
入队元素为1965962048
出队元素为1965962048
出队元素为685567162
入队元素为685567162
出队元素为1441081163
入队元素为1441081163
出队元素为1627184732
入队元素为1627184732
ConcurrentLinkedQuere类图
如图ConcurrentLinkedQueue中有两个volatile类型的Node节点分别用来存在列表的首尾节点,其中head节点存放链表第一个item为null的节点,tail则并不是总指向最后一个节点。Node节点内部则维护一个变量item用来存放节点的值,next用来存放下一个节点,从而链接为一个单向无界列表。
public ConcurrentLinkedQueue(){
head=tail=new Node(null);
}
如上代码初始化时候会构建一个 item 为 NULL 的空节点作为链表的首尾节点。
Offer 操作offer 操作是在链表末尾添加一个元素,下面看看实现原理。
public boolean offer(E e) {
//e 为 null 则抛出空指针异常
checkNotNull(e);
//构造 Node 节点构造函数内部调用 unsafe.putObject,后面统一讲
final Node newNode = new Node(e);
//从尾节点插入
for (Node t = tail, p = t; ; ) {
Node q = p.next;
//如果 q=null 说明 p 是尾节点则插入
if (q == null) {
//cas 插入(1)
if (p.casNext(null, newNode)) {
//cas 成功说明新增节点已经被放入链表,然后设置当前尾节点(包含 head,1,3,5.。。个节点为尾节点)
if (p != t)// hop two nodes at a time
casTail(t, newNode); // Failure is OK. return true;
}
// Lost CAS race to another thread; re-read next
} else if (p == q)//(2)
//多线程操作时候,由于 poll 时候会把老的 head 变为自引用,然后 head 的 next 变为新 head,所以这里需要
//重新找新的 head,因为新的 head 后面的节点才是激活的节点
p = (t != (t = tail)) ? t : head;
else
// 寻找尾节点(3)
p = (p != t && t != (t = tail)) ? t : q;
}
}
从构造函数知道一开始有个item为null的哨兵节点,并且head和tail都是指向这个节点。
如图首先查找尾节点,
qnull,p就是尾节点,
所以执行p.casNext通过cas设置p的next为新增节点,
这时候pt所以不重新设置尾节点为当前新节点。
由于多线程可以调用offer方法,所以可能两个线程同时执行到了(1)进行cas,
那么只有一个会成功(假如线程1成功了),成功后的链表为:
总结
虽然我个人也经常自嘲,十年之后要去成为外卖专员,但实际上依靠自身的努力,是能够减少三十五岁之后的焦虑的,毕竟好的架构师并不多。
架构师,是我们大部分技术人的职业目标,一名好的架构师来源于机遇(公司)、个人努力(吃得苦、肯钻研)、天分(真的热爱)的三者协作的结果,实践+机遇+努力才能助你成为优秀的架构师。
如果你也想成为一名好的架构师,那或许这份Java成长笔记你需要阅读阅读,希望能够对你的职业发展有所帮助。
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Java)
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
f (p == q)//(2)
//多线程操作时候,由于 poll 时候会把老的 head 变为自引用,然后 head 的 next 变为新 head,所以这里需要
//重新找新的 head,因为新的 head 后面的节点才是激活的节点
p = (t != (t = tail)) ? t : head;
else
// 寻找尾节点(3)
p = (p != t && t != (t = tail)) ? t : q;
}
}
从构造函数知道一开始有个item为null的哨兵节点,并且head和tail都是指向这个节点。
如图首先查找尾节点,
qnull,p就是尾节点,
所以执行p.casNext通过cas设置p的next为新增节点,
这时候pt所以不重新设置尾节点为当前新节点。
由于多线程可以调用offer方法,所以可能两个线程同时执行到了(1)进行cas,
那么只有一个会成功(假如线程1成功了),成功后的链表为:
总结
虽然我个人也经常自嘲,十年之后要去成为外卖专员,但实际上依靠自身的努力,是能够减少三十五岁之后的焦虑的,毕竟好的架构师并不多。
架构师,是我们大部分技术人的职业目标,一名好的架构师来源于机遇(公司)、个人努力(吃得苦、肯钻研)、天分(真的热爱)的三者协作的结果,实践+机遇+努力才能助你成为优秀的架构师。
如果你也想成为一名好的架构师,那或许这份Java成长笔记你需要阅读阅读,希望能够对你的职业发展有所帮助。
[外链图片转存中…(img-rX7vjLjM-1713059348647)]
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Java)
[外链图片转存中…(img-QSrsKam2-1713059348648)]
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!