Java 第十一周总结

1. 本周学习总结

1109779-20170506193436914-1762028020.png

2. 书面作业

1.互斥访问与同步访问

完成题集4-4(互斥访问)与4-5(同步访问)

1.1 除了使用synchronized修饰方法实现互斥同步访问,还有什么办法实现互斥同步访问(请出现相关代码)?

  • 可以使用互斥锁 Lock
  • 互斥锁有上锁和解锁两种状态,在同一时刻只能有一个线程掌握某个互斥的锁,拥有上锁状态的线程可以对共享资源进行操作。若其他线程希望对一个已经上了锁的互斥锁上锁,则该线程会被挂起,直到上锁的线程释放掉互斥锁为止。
  • 基本函数

    pthread_mutex_init   ——互斥锁初始化
    pthread_mutex_lock——互斥锁上锁(阻塞版)
    pthread_mutex_trtylock——互斥锁上锁(非阻塞版)
    pthread_mutex_unlock——互斥锁解锁
    pthread_mutex_destory——消除互斥锁。

if(pthread_mutex_init(&work_mutex,NULL)!=0)  /*初始化互斥量*/ 
{ 
    perror(“Mutex init faied”); 
    exit(1); 
} 

if(pthread_mutex_lock(&work_mutex)!=0)  /*对互斥量加锁*/ 
{ 
    preeor(“Lock failed”); 
    exit(1); 
} 
else 
    printf(“main lock\n”); 
if(pthread_mutex_unlock(&work_mutex)!=0) /*对互斥量解锁*/ 
{ 
    preeor(“unlock failed”); 
    exit(1); 
} 
else 
    printf(“main unlock\n”); 

1.2 同步代码块与同步方法有何区别?

  • 同步方法:给一个方法增加synchronized修饰符之后就可以使它成为同步方法,这个方法可以是静态方法和非静态方法,但是不能是抽象类的抽象方法,也不能是接口中的接口方法
  • 同步块会有一个同步的”目标“,使得同步块更加灵活一些(同步块可以通过”目标“决定需要锁定的对象)
  • 一般情况下,如果此”目标“为this,那么同步方法和同步块没有太大的区别

    http://www.cnblogs.com/duanxz/p/3709608.html?utm_source=tuicool&utm_medium=referral

1.3 实现互斥访问的原理是什么?请使用对象锁概念并结合相应的代码块进行说明。当程序执行synchronized同步代码块或者同步方法时,线程的状态是怎么变化的?

  • 当启动线程1调用方法A之后,之后线程1会休眠一会,锁还没释放。
  • 所以线程2要等线程1苏醒之后才能调用方法B
  • 因为同步方法是直接在方法上加锁,范围比较大。

1.4 Java多线程中使用什么关键实字现线程之间的通信,进而实现线程的协同工作?为什么同步访问一般都要放到synchronized方法或者代码块中?

  • 匿名对象,第二个把属于资源的操作,比如加料,输出,放在资源这个类上,车子负责调用就行了。
  • 当两个并发线程访问同一个对象object中的这个synchronized(this)同步代码块时,一个时间内只能有一个线程得到执行。另一个线程必须等待当前线程执行完这个代码块以后才能执行该代码块。
  • 然而,当一个线程访问object的一个synchronized(this)同步代码块时,另一个线程仍然可以访问该object中的非synchronized(this)同步代码块。
  • 尤其关键的是,当一个线程访问object的一个synchronized(this)同步代码块时,其他线程对object中所有其它synchronized(this)同步代码块的访问将被阻塞。

    http://www.cnblogs.com/liuling/archive/2013/04/17/syncnized.html

2.交替执行

2.1实验总结(不管有没有做出来)

  • java虚拟机采用抢占式调度模型,是指优先让可运行池中优先级高的线程占用CPU,如果可运行池中的线程优先级相同,那么就随机选择一个线程,使其占用CPU。处于运行状态的线程会一直运行,直至它不得不放弃CPU

3.互斥访问

3.1 修改TestUnSynchronizedThread.java源代码使其可以同步访问。(关键代码截图,需出现学号)

3.2 进一步使用执行器改进相应代码(关键代码截图,需出现学号)

线程池
使用Thread类创建一个线程来运行任务对单一任务的执行是很方便的,但是由于必须为每一任务创建一个线程,因此对大量的任务而言是不够高效的。线程池是管理并开发执行任务个数的理想方法。java提供Executor接口来执行线程池中的任务,提供ExecutorService接口来管理和控制任务。ExecutorService是Executor的子接口。

4.线程间的合作:生产者消费者问题

4.1 运行MyProducerConsumerTest.java。正常运行结果应该是仓库还剩0个货物。多运行几次,观察结果,并回答:结果正常吗?哪里不正常?为什么?

4.2 使用synchronized, wait, notify解决该问题(关键代码截图,需出现学号)

5.查询资料回答:什么是线程安全?(用自己的话与代码总结,写自己看的懂的作业)

  • 线程安全就是多线程访问时,采用了加锁机制
  • 线程不安全就是不提供数据访问保护,有可能出现多个线程先后更改数据造成所得到的数据是脏数据

选做:实验总结

6.1 4-8(CountDownLatch)实验总结

  • CountDownLatch这个类能够使一个线程等待其他线程完成各自的工作后再执行。例如,应用程序的主线程希望在负责启动框架服务的线程已经启动所有的框架服务之后再执行。
  • ApplicationStartupUtil.java:这个类是一个主启动类,它负责初始化闭锁,然后等待,直到所有服务都被检测完。
  • 接口 Java.util.concurrent.ExecutorService 表述了异步执行的机制,并且可以让任务在后台执行。壹個 ExecutorService 实例因此特别像壹個线程池

6.2 4-9(集合同步问题)实验总结

  • 对于Collections.synchronizedList(new LinkedList()),在返回的列表上进行迭代时,用户必须手工在返回的列表上进行同步:
List list = Collections.synchronizedList(new ArrayList()); 
...
synchronized(list) { Iterator i = list.iterator(); 
    // Must be in synchronized block 
    while (i.hasNext()) foo(i.next()); 
} 

3. 码云上代码提交记录

题目集:多线程(4-4到4-10)

3.1. 码云代码提交记录

1109779-20170507150053429-688304015.jpg

3.2 截图多线程PTA提交列表

1109779-20170507145948695-1199133367.jpg

转载于:https://www.cnblogs.com/ycll/p/6817843.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值