随便写点

最近做完项目有些空闲时间,想充分利用好每分每秒,但是总是没有一个明确的方向去出发,自己的盲区还是太多太多了,每天只写业务代码,对自己的提升不是很大。也看了很多微信公众号的大牛分享的经验、技术,不知到为什么总感觉还是迷茫,希望这段时间快点度过。

看了很多人的观点都说对一个事物先求其广在求其深,java这块要说广那真是太广了,而且我认为在我对很多东西有认知了之后因为没有项目实践,过段时间还是会忘的,所以在这里我给自己定个规划。以便时刻提醒自己。

0.数据结构,各种集合框架底层,hashmap 1.7&1.8是重点    打算买本书,不知道买哪本-。-

1.多线程相关,包括具体应用场景 以前听某个老师说,多线程这块要是熟练并精通了,就可以在java这横着走了。哈哈

2.java反射这块一定要再看看

3.spring源码,这个后期会跟着写写

先想起来这些,有时间再整理,也会记录下学习每个知识点所用的时间。

 

 

2018.8.15

昨晚和公司高T聊了几句,受益匪浅,拿来和大家分享

1.关于读源码,相信你也有和我一样的迷茫,我该看哪块的源码?hashmap?spring?看到什么程度?看这个源码的目的是什么?看完后到底怎么应用到实际工作中?

大牛给了几句话对我很受用,首先你看这个源码的目的是什么,一点要带着问题去看,不用通篇全读,全读也记不住,记住了过了段时间还是会忘。就hashmap来讲,我们要理解他怎么就线程不安全了,哪段代码会在多线程下出现问题。一定要带着这个问题去读源码。他一定是藏在很深的地方,这个问题解决了,ok可以了不用在看了,都说1.7和1.8的hashmap底层实现方式改变了,好带着这个问题去读1.8的hashmap。这就是说的一定要带着问题去读。看完后我在实际项目中怎么用到呢。代码还是哪些代码,比如我对一个数据量我有个大致的估算,我就可以给hashmap初始化的时候给些参数啊。这就是调优。还有从源码里我们能不能看到作者为什么这么写,他设计hashmap的理念是什么。这个思想/理念能不能应用到实际项目架构中,这是更上一层的层次了。哈哈还给我一个比喻,我最终最终的目的就是拿来抄的。很实在的一句话,但是很发人深省。

关于书的方面,没给太多明确建议,倒是给了几个读书方法,就是不用都看,spring看看ioc,aop及实现原理就可以了。不用太关注那些细节,没那么多精力去看一个那么庞大的spring。。。又来个比喻,我去寄东西,我只要把要寄的东西给快递员就可以了,我不管他是怎么送到的,我只知道给他一定送到。

以上与大家共勉,也希望大家有好的建议可以一起分享

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值