就想说说心里话 烦

刚开始写博客 抱着每天写一篇文章的自信  觉得能坚持住  没想到才坚持2天  昨天没写.  我写博客是为了自己  因为这样能提升自己对代码的理解 也有可能帮助到别人


 我是培训出来的 上学的时候没有好好上 混日子  只有个中专文凭  当时出来找工作  想找一个体面一点的   于是选择互联网  当时岗位说零基础工作什么的  就去面试了  然后是说要培训  2万多 我试听了半个多月  觉得挺难 (但是我当时觉得这个厉害很挣钱 我要挣钱 让家里过好 我家里是买菜的 ) 于是我决定了就是这个 知道这方面靠脑子 我也知道自己的文凭  但是我不怕  我不在是以前只会玩游戏的人了  我现在很想学东西    跟家里好好商量了一番  他们同意了  说 放心学吧 钱不用担心  如果失败了  就当创业失败 没什么大不了  我很感谢有这样家庭  我开始也很认真学 但是有些真的挺难的  因为上学的时候都没动过脑子  都生锈了吧  跟不上进度  我知道这样就该更加努力  每天我都是12点多睡  现在额头都是痘痘  后来买了面膜才好一点  勤奋总会收货  虽然不是特别厉害  但是还是有进步的 只是觉得进步慢 从前欠下来的太多 (如果有人还在上学 看到这篇文章  真的  好好读书  恋爱没有用) 现在要慢慢补回来  我不怕 知识总共就那么多  只要认真 我觉得肯定学的过来  虽然互联网进步很快  但是有心的话  不需要担心 眼看4个月的培训要结束了  就业老师也来了  因为他们叫我们包装简历  这样才有面试的机会  说不出我自己心里什么滋味 或许现在社会就是这样 不能说不好  但是对有些以前没有好好的 现在悔改了的人  机会太少   我很反感这样  我不想骗人  我是中专  就是中专  而且我的技术自己感觉也不过关 还不到工作的实力   我不想白拿企业钱 心里会愧疚   但是眼看还贷款的期限就要到了  我必须挣钱   虽然家里说过  他们还  但是我相信有骨气的都不会这样  最近为这件事犯愁  反正我也已经想好了  不会骗人 包装简历  该啥样就啥样  你不面试我未来是你的损失  哈哈  (有点吹牛了  但是我的梦想就是要成为很厉害很厉害的大佬 我才19 有的是机会)  我也想好了  如果真的面试不上  我就找别的工作  属于兼职那种类型  我想应该能还上贷款  还有空余时间学习  等我在家里做出2到3个项目  我就带着它们去面试  哈哈  想想都美滋滋.   


祝福我吧  !  

未来  我期待你



最后  送给从事这方面的人一句话  辛苦了  但是也别忘记锻炼身体  身体才是本钱!

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值