<感悟帖>互联网与电子传统行业之经历

  根据鄙人浅显的实习、毕业工作经验以及个人思考得此文。

  鄙人有幸在BAT中的B实习,以及某电子行业科研机构工作,略有心得,总结如下,也算是对自己的一个交待和反省。

  鄙人小硕毕业211学校非985,CS类专业,现被列为IT十大名校的某高校,从某高考重省杀出,又回到该省。此为背景。

  在读本研究生期间,一度以为自己不是写代码的料,怎奈,遇到互联网大潮,成为了风口的猪,学的不上不下,突击能力尚可,小试牛刀,便获得B公司的实习机会,一脚踏进技术的大道,从此再无回头之路,倘或彼时,走技术路线备受打击也许后面就会改变方向,所以,塞翁失马焉知非福。

  在B的不长的日子里,让我体会了很多,有些当时觉得理所当然的东西,现在看来难能可贵。比如内网wiki,比如组长的确是为大家服务的,比如组会是高效简洁的,比如平等、自由、开放、共享、互助的互联网精神,比如版本控制,比如灵活的年假,比如拼搏的精神,比如年轻和活力,比如时常有的分享会,比如google可以随便上的,全楼是有wifi的,打印是可漫游的。我在不长的日子里,经历了一次组内build,一次工会build,三次组内build,两次师徒build,团队的氛围很好,遇到问题,总能获得很多的帮助,虽然要求很高压力很大但是都能达到。

  后来,B公司虽然给了offer,但是由于家庭的缘由,未能成行,一度非常遗憾,失落。尤其是到某所之后,落差更大,首先是管理上其实是技术上最后是工资上的,年轻人有时对钱看的不太重,尤其是起薪,更在乎的是以后发展的可能性,比钱少更可怕的是看不到未来,或者已经看到了不想成为的未来。在传统电子行业,重硬件而轻软,而现在是拼软件的时代,然而研发软件力量不足且技术落后,一方面有设备的制约,集群化没有或不成规模,没有可用的服务器。另一方面开发人员少,单打独斗,形不成团队的力量,对个人能力的要求较高,但普遍专业化程度不足。此类传统闭塞的传统电子行业,还在靠关系和人脉吃饭,这也跟做的产品有关,而像互联网看齐的企业,已经在靠广大的群众,用O2O的模式吃饭。对我个人来说,最明显的是工资少了很多,其次是无人交流,唯一可以交流的前辈,为官而远,再次是直接领导气势压人,而不像是个管理者,团队气氛窒息。也知道很多道理,看过很多书,但是一些事情到了自己身上,就不是说说那么简单了,首先,自己的心态要端正。其次,要放低姿态,接受自己,确实对这个行业不懂,软件搞的不行,鸡头比凤尾要难做。最后,不管怎样,要有技能生存,然后再谈理想。传统行业,在当前之势下,互联网化在所难免,否则也会被逼转型,任何行业,不是短期就可以掌握的,需潜心方能进入。

  此落差影响了我一年有余,在不断的对工作、人生和感情的反思中,我渐渐释然,可以重新规划自己的路线,意志被强奸的味道,让别人替自己思考的味道,此生之痛,再不想有,愿早日成熟,有能力不做自己不想做的事,而做自己喜欢的事。

  行业要慎选,选择一个高速发展的行业,远比选择一个小富即安的行业要有更多的机会和可能。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值