记者“卧底”程序猿的故事

记者?一般人都会觉得是个前景不错的职业,过去,是有威严得民心,为人们伸张正义的一个存在。如今,即便传统媒体不再似过去那样如日中天,但是有新媒体的崛起,找工作还用愁?可是殊不知当今的融媒体环境并未深入到大学课堂,我们的教材和老师的教学模式依旧是采用多年前的,初步踏入社会时,其实是稍微有所脱轨的。所幸一次偶然的机会,与家里做程序员的哥哥聊起自己的烦恼,这是第一次对程序猿这个职业有了进一步认识,聊天过程中我莫名觉得这个职业有趣,丝毫不像人们口中说的乏味又无趣。互联网是新兴产业,而我所学的新闻学偏向传统媒体已是落日余晖。人的本性都会趋利避害?可是转行哪有容易呢?接下来就说说我如何从记者变身程序员吧!
2015年6月,有头发的小猿,(就是我啦)贵州人,毕业于本地某二本大学,在校期间浑浑噩噩度过,因为经常逃课去打LOL,以致于挂了不少科,可能爱笑的女孩子运气都不会太差吧,我顺利毕业了。毕业前夕仗着自己是省会城市本地人,当室友忙着各种找房子、找工作的时候,我沉浸在LOL的世界里无法自拔,高举上班是不可能的,只有打打游戏才能维持生活的旗帜。时间一天天过去,一个月后的某一天,突然幡然醒悟,我告诉自己,不能再这么浪下去了,一大好青年怎么能像五六十岁的老头老太太一样(我妈说我每天在家像老太太一样)开始“养生”(打游戏)了呢?嗯,立即掏出手机,在网上找工作,第一份工作是汽车销售,我属于外向型的女孩,口才也还过得去(不是自夸,是多位好友发自肺腑的评价),所以销售是我一直都想尝试的工作。人们常说,距离产生美,没做销售之前,以为自己能力吊炸天,从事了才知道自己就一个字,菜!销售是一份考验人综合素质的一份工作,然而我就缺了最重要的一项——人脉资源,所以结果可想而知,去了三个月,未开一单,没有等老板开口(因为我是那公司销售人员为数不多的高学历,再加上是女孩子,所以老板对我极度宽容),我自己就收拾行李灰溜溜撤了。
在这里插入图片描述
人的一生总会经历各种失败,在这方面我还算乐观,于是紧接着开始了我的第三份工作,房地产销售,对!从哪刘跌倒就从哪里爬起来,我胡汉三又回来了!新上班第一天,组长对我进行简单的培训过后,安排了一个工位给我,留下一堆号码,据说有1000个,所以我的工作不言而喻,电话销售!放眼望去,诺达的办公区,将近100人,都在不停打电话,好吧,我也假如你们。第一天,打电话,第二天打电话,第三天还是打电话,因为一直佩戴耳机打电话,耳朵有点受不了,十分不舒服,双眼也由于长期盯着电脑屏幕看,胀痛不已,加上每天都坐着工作,那颗躁动不安的心又开始动摇了,一躁动就停不下来,心动不如行动,于是,我的第二份工作就这样结束了。你以为就这样做了程序员吗?错!第二份工作丢掉之后,恰逢我们这儿的电视台公开招聘,抱着试一试的心态,投了简历,结果入选了,然后过五关斩六将,以为人生从此转运了,谁知道在最后一关时,我竟然睡过头了!没错,睡过头了!因为前一天晚上我玩游戏玩到凌晨三点才睡,而电视台的决战时间是早上8点,我醒来已是8点十几了,所以我的好工作就这样跟我说拜拜了。
在这里插入图片描述
错过错的才能遇上对的人,我的工作也是如此,那段时间在家颓废了一段时间,后来有一天做程序员的哥哥又来到我家,再次跟我说关于程序员的种种,我突然眼前一亮,仿佛看到了希望女神在向我招手。我要学编程,这个念头一直萦绕在我的脑海里,后来跟哥哥说,他说想做就去做吧,反正再怎么也不会像我现在无所事事好。然后编程之路就此开始,在网上报了学习班,每天学习,因为没有工作,又不想给家里面伸手要钱,所以学编程的钱都是借的。

17年的4月,学有所成的我重新开始找工作,大概花了一周时间,找到了一家心仪的互联网公司,一直做到现在。目前无房无车,存款有十多万,没有男朋友,月薪一万三,·有时还加上项目奖金就不止(比较知足的我觉得自己是个小富婆哈哈哈哈),周末单休,通常不加班(别杠,你加班不代表我也要加班!)年底也会有项目分红,至于多少,就不投来了,哈哈哈哈,反正还不错。公司规模中等,主要负责给别人做内部系统,虽然如今已从事两年多,但还是常常与Bug纠缠不清,不过,我却乐在其中,因为我很充实,每天都是有意义的一天。虽然晚点遇见没关系,只要是对的职业,可我还是有点遗憾没早点与你相遇。
正值毕业季,一定会有很多刚出校门的年轻人跟我当初一样迷茫,希望你别气馁,毕竟只有少数幸运的人一开始就明确自己要走的路,大多数人都和你一样。人生最幸福的两件事:有方向,在路上。别放弃,一起到达诗和远方呀!
在这里插入图片描述

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值