告别OA,迎接手游



一、告别OA,回忆往事

2014年9月,我和su(我老大)开发了将近两个月, 完成了流程引擎的第一版,在开发的过程中,su带我一一克服技术的难点。su大概是4月份空降到公司的,是个老程序员嘎,只与相处了几个月,却成为了我不会遗忘的记忆。

我做毕业入职以来,也是在这几个月收获到了很多人,都得不到的东西,su一直给提高自己技术的机会,遇到技术难点时,也会耐心的与我交流。由于某些原因,我提出了离职。

感谢ewing一直以来对我的栽培,让我对公司的环境适应的很快。

感谢su在技术一直对我的提点。谢谢。

还记得离职前,jordan单独找我聊了两次,说可以给我加工资,并且给我一次锻炼的机会,带新人继续完善着个流程引擎,让我与公司一起走下去。我自己也知道,在公司中,我享受的是最好的福利,公司也特意在培养我。但那时我要离开的决心已经收不回了。就算留下来,也很难专心的去完善着个项目,估计做两三天,就没心思上班了。

我或许以后很难遇到像jordan这样的CEO。那时,我是满怀激情去做好这个引擎,可是经常被公司一些事情困扰着,而且每有任何理由去接受了,这让我有点沮丧,为什么就不能给我们充分的时间呢,我当时也不知道这么去沟通,毕竟我上面还有上司,这些我也不能去做决定。不管怎样,对你,有愧疚,有感激。

二、满怀激情,拥抱手游

辞职之后,我和自己沟通过,也和laughing交流过,决定去做手游,这也是我内心的想法。

求职过程

 我在面试JAVA游戏服务器职位的过程中,收到了3份offer,最后我是选择了多娱网络科技。理由有三:

1.这个公司的主城是我在CSDN认识的技术牛,我可以学到高深技术;

2.我去面试,把做的面试题,全部给我细心的讲解了一次,我可以很快的适应公司;

3.我问他去公司上班要带什么资料,他说,带个人,其他什么都不要,我喜欢简单不啰嗦;(像想某些公司,你那
  里毕业的,在什么公司上过班,为什么离职?这些问题,很重要么)

工作了15天

我以入职15天,来的第一天,就给了我一个游戏模块,擦。我都没有做游戏方面的经验,不过,我喜欢这样。

我们的游戏框架,是主程自己写的,看这代码真爽~,虽然,有很多不懂。

目前以做好了那个模块,需要后续完善了。

三、工作展望

我有幸能和自己的偶像一起开发游戏,这是多么有激情的一件事。刚工作的前几天,感觉自己是在梦里,不敢相信,却是
那么真实。

之所以说他是自己的偶像,是因为他有梦想,敢为自己的梦想付诸实际行动,我没做到的事情,他做到了,或许我永远做
不到。

这不重要,总之,

做OA,无怨无悔!

做手游,继续加油!

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值