我的算(菜)法(鸡)之路

我的算(菜)法(鸡)之路

今天是1024程序员节,单纯的为了写博客而写。。。

走上算法这条路,起初是因为一个很有人格魅力的学长 wmh ,真的,不当程序员的话,学长去搞销售绝对是李佳琦二号。口才好,逻辑清晰,聪明,而且还特别温柔有耐心(与我同届的形成鲜明的对比,看最后面),简直有光环。

学长说,出去比赛的话,学校出钱免费出去旅游,坐飞机,住豪华大宾馆。。。年薪xx万,走向人生巅峰。当时,我就激动了,居然有这等好事(垂涎三尺)?

在这强大的诱惑下,我大一整个暑假都没回家(谁能想到,此后几年就再没有暑假了),就这么熬下来,进队了。

然而,现实是。。。

周五下午赶火车,晚上很晚到,找个地方吃个夜宵洗洗睡

周六睡一上午,下午打个模拟赛

周日起个大早去比赛,打完比赛,参加完颁奖,然后又得赶火车,大晚上到学校

说好的旅游呢?

湘潭的时候,还挺搞笑的

去湘潭第一次坐绿皮火车,最开始是兴奋,然后是真慢……,好久啊,腰都坐废了,头晕,难闻。

香烟、瓜子、矿泉水要吗?听了无数遍,都要背出来了[摊手]。

周五晚上碰上湘大的美食节,抽奖送免费拍一套价值上千元的真集,现场乌泱泱人挤人的广场,我居然中奖了!!!

我的天,人生第一次当锦鲤,然而,然而,我周日就走,根本没时间去拍,无奈找了个路人送出去了,还找了半天,都当我是骗子,无语子。。。

在湘潭还碰到了华东交大的高中同学,他乡遇故知,挺好。

厦门的时候,最深刻的印象是比赛很煎熬

来比赛是我第二次来厦门,不过第一次旅游是在岛内,比赛是在岛外。

他们想去看海,沿着鹭江道骑了很久没找到好的风景,总是有树遮挡,然后差点就骑上演武大桥了(风景比较好的地方),被保安大叔拦下来了,我们聊天说要不去厦大吧,被大叔听见了,好心提醒说,去厦大要预约,现在进不去。然后随便找了家店吃了午饭,匆匆赶回去打下午的模拟赛。进岛和出岛坐地铁花了两小时,起的又不够早,没什么体验感。但是,厦门的地铁其实风景很好了,架在桥上,海景还不错。晚上他俩说去岛内中山路逛逛,我没同意,因为地铁上花的时间太长,怕影响第二天的比赛。然后就去了附近的大学城,买了点特色产品。记得大学城一楼有家卖饼的,两种口味,甜的和咸的,挺好吃。回去的时候还带了两盒给室友一起分享,真不错。

然后就是本地的比赛了

南昌大学的省赛第一次摸到牌,遗憾,差一点点拿银

这里就要详说了,一辈子也忘不了。wnp 这位选手,估计是上天派来演我的,某道题本来是他开的,然后写不下去了,我接手做出来了,一直WA,找了好久好久好久bug,一直找不到,我也瞎。我们还WA了8发的罚时,我的天!!!你敢相信,我接手他的代码,思路代码全都写对了,居然是输出的时候大小写的"yes" “no” 的错误,都是CF打多了,习惯了大写。耽误了一个多小时,再加上罚时,哦,我哭了。出来我就说要打死他,他还活着,我真是理智呢。

巧了,同场的一队拿了冠军,真实令人羡慕嫉妒恨呢。

师大去了两次,唯一去过的icpc

汉堡好好吃,师大的饭好好吃,志愿者小姐姐真漂亮。卫衣质量真的好,现在还在穿。

最后,无力吐槽同行的(死)队(直)友(男)们,我带了个行李箱,没指望帮我拎,还嫌我麻烦,嫌我走路慢,我推着大箱子能有你们走路快吗?一群大男人在前面又说又笑,腿长了不起吗?厚厚的字典、模板、资料放我箱子里的时候怎么不嫌麻烦???有骨气别放我这,自己抱着走,哼!

以上的吐槽不包括一队的学长,学长人很好,我就纳闷了,怎么同级的就这么差劲呢?大小年吗?我运气这么差?[笑哭]

好了,其实也没那么讨厌了,见多了奇葩,也不会那么讨厌队友们,他们缺少社会的毒打,除了某一位情商稍高的,都没有女朋友,长这么大也不容易。程序员这职业仿佛为他们几个设计的,真合适。

感谢你们看到这里[比心]。就想到这么多了,之后想到了再补。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计资源消耗大等。研究人员正在不断探索新的方来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值