愿为双鸿鹄,奋翅起高飞


壮士行,易水寒,铁骨铮铮,正气浩然,喋血秦王阁。

­­­­­­­                                                          ——记13年省赛


                 ACM就如探宝的过程,只有不畏艰险的探索者才有希望找到价值连城的宝物。也许最终宝物也不曾出现,我们仍无须后悔,因为你至少已经体验了探索的乐趣,至少欣赏过路途中无边的风景。而这一切,都是畏难不前者所不能体验到的快乐。

    今年省赛已经告一段落,比赛结束、心中百感交集,成丝成缕的思绪在心中绵延不断,今日只好跃然纸上。首先、感谢学校给我们提供了一个好的学习环境,让我们冬季能温暖的学习、让我们在济南炎热的夏季能凉爽的AC。我去年与ACM喜结良缘、当时学校在选拔大一新生准备13年省赛。我作为新兵蛋子、也跃跃欲试,于是忐忑的来到了学校ACM实验室报名。开门迎接我的是大二师哥LDC,简单和我讲了讲ACM的一些情况和学校取得的一些成绩、然后让我晚上去训练——其实就是学习A+B,于是晚上就去了实验室。晚上我去时有好多师哥师姐、顿时羞涩了许多、、、然后一师哥(后来知道是学校ACM协会老大—XKK)对着大家说:“这就是丙三醇”,(这是我的QQ昵称)。当时我也不知道XKK是怎么认识我的、怎么见到知道我模样知道我叫什么的、、、至今我也不知道。。。。。。然后,我就做到旁边忙活A+B了。只记得那天晚上只学会了HDU的1001题。然后的然后、算是这么上道了。。。

    几周后,协会开始选拔大一新生了。老大XKK制定了游戏规则,在HDU上挂了三套题、说是只有综合排名前三才能参加学校寒假ACM集训,我一听直接激动了,因为当时去的新生很多嘛,所以心想这留下的几率挺小的,要想留下还真得加把劲啊。然后我们就回去准备去了。当时快临近期末了,都在忙活着期末复习了,我因为自己知道、自己想要在大学做点正经事儿,就必须要留下来,还有我个人强大的兴趣(我在初二初三参加过NOIP,其实当时挺帅的^-^,高中迫于高考压力、没在搞,所以现在还是弱菜)。所以当时一有时间就做题、一有时间就做题。整天看排名、看到自己排名在前面才会放心,记得有一天到了半夜。就这样,终于在临近寒假的时候接到老大XKK的电话,说是买好回来的火车票,准备留在学校集训。当时挺高兴的,但不好的是,临近期末由于没复习,也是太自信了,高数裸考、结果挂了。。。。sad、、、

    然后经过了一个寒假的集训————这是WPP写的当时寒假集训的场景:留校的这段日子,有数不清的开心与辛酸,回首走过的风风雨雨,心里跟打翻了五味瓶一样,在这里我成长了不少,也让我对即将来临的学期有些迷茫。。。我忘不了我们挤一张床天天到地上找被子的日子,忘不了天天吃面条啃咸菜的日子,忘不了天天对着电脑码代码的日子,忘不了天天被大神虐的不知东南西北的时刻,忘不了在雪地里等待开锁工的时刻,忘不了316的兄弟姐妹们,316总是充满着大家的笑声,忘不了总爱耍酷的坤哥,还处在幸福当中的成哥和丽姐,还有总是在学习的研姐和鹏弟,鸿超,忘不了经常给大家买饭的浩杰,忘不了丙三醇的“给力啊!”,小磊哥急速的“给力给力给力、、、”,忘不了大一的小伙们奋力刷题的场景,“又是水题一道、、、”的德才兄,忘不了我生病时浩哥的西红柿面”。——————然后的然后、集训就这么结束了,然后3、4、5月份学了些简单的算法、就壮士出征了。

坐了5个多小时的车才到黄岛,到了中石油后,午饭过后就是下午的热身赛。

下午热身赛有三道题,ZYP一看A题就有思路,1A;我和LHC干着急、。。。。。唉,这时才感觉到平日没下狠功夫学习算法,看着大牛们都AK了。。。其实,我看ZYP和LHC都看起来挺着急的、但当时我确实紧张不起来……

    晚上,XKK领着ZYP、LHC还有我去拜神、所谓的神是山东某高校的三个大牛,去认识了认识,感觉大牛就是不一样。还有,某大牛那天晚上还跟我们讲自己瞅着找不到工作,结果第二天夺金——浪潮副总裁直接给发的Offer.太给力了。还有、第二天见到了传说中的“芳姐”。LHC还给芳姐签了个名。

第二天,正式赛开始了,我们分好题,ZYP前三,LHC后四个,我是中间三个,我一看题直接跪了,只看明白一个数论,没算法、干着急,这时ZYP一WA;然后我又看那两题,看到一半,ZYP一A;之前没怎么对ZYP有感觉,这次省赛后对ZYP怀有了深深地崇拜之情,热身赛和正式赛都A题了,太帅了。LHC也很着急,有一题以为水题,1WA,到最后,我看明白了最后一题,也知道是大水题、最后时间也不太够了,我只看到旁边兄弟学校的在笑;肯定笑话我,因为最后5分钟我让LHC敲代码,明知道时间不够了,还在白忙活,人家能不笑么。。还有,第二天的比赛我还是紧张不起来,中午中石油的给发的吃的,我就在那儿吃饭,LHC和ZYP就在那儿做题,我估计他们当时在心里骂了我一万次了。。。。。。

    然后、晚宴后就回学校了。。回学校时已经是晚上12点多了。。。其中有苦有乐有遗憾。。。。。。。。。。。。。。。。。。

    还有、想和队友兄弟说,ACM是一株大地伟岸的树,我明白,一株独秀永远不是挺拔,三人行,才是遮风挡沙的绿色长城。ACM是一叶大海孤高的帆,我明白,一叶孤帆很难远航,三帆竞发才是大海的壮观。ZYP、LHC,我们三个好好做,明年一定要站上领奖台~~~~~~~~记住、一定。虽然我们现在还只是一株稚嫩的幼苗,而只要坚韧不拔,终会成为参天大树;虽然我们现在只是涓涓细流,然而只要锲而不舍,终会拥抱大海;虽然我们现在只是一只雏鹰,然而只要心存高远,跌几个跟头之后,终会占有蓝天;虽然我们今天是弱菜、但我们今日埋头苦干、明天一定会去虐场!

    就我而言,感谢辛勤的教练、感谢师哥师姐们、感谢我的队友、还有感谢MY GF给我精神上的鼓舞。现在起潜心学习、明年要给力!

    ACM不是一篇"文摘",不接受平淡,只收藏精彩。她是一个完整的过程,是一个"连载",无论成功还是失败,她都不会在你背后留有空白;ACM也不是一次彩排,走得不好还可以从头再来,她绝不给你第二次机会,走过去就无法回头。

 

 

 

 

 

 

 

 

 

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值