总决赛G5:冠军团队的样子,令人动容

爱学习,勤思考;学数学,玩魔术。欢迎点击头部蓝字关注MatheMagician,这里有你要的奇迹!

640?wx_fmt=jpeg


Where Amazing happens!

 

大大小小众多门类的体育比赛看过这么多,NBA配上这句话,当之无愧!

 

最令我惊讶的是,以下克上,王者归来,双星闪耀,一剑封喉,这些老掉牙的故事,在NBA里,从来都不重样,从来都有惊喜,从来都有新的剧本,你从来都想不到,在简单的场地和规则里,能够发生怎样的奇迹!

 

不怪编剧编不出这样的电影,只怪这就是现场直播的传奇旅程。

 

杜兰特真的回来了!你还叫他软蛋吗?你还叫他抱大腿投敌吗?还好意思对这样一位斗士不敬吗?从出场的动作以及之前的消息就能看出,这绝不是100%的康复,而是真的兵临城下,临危受命,誓死而归。这让我想起了姚明在奥运赛后说,只要我跳起扑上去有机会赢下比赛,哪怕有可能断腿,我都愿意!这让我想起了刘翔,在万众期待中无奈接受万人唾骂;想起了去年G5受伤后就没能上场的保罗。这就是体育的一部分。从职业,商业,专业各个角度,他们有权选择对自己最有利和理性的决定,全都无可厚非。但是,个人意志和那股只有孩子才有的坚持和荣耀,是装不出来的。承受球迷的欢呼,也要承受全部的非议,就像两年前被骂投敌一样,走上赛场,拼尽全力获取胜利,才是最好的回应。


其实杜兰特并不是在回应球迷,只是在回应他自己对篮球的热爱和执着。

 

NBA的故事永远比结果更好看,现场直播,重播,集锦之间完全是不同的体验,当那些转折和你在同步进行的平行世界发生的时候,才如此感动。当杜兰特在对抗中试投不中,却依然保持三分手感的时候,他在这最后时刻用他所有的技术贡献着最后一丝力量,也能看出此时的艰难和绝境。

 

不幸还是发生了。在伊巴卡一次强度不大的防守中,就像早就埋好的定时炸弹一样,杜兰特摸着跟腱部位,再次轰然倒地。依旧面不改色,但眼神里泛着挡不住的失望落寞。他自己比谁都明白这意味着什么。残酷的事还是发生了,该死的伤病!

 

毕竟能在赛前得到消息要上场已是惊喜,命中的那三个三分几乎就是杜兰特留下的最后的财富。这时候,勇士像很多年以前一样,依然保持着深不见底的冷静。不知库里和伊戈达拉扶着杜兰特回更衣室内心有什么波澜,但看起来依旧是冠军底蕴的模样。

 

球迷和对手的表现也很平静,这场球也没有输家。但是竞技体育就是竞技体育,尊重是场下,场上打败你,无论用什么方式,才是体育精神最重要的一部分。这时候格林吃到了第六次技术犯规,隐约想起了3:1领先被翻盘那年这成了输球的转折点。然而不同的是,这次是1:3落后。


勇士依旧顽强,水花兄弟依旧坚定,而猛龙则继续才挥洒着自己的天赋。在这段艰难的时间里,互不相让,勇士守住了杜兰特留下的财富,但是那是咬碎钢牙的拼命啊!稍有不慎,就要战死沙场!

 

加拿大的新英雄站了出来,最后一节,卡哇伊连得10分,面不改色,终场前3分钟,猛龙103-97获得了6分的领先优势。恍如隔世,难道他要像乔丹那样收比赛了吗?一切就这样结束了?如果进展顺利,这也许就是一个新的时代的开端。关键时刻,巨星来收割比赛的模式,卡哇伊用得游刃有余,这表现,媲美乔丹,一场英雄神话眼看就要来临。

 

但我心中忐忑了一下,想起了马刺热火那年,冠军旗帜都拿出来又被雷阿伦的三分给生生投回去。这比赛还有三分钟,还远没有结束。

 

不是负隅顽抗,而是,对于见证奇迹的时刻,这就是最好的时机!

 

时间已经让人窒息了。远远地隔着屏幕,都让人觉得哆嗦,紧张。这得是多么自信和熟练的机器,才能做到面不改色!能做到的都是机器,是机器啊!不是人啊!

 

水花兄弟居然再一次做到了!在格林做轴,库里汤普森无球跑动加挡拆后,就像日常训练那般的感觉下,转身漂移也好,晃过防守再投也行,或者是兜出了熟悉的空位,水花三个三分应是把比分抹平并反超3分,最终保持优势到了终场,以106:105一分险胜,死里逃生。

 

在刚过去的西部半决赛G6里,汤普森也是同样在不投进就有可能命悬一线要淘汰的时刻,像机器一样投中了3分;再远一点对雷霆的西部决赛G6,11记三分的经典再次映入脑海。

 

张指导在比赛中说,你看这巨星不得了就不得了在这关键时刻,那是真厉害。比赛级别,场次,强度不同,能否投篮和投进这件事的含金量真的不一样。人毕竟不是机器,无论情绪,环境还是任何干扰都会使得平常的训练动作变形,变样,使得你做出来的事完全不是平常训练的结果。比如模拟考试和真正只有一次机会的高考的区别,就是这种不同强度的区分;王皓在技战术能力上全面压制柳承敏的情况下,在奥运决赛中被像疯狗咬伤一样打懵;你一个人练习过100次的魔术,也许看到观众那一次,就命中注定的失误了。

 

同样的投篮出手,比赛意义不同,那完全是两回事!


重复地在背后练习,练习,也不能保证上场后真的能完整发挥,这是上帝留给人性的弱点。能克服这一点,除了那点天赋以外。到底是怎样的自信,熟练,和平静,使得,看起来在这球迷看起来都要窒息的时刻,勇士一再像训练一样的方式,平静地命中着属于他们的投篮。这就是底蕴的含义啊,它不光是时间流淌的一般积淀,而是在坚定的训练,热爱,加上一些勤奋,才有可能做到。而且,在做到之前,可能不幸还要很多次成为一些球迷口中的罪人。

 

卡哇伊也曾因2罚1中才给了热火三分决杀的机会,那几个球吉诺比利也一次次丧失了机会,科比也曾在关键战役最后时刻一顿三不沾葬送比赛。但是那些球无论投没投进去,都是最终获得经验的宝贵财富,在那看和是不是做了是不一样的啊。这种无形的财富才是运动员最大的内在价值。也许不是每一次都体现,但是关键时刻,有机会让你真的不会失望,但也仅仅是有希望而已。

 

投篮命中这件事,和世界上最难的事有一样的特点,无论你怎么练习,还是有可能不进。这种无法转化为确定,靠那么些运气和实力的东西,唯有选择一次次去挑战,每一次都当成是进步,才有可能抱憾终身或者成就传奇。

 

未知的未来世界,更迷人,也更残酷。

 

期待接下来,继续颠覆想象的对决。

本公众号现不定期放送数学和魔术相关学习资料,都是作者精心筛选整理后准备给大家的精华内容!现在进入公众号后台:

回复“数学”,获取《数学建模算法与应用》,数模比赛经典教材,司守奎著

回复“魔术”,获取《In Action, Volumn 1》,两次Fism近景纸牌大奖得主Gregory Wilson的经典教学

好了,今天数学魔术师的分享就到这里,希望各位客官喜欢,期待您的转发和赞赏哦!

 

更多精彩内容欢迎扫描下方二维码关注我们,下期再见!

640?wx_fmt=jpeg

我们是谁:

MatheMagician,中文“数学魔术师”,是一个十分冷门的职业,原指用喜欢用数学原理设计魔术的魔术师或数学家。但由于数学太过艰深,变成魔术又表演困难,所以这个领域的专业研究者及其罕见。但其实,魔术设计只是数学建模的一个别致的场景;而魔术本身也蕴含着数学之外的诸如心理学,行为科学等其他广阔的议题。我们文章分享的内容涵盖统计,算法,NLP等前沿的数学及应用领域;也包括魔术思想,流程解析,鉴赏等关于魔术的思考;还有大量直接结合二者设计的数学魔术的分享。如果你对数学或者魔术感兴趣,或者喜欢思考和有内涵的文字,我们的内容一定能成为你学习成长的好伙伴!欢迎在文末或公众号留言与我交流!

推荐阅读:

终结版水与油——致我献给魔术的青春

关于洗牌的研究(七)——从数学到魔术之鸽尾洗牌

记The Faro酒吧交流会

关于洗牌的研究(六)——从数学到魔术之完美洗牌

关于洗牌的研究(五)——从数学到魔术之印度洗牌

关于洗牌的研究(四)——洗牌混乱度计算

关于洗牌的研究(三)——洗牌过程建模

关于洗牌的研究(二)——你的扑克洗乱了吗?

关于洗牌的研究(一)——平常你都是怎么洗牌的?

你喷刘谦的样子,就是你最真实的内心

点击阅读原文,往期精彩不错过!

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 、资源5来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。、 5资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值