自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(638)
  • 资源 (5)
  • 收藏
  • 关注

原创 AI学习指南深度学习篇- Adadelta在深度学习中的应用

Adadelta是由Matthew D. Zeiler于2012年提出的一种自适应学习率优化算法。与传统的随机梯度下降(SGD)算法不同,Adadelta不需要手动设置学习率,而是根据过去的梯度信息动态调整学习率,从而使得算法在训练过程中更具自适应性。Adadelta的主要思想是维护一个关于过去梯度的指数加权平均,并基于这个均值来计算每次参数更新的步长。其更新公式如下:Eg2tρEg2t−11−ρgt2Eg2t​ρEg2t−1​1−ρg。

2024-09-24 06:30:00 359

原创 AI学习指南深度学习篇-Adadelta超参数调优与性能优化

在深度学习领域,Adadelta是一种常用的优化算法,它具有自适应学习率和动量的特点,能够在训练过程中自动调整学习率,并且对参数的更新步长做出了合理的调整,使得训练更加稳定和高效。然而,为了获得更好的性能,我们需要对Adadelta的一些关键超参数进行调优,并优化训练过程,以避免过拟合和提高收敛速度。

2024-09-24 06:30:00 256

原创 AI学习指南深度学习篇-Adadelta的数学原理

在介绍Adadelta的具体数学原理之前,有必要简要了解其背景。Adadelta是一种自适应学习率方法,主要目的是为了解决Adagrad算法在训练的后期学习率过小的问题。Adadelta通过对过去的梯度信息进行累积,动态调整每个参数的学习率,进而提升收敛速度。本文深入探讨了Adadelta的数学原理,包括梯度累积项的计算、参数更新的计算以及学习率的计算公式。Adadelta通过结合历史信息,为各个参数自适应地调整学习率,从而克服了Adagrad在训练后期学习率过低的问题。

2024-09-23 06:30:00 1119

原创 AI学习指南深度学习篇-Adadelta算法流程

在深度学习领域,优化算法一直是一个重要的研究方向。在训练深度神经网络时,选择合适的优化算法可以大大提高训练速度和模型性能。Adadelta算法是一种自适应学习率的优化算法,它不需要手动设置学习率,能够在训练过程中自动调整学习率,适应不同参数的变化。

2024-09-23 06:30:00 396

原创 AI学习指南深度学习篇-Adadelta简介

在这篇文章中,我们详细介绍了Adadelta算法的背景、在深度学习中的重要性,以及相对于传统梯度下降法和其他优化算法的优势。Adadelta因其自适应学习率的特点,在各类深度学习任务中表现出色,尤其适用于处理复杂的非线性问题。通过提供的示例,我们展示了如何在Keras框架中实现Adadelta,帮助读者在实际项目中更好地应用这一优化算法。希望本文能够为希望深入理解和应用Adadelta的读者提供有价值的参考和指导。在未来的学习与实践中,掌握多种优化算法并灵活运用,将进一步增强您在深度学习领域的竞争力。

2024-09-22 06:30:00 599

原创 AI学习指南深度学习篇- Adadelta的基本原理

在深度学习中,优化算法的选择对模型的训练效果和收敛速度有着至关重要的影响。Adadelta是一个自适应学习率的优化算法,通过对历史梯度和参数更新的利用,能够有效地调整学习率,从而改善模型的训练效果。本文将详细介绍Adadelta的基本原理,包括梯度累积项、参数更新机制以及学习率自适应的计算方式,并通过示例进行详细说明。

2024-09-22 06:30:00 502

原创 AI学习指南深度学习篇-Adagrad超参数调优与性能优化

Adagrad算法是一种针对不同参数自动调整学习率的优化算法。其核心思想是根据每个参数的更新历史来调整学习率,反而言,以往更新频繁的参数将获得较小的学习率,而更新不频繁的参数则会获得较大的学习率。这种特性使得Adagrad在处理稀疏数据时表现良好。θtθt−1−ηGtϵ⋅gtθt​θt−1​−Gt​ϵ​η​⋅gt​θtθt​:参数在第 ( t )$ 次更新后的值θt−1θt−1​。

2024-09-21 06:30:00 868

原创 AI学习指南深度学习篇-Adagrad的Python实践

Adagrad是一种自适应学习率算法,它通过对每个参数的学习率进行动态调整,使得在训练过程中对梯度较大的参数采取更小的学习率,对梯度较小的参数采取更大的学习率,从而加快收敛速度。具体来说,Adagrad会对每个参数的学习率进行累积平方梯度的平方根,并将其作为该参数的学习率的分母,从而实现自适应调节学习率的效果。本篇博客介绍了Adagrad算法的原理和实现方法,在TensorFlow库中演示了如何使用Adagrad进行模型训练,并提供了详细的代码示例和调参过程。

2024-09-21 06:30:00 243

原创 AI学习指南深度学习篇-Adagrad算法流程

然后,我们定义一个简单的线性模型和相应的损失函数。return np.mean((predictions - y) ** 2) # 均方损失接下来,我们需要定义计算梯度的函数。对于线性回归,损失函数的梯度相对简单。Adagrad作为一种自适应学习率算法,提供了一种有效的方式来处理不同特征在训练过程中的重要性。通过对历史梯度平方的累积,Adagrad能够灵活地调整每个参数的学习率,进而提高模型的训练效率。在实际应用中,Adagrad特别适合处理稀疏特征的数据集,如自然语言处理和图像数据等。

2024-09-20 06:30:00 1143

原创 AI学习指南深度学习篇-Adagrad在深度学习中的应用

通过以上的讨论,我们可以看到Adagrad作为一种自适应学习率算法,在图像分类、语音识别、自然语言处理等深度学习领域都有着重要的应用。通过使用Adagrad优化算法,可以帮助模型更好地学习特征、提高准确率,同时减少过拟合的风险和提高泛化能力。因此,Adagrad在深度学习中的应用具有广泛的前景和潜力,可以帮助研究人员和工程师更好地解决实际的深度学习问题。

2024-09-20 06:30:00 426

原创 AI学习指南深度学习篇-Adagrad的基本原理

深度学习作为人工智能领域的重要分支,已经在各个领域取得了显著成就。在深度学习的模型训练过程中,参数优化是一个关键的环节,而学习率的选择对于训练结果有着至关重要的影响。Adagrad是一种自适应学习率算法,能够根据历史梯度的平方和来动态调整学习率,从而更有效地进行参数更新。

2024-09-19 06:30:00 1427

原创 AI学习指南深度学习篇-Adagrad的数学原理

在深度学习的领域中,优化算法在模型训练过程中扮演着至关重要的角色。随着模型的复杂度增加,选择合适的优化算法变得愈加重要。Adagrad (Adaptive Gradient Algorithm) 是一种自适应学习率的优化算法,它能够根据参数的历史梯度自适应地调整学习率。本文将深入探讨Adagrad的数学原理,包括其计算公式、历史梯度平方的积累机制、以及如何通过这些机制来实现参数的自适应学习率。

2024-09-19 06:30:00 667

原创 AI学习指南深度学习篇-RMSprop的Python实践

RMSprop是一种自适应学习率的优化算法,它根据参数的梯度大小对学习率进行自适应调整。具体来说,RMSprop会维护一个梯度平方的移动平均值,并使用这个平均值来调整每个参数的学习率。这样可以使得在不同参数的梯度大小变化较大时,能够有针对性地调整学习率,从而使得模型能够更快地收敛。本文介绍了RMSprop优化算法的原理和实现方法,演示了如何在Python中使用TensorFlow库进行RMSprop的模型训练。同时,我们还展示了如何通过调参来优化模型的性能。

2024-09-18 06:30:00 420

原创 AI学习指南深度学习篇-Adagrad简介

随着深度学习的快速发展,我们需要解决更加复杂的问题,并训练更深层次的神经网络。在这个过程中,优化算法的选择变得尤为关键。传统的梯度下降算法存在学习率需要手动设定和全局更新的问题,导致对于不同参数的更新存在差异性,很难找到一个适用于所有情况的学习率。Adagrad算法应运而生,通过动态调整学习率,实现对不同参数的自适应更新。Adagrad作为一种自适应学习率的优化算法,在深度学习模型的训练过程中发挥着重要作用。通过动态调整学习率,解决了传统梯度下降算法存在的问题,适用于不同场景下的深度学习任务。

2024-09-18 06:30:00 639

原创 AI学习指南深度学习篇-RMSprop在深度学习中的应用

RMSprop是一种自适应学习率优化算法,该算法能够在训练过程中根据参数更新的历史值调整学习率。与传统的随机梯度下降(SGD)算法不同,RMSprop通过计算每个参数的均方根值来自动调整学习率。CIFAR-10是一个包含60,000张32x32彩色图像的数据集,分为10个类别:飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船和卡车。RMSprop作为一种优良的自适应学习率优化算法,在深度学习的多个领域展现了强大的能力。

2024-09-17 06:30:00 2363

原创 AI学习指南深度学习篇-RMSprop超参数调优与性能优化

RMSprop算法通过自适应调整学习率来解决传统梯度下降法在处理非平稳目标函数时的不足。它会根据过去梯度的平方值来调整当前的学习率,从而避免梯度消失或爆炸的问题。vtβvt−11−βgt2vt​βvt−1​1−βgt2​θtθt−1−ηvtϵgtθt​θt−1​−vt​​ϵη​gt​θ( \theta )θ表示模型参数.gt( g_t )gt​表示当前梯度.vt。

2024-09-17 06:30:00 1037

原创 AI学习指南深度学习篇-RMSprop的数学原理

接下来,我们定义一个简单的线性模型来拟合我们的数据。我们希望通过最小化均方差损失函数来训练模型。# 定义模型参数theta = np.random.randn(3, 1) # 包含a, b, c# 定义损失函数RMSprop优化算法作为一种有效的自适应学习率方法,利用平方梯度的指数加权移动平均来调整每个参数的学习率,从而有效应对不同参数梯度变化的问题。通过上述的示例,我们能够深入理解RMSprop的工作机制及其在实际应用中的效果。

2024-09-16 06:30:00 1234

原创 AI学习指南深度学习篇-RMSprop算法流程

RMSprop算法是由Geoff Hinton在其在线课程中提出的,旨在解决SGD(随机梯度下降)中学习率选择的挑战。它通过对历史梯度的平方进行指数加权移动平均,从而自适应地调整每个参数的学习率。其核心思想是使学习率与参数的梯度大小相关联,从而在训练过程中动态调整学习率。与传统的SGD不同,RMSprop能够有效应对非平稳目标的情况。在训练深度神经网络时,梯度的分布往往是不断变化的,这导致固定的学习率可能在一些情况下过大,而在另一些情况下则过小。因此,使用RMSprop可以改善模型的训练效果和收敛速度。

2024-09-16 06:30:00 1690 1

原创 AI学习指南深度学习篇-RMSprop简介

随着人工智能技术的不断发展,深度学习作为其重要的分支之一,在各个领域都展现出了巨大的潜力。深度学习模型的训练是深度学习算法的核心环节,而优化算法则是训练过程中至关重要的一环。传统的优化算法如随机梯度下降(SGD)在深度学习中效果不佳,因此研究者们提出了一系列优化算法来解决深度学习模型训练过程中的问题。RMSprop是其中的一种优化算法,它是Hinton等人提出的,旨在解决深度学习模型训练过程中的梯度爆炸和梯度消失问题。RMSprop的提出对深度学习算法的发展起到了积极的推动作用。

2024-09-15 06:30:00 419

原创 AI学习指南深度学习篇-RMSprop的基本原理

本文详细介绍了RMSprop算法的基本原理,包括指数加权移动平均、参数更新和学习率调整,并通过示例说明了RMSprop算法是如何根据历史梯度的平方根来调整每个参数的学习率的。RMSprop算法通过维护参数的历史梯度平方的指数加权移动平均来更新参数的学习率,有效地解决了优化过程中学习率难以选择的问题,提高了模型训练的效率和效果。希望本文对读者理解RMSprop算法有所帮助,欢迎大家在实际应用中尝试使用RMSprop算法进行模型优化。

2024-09-15 06:30:00 538

原创 AI学习指南深度学习篇-Adam超参数调优与性能优化

在讨论超参数调优之前,我们首先简要回顾一下Adam优化算法的基本原理。Adam结合了动量(Momentum)和RMSProp的优势,能够在训练过程中自适应调整学习率,以提高收敛速度和稳定性。

2024-09-14 06:30:00 1728

原创 AI学习指南深度学习篇-Adam的Python实践

Adam优化器的核心思想是计算梯度的动量以及梯度的平方动量,并利用这两个动量来调整学习率。初始化参数mt0mt​0(一阶矩估计)vt0vt​0(二阶矩估计)t0( t = 0 )t0(时间步长)β1β2β1​β2​(通常取值为0.9,0.999)ϵϵ(通常取小值以避免除零错误)参数更新tt1t = t + 1tt1mtβ1⋅mt−11−β1⋅gtmt​β1​⋅mt−1​。

2024-09-14 06:30:00 1277

原创 AI学习指南深度学习篇-Adam算法流程

Adam算法是一种基于一阶梯度计算的随机优化算法,它通过计算带有动量和自适应学习率的梯度的指数移动平均来更新模型参数。Adam算法的主要优点在于可以自适应地调节学习率,并且对于不同的参数有不同的学习率,以适应不同参数的特性。Adam算法的核心思想是维护两个一阶矩估计和两个二阶矩估计,分别用来更新参数和调节学习率。初始化参数:初始化模型参数和一阶矩估计、二阶矩估计为0。计算梯度:计算当前参数的梯度。更新参数:根据一阶矩估计、二阶矩估计和学习率更新参数。调节学习率:根据二阶矩估计调节学习率。

2024-09-13 06:30:00 1943

原创 AI学习指南深度学习篇-Adam在深度学习中的应用

看完这些例子后,你是不是觉得Adam真的是个“万能胶”,无论是卷起袖子识别猫狗,还是解读人类的语言,它都能派上用场?当然,每种方法都有其局限性,适当的超参数调整和算法选择对实现最佳性能至关重要。希望本文能帮助你了解如何在不同的深度学习应用中有效使用Adam优化算法。如果你有任何问题或想要更多的实现细节,欢迎在下面评论区留言,或者给我发信息,让我们一起把复杂的技术问题“简单化”!下次见!🚀。

2024-09-13 06:30:00 938

原创 AI学习指南深度学习篇-Adam的基本原理

深度学习是人工智能领域中一个重要的研究方向,而优化算法在深度学习中起着至关重要的作用。本文将重点介绍一种流行的优化算法——Adam(Adaptive Moment Estimation),其结合了动量和自适应学习率的优势,成为了深度学习训练过程中常用的优化算法之一。通过对Adam的深入分析,读者可以更好地理解其原理和应用。在优化过程中,梯度下降法(Gradient Descent)是最常见的优化算法。虽然梯度下降法简单且有效,但在面对大规模数据和复杂模型时,其缺陷逐渐显露。例如,传统的梯度下降法使用固定的学

2024-09-12 06:30:00 1136

原创 AI学习指南深度学习篇-Adam的数学原理

在深度学习中,优化算法起着至关重要的作用。Adam优化算法是一种结合了动量项和自适应学习率的优化算法,被广泛应用于深度学习的训练中。在本文中,我们将深入探讨Adam的数学原理,包括动量项和自适应学习率的计算公式,以及如何根据梯度的矩估计自适应地调整学习率。

2024-09-12 06:30:00 1319

原创 AI学习指南深度学习篇-带动量的随机梯度下降法Python实践

在了解带动量的SGD之前,我们需要先了解普通的SGD。

2024-09-11 06:30:00 799

原创 AI学习指南深度学习篇-自适应矩估计(Adam)简介

在深度学习领域中,优化算法是至关重要的一环。传统的梯度下降算法虽然简单直观,但是在实际应用中往往收敛速度慢,容易陷入局部最优解。为了解决这些问题,研究者们提出了各种优化算法,其中自适应矩估计(Adam)便是其中之一。

2024-09-11 06:30:00 633

原创 AI学习指南深度学习篇-带动量的随机梯度下降法在深度学习中的应用

带动量的随机梯度下降法是基于普通随机梯度下降法(Stochastic Gradient Descent,简称SGD)的优化方法。在SGD中,更新权重时只考虑当前时刻的梯度,由于梯度在不同时间段可能变化很大,因此SGD的更新过程会非常"跳跃",收敛速度较慢。而带动量的SGD通过引入动量(momentum)的概念,可以在一定程度上解决这个问题。具体来说,带动量的SGD在更新权重时考虑了之前的梯度方向,通过给当前梯度添加一个动量项来加速学习过程,使得更新方向更加平滑,同时减少"摆动",加快收敛速度。

2024-09-10 06:30:00 1021

原创 AI学习指南深度学习篇-带动量的随机梯度下降法超参数调优与性能优化

随机梯度下降法将梯度下降应用于训练样本的子集,以加快收敛速度并降低计算成本。而带动量的SGD则通过引入动量项来加速收敛并抑制震荡。动量项能够记录过去梯度下降的累积效应,从而在更新权重时引入历史信息。动量的核心思想是:在更新权重时,不仅考虑当前的梯度信息,还结合过去的梯度信息。

2024-09-10 06:30:00 1084

原创 AI学习指南深度学习篇-带动量的随机梯度下降法的数学原理

在深度学习的优化过程中,随机梯度下降法(SGD)是最常用的一种算法。然而,直接使用SGD可能会面临收敛速度慢、震荡等问题。为了解决这些问题,带动量的随机梯度下降法(Momentum SGD)应运而生。本文将深入探讨动量法的数学原理,包括动量项的计算和作用,以及它如何影响梯度更新的方向和速度,从而避免震荡。

2024-09-09 06:30:00 1814

原创 AI学习指南深度学习篇-带动量的随机梯度下降法算法流程

在深度学习领域中,随机梯度下降(SGD)是一种常用的优化算法,用于更新神经网络中的参数以最小化损失函数。然而,标准的SGD在训练过程中可能会出现震荡的问题,为了解决这个问题,人们引入了带动量的随机梯度下降算法。

2024-09-09 06:30:00 829

原创 AI学习指南深度学习篇-带动量的随机梯度下降法简介

本文深入探讨了带动量的随机梯度下降法(Momentum SGD)的背景、重要性及其相对传统SGD的优势。通过对带动量SGD的更新公式和关键参数进行解析,并结合具体示例,我们看到带动量SGD能够有效改善收敛速度和模型表现。在深度学习实践中,应根据具体问题选择合适的优化算法,带动量的SGD无疑是众多场景下的优秀选择。希望本篇文章能为您在深度学习的旅程中提供一些有价值的指导与参考。

2024-09-08 06:30:00 1005

原创 AI学习指南深度学习篇-带动量的随机梯度下降法的基本原理

动量最初是物理学中的一个概念,用于描述物体的运动。动量法在优化算法中引入了一个“动量”项,帮助在优化过程中加速以及平滑更新。动量可以看作是对过去梯度的“回忆”,这种技术使得优化算法能够在一定程度上克服SGD固有的震荡,并在某些方向上加速前进。动量法是优化算法中一个极其重要的概念,它通过对历史梯度的加权平均来稳定参数更新过程,提高收敛速度。通过引入动量,我们能够在训练过程中减少震荡,快速逃离局部最优,达到更好的收敛效果。

2024-09-08 06:30:00 756

原创 AI学习指南深度学习篇-SGD超参数调优与性能优化

在深度学习领域中,随机梯度下降(Stochastic Gradient Descent, SGD)是一种常用的优化算法,用于训练神经网络模型。通过调整SGD的超参数,如学习率、批量大小等,可以提高模型的性能并减少训练时间。本篇博客将介绍如何调整SGD的超参数以获得更好的性能,并讨论如何优化SGD的训练过程,以避免过拟合和提高收敛速度。

2024-09-07 06:30:00 389

原创 AI学习指南深度学习篇-SGD的Python实践

在深度学习中,我们通常需要最小化损失函数来训练模型。梯度下降是一种常见的优化算法,其基本思想是沿着梯度的反方向更新模型参数,减小损失函数的值。而随机梯度下降是梯度下降的一种改进版本,每次更新参数时只利用一小部分样本数据,从而减少计算量和加速训练过程。本文介绍了SGD优化算法在深度学习中的应用,以及如何使用TensorFlow进行SGD的实现和调参过程。希望对初学者有所帮助,同时也欢迎大家进一步探讨和学习深度学习领域的知识。

2024-09-07 06:30:00 411

原创 AI学习指南深度学习篇-SGD的训练与反向传播

随机梯度下降(Stochastic Gradient Descent,SGD)是一种用于优化机器学习算法的迭代方法。与传统的梯度下降算法不同,SGD在每次迭代中仅使用一个样本的梯度来更新模型参数,而不是使用整个数据集的平均梯度。这使得SGD能够更快地更新参数,适用于大型数据集。

2024-09-06 06:30:00 942

原创 AI学习指南深度学习篇-SGD在深度学习中的应用

随机梯度下降是一种优化算法,用于通过随机选择训练样本来计算梯度,从而更新模型的参数。与传统梯度下降不同,后者在每一步都使用整个训练集来计算梯度,从而使得每次更新都较为稳健,但计算开销巨大。相反,SGD每次只使用一个样本或者一个小批量(mini-batch),这使得每次更新速度更快,且能更好地逃离局部最优解。

2024-09-06 06:30:00 617

原创 AI学习指南深度学习篇-SGD的原理和基本思想

随着人工智能技术的飞速发展,深度学习作为其重要分支,得到了广泛的应用和研究。在深度学习中,优化算法是确保模型训练成功的关键因素之一。其中,随机梯度下降(Stochastic Gradient Descent, SGD)因其在处理大规模数据和高维参数空间方面的优势而备受关注。本文将深入探讨SGD的原理、基本思想及应用案例,帮助读者更好地理解这一技术。

2024-09-05 06:30:00 954

原创 AI学习指南深度学习篇-SGD的变种算法

在深入讨论SGD的变种之前,首先需要了解SGD的基本概念。SGD通过随机抽取样本进行梯度更新,这样的好处在于大幅度减少计算量,使得在线学习成为可能。每次只利用一个样本或一个小批量样本可能会导致更新方向的波动,影响模型的收敛。学习率的设置较为重要,如果学习率过大,可能发生发散;而如果学习率过小,则收敛速度慢。因此,在实际应用中,单一的SGD往往不足以支撑复杂深度学习模型的训练,而需要引入一些变种算法。

2024-09-05 06:30:00 907

chrome-win64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-win32.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-linux64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-mac-arm64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-win64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-mac-arm64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-linux64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-win32.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-win64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-mac-x64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-mac-arm64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-win32.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-linux64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-win32.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-win64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-mac-x64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-linux64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-mac-arm64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-win32.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-mac-x64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-mac-arm64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-linux64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-win32.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-mac-x64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-mac-arm64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-linux64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-win64.zip

chrome-win64

2024-02-24

chromedriver-win64.zip

chromedriver-win64

2024-02-24

CKA-2019年培训视频-分卷03(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,这是03分卷,要三个分卷全部下载了才可以解压

2020-10-21

CKA-2019年培训视频-分卷02(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,这是02分卷,要三个分卷全部下载了才可以解压

2020-10-21

CKA-2019年培训视频-分卷01(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,另外两个分卷也在我的下载里免费的大家下载把。

2020-10-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除