自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(654)
  • 资源 (5)
  • 收藏
  • 关注

原创 AI学习指南深度学习篇-权重正则化的基本原理

权重正则化是一种防止模型过拟合的重要技术。通过在损失函数中添加正则化项,限制模型的复杂度,从而提高模型的泛化能力。简单来说,权重正则化就是在训练过程中给模型施加一定的约束,使得模型不会过于复杂,以避免在新数据上表现不佳。JwJoriginalwλRwJwJoriginal​wλRwJw( J(w) )Jw))是添加了正则化项的损失函数。JoriginalwJoriginal​w))是原始的损失函数,通常是均方误差或交叉熵等。Rw。

2024-10-02 06:30:00 427

原创 AI学习指南深度学习篇-L1和L2正则化的数学原理

正则化是一种通过增加额外的信息来防止模型过拟合的方法。过拟合发生在模型在训练数据上表现良好,但在未见过的数据上表现不佳。因此,正则化的目标是让模型在复杂度和拟合能力之间保持平衡。

2024-10-02 06:30:00 866

原创 AI学习指南深度学习篇-批标准化Python实践

批标准化是一种用于加速神经网络训练的技术,它通过规范化每一层的输入,使网络更容易收敛。其基本思路是在训练过程中对每一个批次的数据进行标准化处理,使其均值为0,方差为1。这样可以有效地减轻内部协变量转移(Internal Covariate Shift)的问题。批标准化是一种强大的技术,可以显著提高深度学习模型的训练效率和性能。通过实际的代码示例,我们展示了如何在TensorFlow和PyTorch中实现批标准化,并对调参过程进行了简要介绍。

2024-10-01 06:30:00 1395

原创 AI学习指南深度学习篇-权重正则化(Weight Regularization)简介

权重正则化是一种在训练机器学习模型时加入额外约束的技术,目的是限制模型的复杂性。算法通过在损失函数中增加一个正则化项,使得模型学习的权重(参数)不会过大,从而防止模型对训练数据的噪声进行过度拟合。常见的权重正则化方法主要包括L1正则化、L2正则化以及它们的结合——Elastic Net正则化。本文深入探讨了权重正则化在深度学习中的重要性和相关实现。无论是L1、L2还是Elastic Net正则化,它们都为提高模型的泛化能力和防止过拟合提供了解决方案。

2024-10-01 06:30:00 1343

原创 AI学习指南深度学习篇-批标准化的实现机制

在深度学习领域,网络模型的训练过程通常面临许多挑战,比如梯度消失、收敛速度慢、过拟合等问题。批标准化(Batch Normalization,BN)作为一种有力的技术手段,能够有效缓解这些问题,极大地加速网络的训练过程,提升模型的性能。本文将详细介绍批标准化在深度学习框架中的实现机制,并通过示例代码展示如何在实际项目中加入批标准化层。

2024-09-30 06:30:00 1218

原创 AI学习指南深度学习篇-批标准化在深度学习中的应用

批标准化是深度学习中的一项重要技术,无论是在图像分类、语音识别还是自然语言处理等领域都有着广泛的应用。通过标准化每层的输入,批标准化不仅加快了训练速度,更增强了模型的稳定性。尽管批标准化也存在一些缺点和限制,但对于大多数深度学习任务而言,其优点明显。未来,我们预计批标准化将继续演进,产生更多有效的变体和改进方法,以适应不断发展的深度学习领域。要深入掌握批标准化的应用,建议读者多进行实践,尝试在不同领域和模型结构中应用批标准化,探索其在具体任务中的表现。

2024-09-30 06:30:00 864

原创 AI学习指南深度学习篇-批标准化的基本原理

在深度学习的众多技术中,批标准化(Batch Normalization)是一个极为重要的概念。它不仅解决了深度神经网络训练过程中的一些问题,如梯度消失和收敛速度慢,还提升了模型的整体性能。本文将深入探讨批标准化的基本原理、实现方法及其对深度学习训练效果的影响。通过详尽的示例和分析,我们希望对读者加深对这一技术的理解。

2024-09-29 06:30:00 681

原创 AI学习指南深度学习篇-批标准化的数学原理

在深度学习领域,批标准化(Batch Normalization)是一项重要的技术,它能够提高模型的训练效率和稳定性。本文将深入探讨批标准化的数学原理,分析其计算方式、归一化后的变换、可学习参数的作用,并阐述批标准化如何在数学上帮助网络训练。

2024-09-29 06:30:00 657

原创 AI学习指南深度学习篇-丢弃法Python实践

在深度学习的领域中,丢弃法(Dropout)是一种有效的防止过拟合的随机正则化技术。过拟合是指模型在训练集上表现良好,但在测试集或未见过的数据上表现较差的现象。丢弃法通过随机地“丢弃”一部分神经元节点,使模型在训练过程中不能过于依赖某个特定的特征。本文将详细介绍丢弃法的基本概念、原理,以及在TensorFlow和PyTorch等深度学习库中的具体实现,并通过实际代码示例展示如何调参以优化模型性能。

2024-09-28 06:30:00 1231

原创 AI学习指南深度学习篇-批标准化(Batch Normalization)简介

批标准化是深度学习领域不可或缺的重要技术之一,极大地提高了训练速度和模型性能。它通过标准化中间层的输出,减轻了内部协变量偏移的影响,有效解决了训练过程中常见的问题。从传统的深度网络到现代复杂模型,批标准化为深度学习的快速发展做出了重要贡献。在实际应用中,理解并有效利用批标准化的特性,可以帮助我们构建更高效、准确的深度学习模型。继续深入研究和探索批标准化在其他网络构架中的应用,将进一步推动深度学习的发展与多样性。

2024-09-28 06:30:00 824

原创 AI学习指南深度学习篇-丢弃法的实现机制

本文详细介绍了丢弃法在深度学习中的实现机制,包括训练阶段和测试阶段的处理方式,以及如何在 Keras 等深度学习框架中使用丢弃层。通过示例代码,我们演示了丢弃法对模型性能的影响。这一方法在许多深度学习任务中证明了其有效性,是一种简单且强大的正则化技术。希望本文能帮助您更好地理解和应用丢弃法,从而提高模型的性能和泛化能力。在实际项目中,您可以根据具体的任务需求和数据集特性,调整丢弃率以及模型的结构,以获得最佳的训练效果。

2024-09-27 06:30:00 1210

原创 AI学习指南深度学习篇-丢弃法在深度学习中的应用

丢弃法是在训练深度神经网络时的一种正则化技术。该方法通过随机地“丢弃”一些神经元,使得网络在每次迭代时仅依赖于部分神经元进行学习,从而降低模型对训练数据的过拟合程度。具体而言,每个神经元都有一定的概率(一般为0.5)在训练过程中被“关闭”,而在测试阶段,所有的神经元都会被使用。本文探讨了丢弃法在深度学习领域的多种应用,包括图像分类、语音识别与自然语言处理。通过具体的案例分析,我们可以看到,丢弃法在这些领域中均发挥了重要作用,有效提升了模型的泛化能力。

2024-09-27 06:30:00 816

原创 AI学习指南深度学习篇-丢弃法的基本原理

丢弃法是一种用于避免过拟合的正则化技术,它的原理很简单:在训练过程中,随机将一部分神经网络中的单元的输出置为0,从而减少模型的复杂性,增加模型的泛化能力。通俗来讲,就是在训练过程中随机“丢弃”一些神经元,让模型不依赖某些特定的神经元,从而防止模型过度拟合训练数据。丢弃法是一种有效防止过拟合的正则化技术,通过随机关闭一部分神经元,可以减少模型的复杂性,提高模型的泛化能力。在实际应用中,可以通过在神经网络中添加Dropout层来实现丢弃法。

2024-09-26 06:30:00 655

原创 AI学习指南深度学习篇-丢弃法的数学原理

丢弃法是指在神经网络训练过程中,随机将部分神经元的输出设置为0,通常是以一定的概率p来决定是否丢弃某个神经元的输出。这样可以阻止网络中的某些神经元依赖特定的输入特征,从而减小过拟合的风险。

2024-09-26 06:30:00 318

原创 AI学习指南深度学习篇-Adadelta的Python实践

Adadelta是由Google Research的Matthew D. Zeiler提出的一种自适应学习率的优化算法。它旨在解决传统梯度下降算法中学习率需要手动调整的问题。Adadelta通过动态调整学习率,并利用累积的平方梯度的对角线均值,来自适应地调整模型参数,从而使得训练更加有效。本篇博客介绍了在Python中使用深度学习库(TensorFlow、PyTorch等)演示如何使用Adadelta进行模型训练的过程。

2024-09-25 06:30:00 555

原创 AI学习指南深度学习篇-优化技术丢弃法(Dropout)简介

丢弃法是一种用于防止神经网络过拟合的重要优化技术,在深度学习中得到了广泛的应用。相对于传统的正则化方法,丢弃法有着更多的优势,可以减少过拟合风险、缩短训练时间、提高泛化能力,并且简单易实现。在大规模深度神经网络及其应用领域中,丢弃法是一种非常有效的正则化方法。希望本文对您理解丢弃法在深度学习中的重要性有所帮助,欢迎关注更多深度学习优化技术的相关内容。

2024-09-25 06:30:00 562

原创 AI学习指南深度学习篇- Adadelta在深度学习中的应用

Adadelta是由Matthew D. Zeiler于2012年提出的一种自适应学习率优化算法。与传统的随机梯度下降(SGD)算法不同,Adadelta不需要手动设置学习率,而是根据过去的梯度信息动态调整学习率,从而使得算法在训练过程中更具自适应性。Adadelta的主要思想是维护一个关于过去梯度的指数加权平均,并基于这个均值来计算每次参数更新的步长。其更新公式如下:Eg2tρEg2t−11−ρgt2Eg2t​ρEg2t−1​1−ρg。

2024-09-24 06:30:00 1156

原创 AI学习指南深度学习篇-Adadelta超参数调优与性能优化

在深度学习领域,Adadelta是一种常用的优化算法,它具有自适应学习率和动量的特点,能够在训练过程中自动调整学习率,并且对参数的更新步长做出了合理的调整,使得训练更加稳定和高效。然而,为了获得更好的性能,我们需要对Adadelta的一些关键超参数进行调优,并优化训练过程,以避免过拟合和提高收敛速度。

2024-09-24 06:30:00 660

原创 AI学习指南深度学习篇-Adadelta的数学原理

在介绍Adadelta的具体数学原理之前,有必要简要了解其背景。Adadelta是一种自适应学习率方法,主要目的是为了解决Adagrad算法在训练的后期学习率过小的问题。Adadelta通过对过去的梯度信息进行累积,动态调整每个参数的学习率,进而提升收敛速度。本文深入探讨了Adadelta的数学原理,包括梯度累积项的计算、参数更新的计算以及学习率的计算公式。Adadelta通过结合历史信息,为各个参数自适应地调整学习率,从而克服了Adagrad在训练后期学习率过低的问题。

2024-09-23 06:30:00 1436

原创 AI学习指南深度学习篇-Adadelta算法流程

在深度学习领域,优化算法一直是一个重要的研究方向。在训练深度神经网络时,选择合适的优化算法可以大大提高训练速度和模型性能。Adadelta算法是一种自适应学习率的优化算法,它不需要手动设置学习率,能够在训练过程中自动调整学习率,适应不同参数的变化。

2024-09-23 06:30:00 702

原创 AI学习指南深度学习篇-Adadelta简介

在这篇文章中,我们详细介绍了Adadelta算法的背景、在深度学习中的重要性,以及相对于传统梯度下降法和其他优化算法的优势。Adadelta因其自适应学习率的特点,在各类深度学习任务中表现出色,尤其适用于处理复杂的非线性问题。通过提供的示例,我们展示了如何在Keras框架中实现Adadelta,帮助读者在实际项目中更好地应用这一优化算法。希望本文能够为希望深入理解和应用Adadelta的读者提供有价值的参考和指导。在未来的学习与实践中,掌握多种优化算法并灵活运用,将进一步增强您在深度学习领域的竞争力。

2024-09-22 06:30:00 686

原创 AI学习指南深度学习篇- Adadelta的基本原理

在深度学习中,优化算法的选择对模型的训练效果和收敛速度有着至关重要的影响。Adadelta是一个自适应学习率的优化算法,通过对历史梯度和参数更新的利用,能够有效地调整学习率,从而改善模型的训练效果。本文将详细介绍Adadelta的基本原理,包括梯度累积项、参数更新机制以及学习率自适应的计算方式,并通过示例进行详细说明。

2024-09-22 06:30:00 571

原创 AI学习指南深度学习篇-Adagrad超参数调优与性能优化

Adagrad算法是一种针对不同参数自动调整学习率的优化算法。其核心思想是根据每个参数的更新历史来调整学习率,反而言,以往更新频繁的参数将获得较小的学习率,而更新不频繁的参数则会获得较大的学习率。这种特性使得Adagrad在处理稀疏数据时表现良好。θtθt−1−ηGtϵ⋅gtθt​θt−1​−Gt​ϵ​η​⋅gt​θtθt​:参数在第 ( t )$ 次更新后的值θt−1θt−1​。

2024-09-21 06:30:00 949

原创 AI学习指南深度学习篇-Adagrad的Python实践

Adagrad是一种自适应学习率算法,它通过对每个参数的学习率进行动态调整,使得在训练过程中对梯度较大的参数采取更小的学习率,对梯度较小的参数采取更大的学习率,从而加快收敛速度。具体来说,Adagrad会对每个参数的学习率进行累积平方梯度的平方根,并将其作为该参数的学习率的分母,从而实现自适应调节学习率的效果。本篇博客介绍了Adagrad算法的原理和实现方法,在TensorFlow库中演示了如何使用Adagrad进行模型训练,并提供了详细的代码示例和调参过程。

2024-09-21 06:30:00 260

原创 AI学习指南深度学习篇-Adagrad算法流程

然后,我们定义一个简单的线性模型和相应的损失函数。return np.mean((predictions - y) ** 2) # 均方损失接下来,我们需要定义计算梯度的函数。对于线性回归,损失函数的梯度相对简单。Adagrad作为一种自适应学习率算法,提供了一种有效的方式来处理不同特征在训练过程中的重要性。通过对历史梯度平方的累积,Adagrad能够灵活地调整每个参数的学习率,进而提高模型的训练效率。在实际应用中,Adagrad特别适合处理稀疏特征的数据集,如自然语言处理和图像数据等。

2024-09-20 06:30:00 1164

原创 AI学习指南深度学习篇-Adagrad在深度学习中的应用

通过以上的讨论,我们可以看到Adagrad作为一种自适应学习率算法,在图像分类、语音识别、自然语言处理等深度学习领域都有着重要的应用。通过使用Adagrad优化算法,可以帮助模型更好地学习特征、提高准确率,同时减少过拟合的风险和提高泛化能力。因此,Adagrad在深度学习中的应用具有广泛的前景和潜力,可以帮助研究人员和工程师更好地解决实际的深度学习问题。

2024-09-20 06:30:00 444

原创 AI学习指南深度学习篇-Adagrad的基本原理

深度学习作为人工智能领域的重要分支,已经在各个领域取得了显著成就。在深度学习的模型训练过程中,参数优化是一个关键的环节,而学习率的选择对于训练结果有着至关重要的影响。Adagrad是一种自适应学习率算法,能够根据历史梯度的平方和来动态调整学习率,从而更有效地进行参数更新。

2024-09-19 06:30:00 1488

原创 AI学习指南深度学习篇-Adagrad的数学原理

在深度学习的领域中,优化算法在模型训练过程中扮演着至关重要的角色。随着模型的复杂度增加,选择合适的优化算法变得愈加重要。Adagrad (Adaptive Gradient Algorithm) 是一种自适应学习率的优化算法,它能够根据参数的历史梯度自适应地调整学习率。本文将深入探讨Adagrad的数学原理,包括其计算公式、历史梯度平方的积累机制、以及如何通过这些机制来实现参数的自适应学习率。

2024-09-19 06:30:00 682

原创 AI学习指南深度学习篇-RMSprop的Python实践

RMSprop是一种自适应学习率的优化算法,它根据参数的梯度大小对学习率进行自适应调整。具体来说,RMSprop会维护一个梯度平方的移动平均值,并使用这个平均值来调整每个参数的学习率。这样可以使得在不同参数的梯度大小变化较大时,能够有针对性地调整学习率,从而使得模型能够更快地收敛。本文介绍了RMSprop优化算法的原理和实现方法,演示了如何在Python中使用TensorFlow库进行RMSprop的模型训练。同时,我们还展示了如何通过调参来优化模型的性能。

2024-09-18 06:30:00 432

原创 AI学习指南深度学习篇-Adagrad简介

随着深度学习的快速发展,我们需要解决更加复杂的问题,并训练更深层次的神经网络。在这个过程中,优化算法的选择变得尤为关键。传统的梯度下降算法存在学习率需要手动设定和全局更新的问题,导致对于不同参数的更新存在差异性,很难找到一个适用于所有情况的学习率。Adagrad算法应运而生,通过动态调整学习率,实现对不同参数的自适应更新。Adagrad作为一种自适应学习率的优化算法,在深度学习模型的训练过程中发挥着重要作用。通过动态调整学习率,解决了传统梯度下降算法存在的问题,适用于不同场景下的深度学习任务。

2024-09-18 06:30:00 648

原创 AI学习指南深度学习篇-RMSprop在深度学习中的应用

RMSprop是一种自适应学习率优化算法,该算法能够在训练过程中根据参数更新的历史值调整学习率。与传统的随机梯度下降(SGD)算法不同,RMSprop通过计算每个参数的均方根值来自动调整学习率。CIFAR-10是一个包含60,000张32x32彩色图像的数据集,分为10个类别:飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船和卡车。RMSprop作为一种优良的自适应学习率优化算法,在深度学习的多个领域展现了强大的能力。

2024-09-17 06:30:00 2373

原创 AI学习指南深度学习篇-RMSprop超参数调优与性能优化

RMSprop算法通过自适应调整学习率来解决传统梯度下降法在处理非平稳目标函数时的不足。它会根据过去梯度的平方值来调整当前的学习率,从而避免梯度消失或爆炸的问题。vtβvt−11−βgt2vt​βvt−1​1−βgt2​θtθt−1−ηvtϵgtθt​θt−1​−vt​​ϵη​gt​θ( \theta )θ表示模型参数.gt( g_t )gt​表示当前梯度.vt。

2024-09-17 06:30:00 1048

原创 AI学习指南深度学习篇-RMSprop的数学原理

接下来,我们定义一个简单的线性模型来拟合我们的数据。我们希望通过最小化均方差损失函数来训练模型。# 定义模型参数theta = np.random.randn(3, 1) # 包含a, b, c# 定义损失函数RMSprop优化算法作为一种有效的自适应学习率方法,利用平方梯度的指数加权移动平均来调整每个参数的学习率,从而有效应对不同参数梯度变化的问题。通过上述的示例,我们能够深入理解RMSprop的工作机制及其在实际应用中的效果。

2024-09-16 06:30:00 1243

原创 AI学习指南深度学习篇-RMSprop算法流程

RMSprop算法是由Geoff Hinton在其在线课程中提出的,旨在解决SGD(随机梯度下降)中学习率选择的挑战。它通过对历史梯度的平方进行指数加权移动平均,从而自适应地调整每个参数的学习率。其核心思想是使学习率与参数的梯度大小相关联,从而在训练过程中动态调整学习率。与传统的SGD不同,RMSprop能够有效应对非平稳目标的情况。在训练深度神经网络时,梯度的分布往往是不断变化的,这导致固定的学习率可能在一些情况下过大,而在另一些情况下则过小。因此,使用RMSprop可以改善模型的训练效果和收敛速度。

2024-09-16 06:30:00 1697 1

原创 AI学习指南深度学习篇-RMSprop简介

随着人工智能技术的不断发展,深度学习作为其重要的分支之一,在各个领域都展现出了巨大的潜力。深度学习模型的训练是深度学习算法的核心环节,而优化算法则是训练过程中至关重要的一环。传统的优化算法如随机梯度下降(SGD)在深度学习中效果不佳,因此研究者们提出了一系列优化算法来解决深度学习模型训练过程中的问题。RMSprop是其中的一种优化算法,它是Hinton等人提出的,旨在解决深度学习模型训练过程中的梯度爆炸和梯度消失问题。RMSprop的提出对深度学习算法的发展起到了积极的推动作用。

2024-09-15 06:30:00 423

原创 AI学习指南深度学习篇-RMSprop的基本原理

本文详细介绍了RMSprop算法的基本原理,包括指数加权移动平均、参数更新和学习率调整,并通过示例说明了RMSprop算法是如何根据历史梯度的平方根来调整每个参数的学习率的。RMSprop算法通过维护参数的历史梯度平方的指数加权移动平均来更新参数的学习率,有效地解决了优化过程中学习率难以选择的问题,提高了模型训练的效率和效果。希望本文对读者理解RMSprop算法有所帮助,欢迎大家在实际应用中尝试使用RMSprop算法进行模型优化。

2024-09-15 06:30:00 547

原创 AI学习指南深度学习篇-Adam超参数调优与性能优化

在讨论超参数调优之前,我们首先简要回顾一下Adam优化算法的基本原理。Adam结合了动量(Momentum)和RMSProp的优势,能够在训练过程中自适应调整学习率,以提高收敛速度和稳定性。

2024-09-14 06:30:00 1774

原创 AI学习指南深度学习篇-Adam的Python实践

Adam优化器的核心思想是计算梯度的动量以及梯度的平方动量,并利用这两个动量来调整学习率。初始化参数mt0mt​0(一阶矩估计)vt0vt​0(二阶矩估计)t0( t = 0 )t0(时间步长)β1β2β1​β2​(通常取值为0.9,0.999)ϵϵ(通常取小值以避免除零错误)参数更新tt1t = t + 1tt1mtβ1⋅mt−11−β1⋅gtmt​β1​⋅mt−1​。

2024-09-14 06:30:00 1306

原创 AI学习指南深度学习篇-Adam算法流程

Adam算法是一种基于一阶梯度计算的随机优化算法,它通过计算带有动量和自适应学习率的梯度的指数移动平均来更新模型参数。Adam算法的主要优点在于可以自适应地调节学习率,并且对于不同的参数有不同的学习率,以适应不同参数的特性。Adam算法的核心思想是维护两个一阶矩估计和两个二阶矩估计,分别用来更新参数和调节学习率。初始化参数:初始化模型参数和一阶矩估计、二阶矩估计为0。计算梯度:计算当前参数的梯度。更新参数:根据一阶矩估计、二阶矩估计和学习率更新参数。调节学习率:根据二阶矩估计调节学习率。

2024-09-13 06:30:00 1954

原创 AI学习指南深度学习篇-Adam在深度学习中的应用

看完这些例子后,你是不是觉得Adam真的是个“万能胶”,无论是卷起袖子识别猫狗,还是解读人类的语言,它都能派上用场?当然,每种方法都有其局限性,适当的超参数调整和算法选择对实现最佳性能至关重要。希望本文能帮助你了解如何在不同的深度学习应用中有效使用Adam优化算法。如果你有任何问题或想要更多的实现细节,欢迎在下面评论区留言,或者给我发信息,让我们一起把复杂的技术问题“简单化”!下次见!🚀。

2024-09-13 06:30:00 947

chrome-win64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-win32.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-linux64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-mac-arm64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-win64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-mac-arm64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-linux64.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chromedriver-win32.zip

124版本全平台chrome和chromedriver离线安装包,详细版本号:124.0.6318.0

2024-02-24

chrome-win64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-mac-x64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-mac-arm64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-win32.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-linux64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-win32.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-win64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-mac-x64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-linux64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chromedriver-mac-arm64.zip

123版本全平台chrome和chromedriver离线安装包,详细版本号:123.0.6312.4

2024-02-24

chrome-win32.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-mac-x64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-mac-arm64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-linux64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-win32.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-mac-x64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-mac-arm64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chromedriver-linux64.zip

122版本全平台chrome和chromedriver离线安装包,详细版本号:122.0.6261.69

2024-02-24

chrome-win64.zip

chrome-win64

2024-02-24

chromedriver-win64.zip

chromedriver-win64

2024-02-24

CKA-2019年培训视频-分卷03(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,这是03分卷,要三个分卷全部下载了才可以解压

2020-10-21

CKA-2019年培训视频-分卷02(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,这是02分卷,要三个分卷全部下载了才可以解压

2020-10-21

CKA-2019年培训视频-分卷01(关注后可免费下载)

在淘宝上买的CKA的培训视频。视频里用的k8s版本是1.13的不是最新的1.19,但是知识点都是一样的,没有多大变化。整个视频是2.45G,太大了就用分卷压缩了,另外两个分卷也在我的下载里免费的大家下载把。

2020-10-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除