自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

kaggle expert,全球排名前1000,清华计算机研究生,兴趣算法工程

kaggle expert,全球排名前1000,清华计算机研究生,兴趣算法工程

  • 博客(1002)
  • 资源 (4)
  • 收藏
  • 关注

原创 必知必会!常用矩阵求导和重要的矩阵

转自https://blog.csdn.net/a841454735/article/details/88608682,来备份一下,矩阵求导很重要!一、矩阵求导  一般来讲,我们约定,这是分母布局。常见的矩阵求导方式有:向量对向量求导,标量对向量求导,向量对标量求导。1、向量对向量求导2、标量对向量求导3、向量对标量求导其他的可以参考wiki:维基百科矩阵求导公...

2020-04-25 22:18:20 1603

原创 程序员面试——C++工程师面试大全第一部分

1.static 关键字的作用1. 全局静态变量在全局变量前加上关键字 static,全局变量就定义成一个全局静态变量.静态存储区,在整个程序运行期间一直存在.初始化:未经初始化的全局静态变量会被自动初始化为 0(自动对象的值是任意的,除非他 被显式初始化);作用域:全局静态变量在声明他的文件之外是不可见的,准确地说是从定义之处开始,到文件结尾.2. 局部静态变量在局部...

2020-02-24 13:41:40 521

原创 【35分钟掌握金融风控策略9】风控策略部署

在策略评审通过后,需要将策略部署到决策引擎上进行决策,这样才能发挥其作用。策略部署是策略全生命周期管理中的重要一环。

2024-04-21 13:52:34 920

原创 【35分钟掌握金融风控策略7】基于CART模型进行多维度策略开发

贷前授信审批、贷中用信审批、贷中预警、贷后催收等多个风控场景都涉及多维度策略的开发。在开发上述场景多维度策略的时候,通常基于CART 模型进行。为什么基于CART 模型进行多维度策略开发呢?因为CART模型是二叉树,生成的决策树规则简单易懂,方便快速部署到决策引擎上进行风险管控。当然也可以基于如C4.5模型进行多维度策略的开发,但是模型是多叉树,比二叉树更复杂,所以应用没那么广泛。

2024-04-21 13:52:29 788

原创 【35分钟掌握金融风控策略8】策略评审

当策略开发完成后,策略开发人员将策略评审文档和相关分析结果文档以邮件的形式发送给策略评审委员会成员,在策略评审委员查看策略分析内容后,由策略评审委员会秘书处人员询问各位评审委员是否需要组织策略评审会进行策略评审。若需要进行策略评审,那么,在进行策略评审时,由策略开发人员介绍策略调整背景、调整内容、分析思路、分析方法、分析结果、策略上线后的影响、数据源成本变化等内容,策略评审委员在策略开发人员讲解的时候提出问题,策略开发人员对评审委员的疑问进行解答。待策略评审会结束后,秘书处人员撰写并同步会议纪要。

2024-04-20 12:17:28 915 1

原创 【35分钟掌握金融风控策略6】决策树风控策略开发

常见的数据清洗工作是缺失值处理。若缺失的样本较多或者缺失值是关键的特征值,则抛弃有缺失值的样本将造成较多有用信息的浪费,并且最终构建的决策树可能存在较大偏差,在这种情况下,抛弃缺失样本的方法是不可取的。通常的做法是基于业务情况了解产生缺失值的原因,对有缺失值的特征进行插补或者不处理缺失值,直接将有缺失值的样本纳人建模样本集中来构建决策树模型。由于采用贪心算法生成决策树,因此最终得到的决策树往往非常庞大且冗余,很容易在训练样本上产生过拟合,即在训练样本上的准确率非常高,但是在验证样本上的准确率比较差。

2024-04-20 12:17:13 969

原创 【40分钟速成智能风控16】模型训练

optimizer 是指神经网络模型中所运用的各类梯度下降的计算方式,常见的有SGD、RMSprop、Adam等,这些优化器都是在传统SGD的基础上,围绕动量(momentum)和学习率衰减因子(decay)展开,目的是平衡梯度下降的效率和精度,需要根据实际数据来选择和尝试不同的optimizer。其中,训练集是用来训练模型的参数;对于这种超参数不多的情况,可以利用网格搜索(GridSearch)方法,遍历出不同超参数下验证集上的模型效果,选取验证集上效果最优的一组超参数训练模型,并在测试集上测试。

2024-04-15 22:03:43 1142

原创 【40分钟速成智能风控15】特征工程

假设第i个样本为x,第i个样本的第j个特征为x,模型对第i个样本的预测值为yi,模型的基线(通常是所有样本的目标变量的均值)为。对于统计学流派中的逻辑回归,由于没有正则化的处理方式,特征之间的相关性会对模型的稳定性和可解释性造成比较大的影响。特征筛选的最后,还需要业务人员从解释性的角度出发,对筛选后的特征进行最终的确认。这里举两个例子,比如信用模型和反欺诈模型通常会在贷前策略中交叉使用,因而业务人员希望这两个模型的入模变量能够尽量正交,信用模型集中在长期稳定的特征,而反欺诈模型更偏重短期内的变化。

2024-04-15 22:03:38 830

原创 【40分钟速成智能风控13】智能模型数据处理1

在处理海量数据的过程中,不可避免地会遇到“脏数据”的问题,这些“脏数据”不仅会影响线上模型的准确性,更严重的甚至会导致线上服务的报错和停止,因此数据清洗是大数据建模过程中需要进行的第一项工作。对于手机号,除了必须满足“^1[3-9][0-9](9}S”这类规范之外,还需要清洗连续8位相同数字或者12345678这种明显异常的手机号,否则会出现一个手机号对应过多的客户ID的情况,造成下游任务的数据倾斜,以及关联图谱中的异常聚集。因此对于缺失值,我们要先明确数据缺失的原因,再根据不同的情况采取相应的处理方式。

2024-04-14 15:49:06 947

原创 【40分钟速成智能风控14】数据处理和特征工程

保证数据的唯一性也是数据清洗过程中需要关注的问题,过多重复数据会导致存储冗余,并且在表与表关联过程中,可能出现笛卡儿积造成内存溢出。去除重复数据的前提是确定该表对应的唯一主键,基于唯一主键再去做重复值的处理。

2024-04-14 15:49:02 762

原创 【40分钟速成智能风控12】风控指标体系(详细版)

【代码】【40分钟速成智能风控12】风控指标体系(详细版)

2024-04-13 10:27:21 743

原创 【40分钟速成智能风控11】数据测试与应用

智能风控模型的搭建离不开机构内外部的数据源,如何从海量数据源中挑选出最合适的部分进行特征工程和风控建模,是风控人员在实际工作中所面临的问题。线上每个数据源的引入,都需要先通过一套完整的数据测试和应用流程。

2024-04-13 10:27:14 552

原创 【40分钟速成智能风控10】风控大数据体系2

在模型圈内有这么一句俗话,“特征决定了模型的上限,而算法只是逼近这个上限”,由此可见特征工程在风控建模中的重要程度。特征工程的本质是基于原始数据的信息提炼,风控场景中的很多数据源,单独来看可能和风险表现关联性并不强,但是加工成特征后,却会与我们想要预测的目标产生紧密的联系。特征工程的方法有很多,有效的风控特征是建模人员通过历史经验和长期探索积累而来的,也是一家互联网金融公司最核心的数据财富。以下是笔者总结的一些在智能风控模型中常见的特征工程方法。

2024-04-12 20:51:31 1015

原创 【40分钟速成智能风控9】风控大数据体系

基本信息的获取一般也分为两类,事实类和挖掘类。而挖掘类的基本信息,则是基于客户填写的四要素,关联机构内外部数据,通过规则和模型的方式构建完整的客户画像标签,从而指导后续的模型建立。信贷交易信息明细是详版征信报告中最核心的数据,记录了借款人每笔贷款/贷记卡/准贷记卡2年内的还款记录和5年内的逾期记录,还包括截止到查询日的账户状态、五级分类、余额和剩余还款期数、本月应还实还、当前逾期期数和金额、不同逾期阶段的未还本金等,基于这些原始数据,建模人员可以衍生出上百个定制化的特征,构建征信数据模型。

2024-04-12 20:51:25 626

原创 【40分钟速成智能风控8】智能反欺诈模型2

图计算(Graph Computing)是以关联图谱为基础引申出来的一类算法的统称,主要解决了图数据模型的表示和计算问题。图计算是目前比较热门的一个研究方向,比较成熟的应用场景有社区发现、标签传播、图嵌入等。社区发现(Communication Detection)主要用于关联图中社区的划分,与聚类算法的目标类似,我们也希望社区划分后每个社区内部节点联系密切,而社区之间的连接较为稀疏,因而这里定义了模块度的概念。

2024-04-11 00:56:46 898

原创 【40分钟速成智能风控7】智能反欺诈模型

在人工配置规则和模型的过程中,难免会存在一些操作上的失误,有了版本管理功能,就可以快速定位配置中的问题,并且在必要的时候回滚到上个版本的策略,减少线上的损失。风控人员首先通过离线回溯的方式制定几套实验策略,然后通过决策引擎中的“冠军挑战者”模块部署相应的规则和模型,通过观察一段时间内各个实验组的逾期率和核准率,来决定是否替换当前线上的对照组。传统的反欺诈技术主要依赖于案调人员的事后调查和业务专家总结的黑名单库及规则集,对于欺诈案件的发现相对滞后,且召回率低,错过了很多潜在的欺诈风险。

2024-04-11 00:56:41 605

原创 【40分钟速成智能风控6】智能风控体系

决策引擎是媒介,承载了风控人员部署的模型和策略,输出客户的决策结果以及额度利率;评分卡模型的部署相对较为简单,只需要在决策引擎中选择最终人模的标签,同时设置每个标签的分箱及对应的分数,这样对于每一个借款人的申请,决策引擎都可以实时计算出该客户的评分,并且将模型分数作为一条规则。最后想补充说明的是,由于大数据平台的计算链条较长,且充斥着大量的数据处理步骤,在实际生产中平台的监控和预警机制至关重要,例如对于上下游依赖关系的判断、每个时间分区数据量的监控、邮件和短信报警等,都是把控数据准确性和时效性的必要手段。

2024-04-09 23:34:20 1153

原创 【40分钟速成智能风控5】评分卡模型

在评分卡模型中,逾期的定义即为模型学习的目标,不同的逾期定义会导致模型适用的场景发生变化。对于银行来说,通常M3+(历史最大逾期天数超过90天)会被定义为逾期。而对于互联网金融机构来说,由于贷款产品普遍期限较短,客户的逾期表现就会暴醒得更导,因而需要通过滚动率分析(Roll Rate Analysis)找出最适合的逾期定义。滚动率分析通过观察客户在各个贷款状态间的转移概率提前我出稳定的逾期定义。

2024-04-09 23:34:14 924

原创 【40分钟速成智能风控4】传统风险管理体系

随着大数据和机器学习技术的发展与成熟,智能风控已经逐步取代传统风控,成为国内互联网金融机构主流的风险管理模式。一方面,传统风控是智能风控的基础,只有了解了传统风控的方法论,才能帮助大家更好地学习智能风控的相关内容;另一方面,传统的风险管理体系中有许多值得我们借鉴的理念和思想,并且它们在一些特定的风控场景中仍然适用。因此,作为风控领域的从业人员,只有同时掌握了传统风控和智能风控两方面的知识,才能够因地制宜,面对不同的问题制定最合适的解决方案。

2024-04-08 22:02:30 979 1

原创 【40分钟速成智能风控3】互联网金融风控重要性

息费敏感性测试,是指机构在线上配置多个实验组,不同的实验组给予不同的额度,利用线上的实际表现搜集客户关于额度的使用率、逾期表现等数据,再将这些实际数据纳入利润公式中,找出最优额度。因此,机构的整体利润会随着额度的增加先增大再减小,如何找到额度的最优解,是风控人员需要解决的实际问题。这种方法拟合额度关于使用率、逾期表现等变量的曲线,以模型的方式进行预测,给出初始的授信额度,然后在模型上线后,实时调整使用率和逾期表现的拟合曲线,使得线上额度的分配逐步接近最优方案。,这对于平台来说是一种更大的损失。

2024-04-08 22:02:16 920

原创 【40分钟速成智能风控2】互联网金融信用风险

同时对于借款人来说,循环额度类的贷款即需即用,随借随还,给客户提供了更好的产品体验,客户完全可以根据自己目前的资金现状选择支用和还款的时间节点,减少不必要的账期带来的贷款利息,符合国家普惠金融的大方向,也是目前市面上大多数消费贷款的产品模式。相较于申请评分卡有是否逾期这一明确的目标定义,客户价值的高低在不同平台的定义各不相同,有些平台考虑客户的收入,有些平台则会考虑客户带来的利润,因而价值模型的目标可以根据平台的实际业务需求来制定。其次,作为风险管理的一部分,风控能力自然是影响白名单制定的重要因素。

2024-04-07 22:24:03 1041

原创 【40分钟速成智能风控1】互联网金融风险管理简介

互联网金融是传统金融业务与新兴互联网技术结合的一个交叉领域,例如互联网公司开展的金融业务,或者金融机构的线上化服务,都属于互联网金融的范畴。与传统金融行业的线下模式相比,互联网金融以网络和通信技术为载体,受众群体更广,辐射场景更多,服务效率更高,符合“普惠金融”的核心理念。然而在互联网金融业务的开展过程中,由于机构人员与客户并没有实际接触,因此金融风险无处不在。在此背景下,依托于大数据和机器学习的智能风控与反欺诈技术应运而生,为互联网金融行业的健康发展锦上添花。

2024-04-07 22:23:46 1052 1

原创 【35分钟掌握金融风控策略5】风控策略开发1

在策略开发过程中,所有的风控场景都涉及单维度策略的开发。需要指出的是,在做单维度策略开发时,很多人会忽略策略泛化环节,其实这是不对的,因为策略测算效果好,不见得泛化效果会好,而泛化效果不好,说明策略效果是不稳定的,不适合上线做决策,若不做策略泛化就进行策略上线,则可能带来不符合预期的结果。需要注意的是,在实际生产中,风控策略开发涉及的场景多种多样,若项目处于冷启动阶段,那么,因没有足够的样本积累,将无法采用量化分析的方法进行策略的分析和挖掘,往往基于专家经验采用定性分析的方法构建冷启动策略。

2024-04-06 19:19:40 1392

原创 【35分钟掌握金融风控策略4】场景概述4

贷中是风控的第二道防线,主要包括客户风险管理和客户运营两部分内容,两部分内容相互穿插,相辅相成。相对来讲,贷中更侧重对存量客群的运营。随着贷前获客成本越来越高,通过对存量客户的运营以提高存量客户黏性和提升存量客户价值显得越来越重要。相比贷前和贷后,贷中客户风险管理部分涉及的风控场景要更多和更复杂,因为贷中不仅要对客户进行风险管控,还要通过提升存量客户的价值和黏性进而创造更多的利润。

2024-04-06 19:19:22 953

原创 【35分钟掌握金融风控策略3】场景概述3

贷前是风控的第一道防线,侧重对进件客户的资质(信用风险和欺诈风险)审核。贷前主要有预授信、授信审批、定额、定价、人工审核等风控场景,不同风控场景及对应的重点]作内容如下所述。

2024-04-05 00:43:44 790

原创 【35分钟掌握金融风控策略2】场景概述2

策略的开发、部署、监控和调优构成策略全生命周期管理的闭环。在整个风控过程中,基于不同的风控场景,需要设计不同的风控策略,常见的有授信审批策略、定额定价策略、调额调价策略、催收策略等,但是,无论是什么类型的策略,策略的全生命周期管理都是一样的。策略开发业务理解确定数据来源样本与目标确认策略开发与评审策略部署提交策略部署需求策略部署策略部暑准确性验证策略监控​​​​​​​具体规则风险表现策略整体风险表现策略调优​​​​​​​基于策略监控结果进行调优。

2024-04-05 00:43:38 949

原创 【10分钟掌握深度学习17】模型压缩及移动端部署2

增多3*3的卷积的分支的数量,使它与1*1的卷积的输出通道数相等,此时每个3*3的卷积只作用与一个通道的特征图上,作者称之为“极致的Inception(Extream Inception)”模块,这就是Xception的基本模块。即采用先压缩,后扩张的方式。MobileNet采用DW conv提取特征,由于DW conv本身提取的特征数就少,再经过传统residuals block进行“压缩”,此时提取的特征数会更少,因此inverted residuals对其进行“扩张”,保证网络可以提取更多的特征。

2024-04-04 00:53:38 1047

原创 【35分钟掌握金融风控策略1】场景概述1

风控策略是指策略开发人员基于风控政策、业务场景、风控抓手,针对目标客群,通过一系列规则的设计、组合和应用,对客户进行筛选、分类、评估、处置,在尽可能实现业务增长的前提下控制风险、平衡损失、提升效率,最终达到利润最大化的目的。在实际工作中,有些人觉得风控策略的最终目标是降低风险,其实这是不正确的。风控策略的最终目标是平衡损失和收益的关系,从而实现利润最大化。

2024-04-04 00:53:14 1130

原创 深度学习coursera——改善深层神经网络:超参数调试、正则化以及优化1

关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二者,我们总是分别考虑偏差和方差,却很少谈及偏差和方差的权衡问题,下 面我们来一探究竟。在两者之间,可能还有一些像图中这样的,复杂程度适中,数据拟合适度的分类器,这个数据拟合看起来更加合理,我们称之为“适度拟合”(just right)是介于过度拟合和欠拟合中间的一类。

2024-04-03 01:53:18 655

原创 深度学习coursera——神经网络的编程基础2

梯度下降法可以做什么?在你测试集上,通过最小化代价函数( 成本函数) J(w, b)来训练的参数w和b,如图,在第二行给出和之前一样的逻辑回归算法的代价函数(成本函数)梯度下降法的形象化说明在这个图中,横轴表示你的空间参数w和b,在实践中,w可以是更高的维度,但是为了更好地绘图,我们定义w和b,都是单一实数,代价函数(成本函数) J(w, b)是在水平轴w和b上的曲面,因此曲面的高度就是J(w,b)在某一-点的函数值。

2024-04-03 01:53:15 725

原创 【10分钟掌握深度学习14】超参数调整2

​ 微调(fine-tune),顾名思义指稍微调整参数即可得到优秀的性能,是迁移学习的一种实现方式。微调和从头训练(train from scratch)的本质区别在于模型参数的初始化,train from scratch通常指对网络各类参数进行随机初始化(当然随机初始化也存在一定技巧),随机初始化模型通常不具有任何预测能力,通常需要大量的数据或者特定域的数据进行从零开始的训练,这样需要训练到优秀的模型通常是稍困难的。

2024-04-02 21:21:51 642

原创 【10分钟掌握深度学习17】模型压缩及移动端部署1

一个复杂的模型可以认为是由多个简单模型或者强约束条件训练而来,具有很好的性能,但是参数量很大,计算效率低,而小模型计算效率高,但是其性能较差。在训练过程中,对权重的更新进行诱导,使其更加稀疏,对于稀疏矩阵,可以使用更加紧致的存储方式,如CSC,但是使用稀疏矩阵操作在硬件平台上运算效率不高,容易受到带宽的影响,因此加速并不明显。结构复杂的网络具有非常好的性能,其参数也存在冗余,因此对于已训练好的模型网络,可以寻找一种有效的评判手段,将不重要的connection或者filter进行裁剪来减少模型的冗余。

2024-04-02 21:21:45 1284

原创 【10分钟掌握深度学习14】超参数调整1

关于训练深度学习模型最难的事情之一是你要处理的参数的数量。无论是从网络本身的层宽(宽度)、层数(深度)、连接方式,还是损失函数的超参数设计和调试,亦或者是学习率、批样本数量、优化器参数等等。这些大量的参数都会有网络模型最终的有效容限直接或者间接的影响。面对如此众多的参数,如果我们要一一对其优化调整,所需的无论是时间、资源都是不切实际。结果证实一些超参数比其它的更为重要,因此认识各个超参数的作用和其可能会造成的影响是深度学习训练中必不可少的一项重要技能。

2024-04-01 21:29:09 870

原创 【10分钟掌握深度学习13】优化算法7

随机梯度下降,简称SGD,是指梯度下降算法在训练集上,对每一个训练数据都计算误差并更新模型。对每一个数据都进行模型更新意味着随机梯度下降是一种在线机器学习算法。频繁的更新可以给我们一个模型表现和效率提升的即时反馈。这可能是最容易理解和实现的一种方式,尤其对于初学者。较高的模型更新频率在一些问题上可以快速的学习。这种伴有噪声的更新方式能让模型避免局部最优(比如过早收敛)。这种方式相比其他来说,计算消耗更大,在大数据集上花费的训练时间更多。

2024-04-01 21:29:02 732

原创 【10分钟掌握深度学习13】优化算法5

所以要给这些概念命名一下,这不是广泛使用的术语,但我觉得这么说思考起来比较流畅。就是把这个差值,贝叶斯错误率或者对贝叶斯错误率的估计和训练错误率之间的差值称为可避免偏差,你可能希望一直提高训练集表现,直到你接近贝叶斯错误率,但实际上你也不希望做到比贝叶斯错误率更好,这理论上是不可能超过贝叶斯错误率的,除非过拟合。而这个训练错误率和开发错误率之前的差值,就大概说明你的算法在方差问题上还有多少改善空间。可避免偏差这个词说明了有一些别的偏差,或者错误率有个无法超越的最低水平,那就是说如果贝叶斯错误率是。

2024-03-31 13:10:58 882

原创 【10分钟掌握深度学习13】优化算法6

  你们学过正交化,如何设立开发集和测试集,用人类水平错误率来估计贝叶斯错误率以及如何估计可避免偏差和方差。我们现在把它们全部组合起来写成一套指导方针,如何提高学习算法性能的指导方针。  首先,你的算法对训练集的拟合很好,这可以看成是你能做到可避免偏差很低。还有第二件事你可以做好的是,在训练集中做得很好,然后推广到开发集和测试集也很好,这就是说方差不是太大。总结一下前几段视频我们见到的步骤,如果你想提升机器学习系统的性能,我建议你们看看训练错误率和贝叶斯错误率估计值之间的距离,让你知道可避免偏差有多大。

2024-03-31 13:10:52 744

原创 【10分钟掌握深度学习13】优化算法3

从深层网络角度来讲,不同的层学习的速度差异很大,表现为网络中靠近输出的层学习的 情况很好,靠近输入的层学习的很慢,有时甚至训练了很久,前几层的权值和刚开始随机初始 化的值差不多。(2)增强对特征和特征值之间的理解。事实上,就是残差网络的出现导致了Imagenet比赛的终结,自从残差提出后,几乎所有的深度网络都离不开残差的身影,相比较之前的几层,几十层的深度网络,在残差网络面前都不值一提,残差可以很轻松的构建几百层,一千多层的网络而不用担心梯度消失过快的问题,原因就在于残差的捷径(shortcut)部分。

2024-03-30 00:12:54 795

原创 【10分钟掌握深度学习13】优化算法4

我的意思是这样,你们要记住,我想就是设立你的开发集加上一个单实数评估指标,这就是像是定下目标,然后告诉你的团队,那就是你要瞄准的靶心,因为你一旦建立了这样的开发集和指标,团队就可以快速迭代,尝试不同的想法,跑实验,可以很快地使用开发集和指标去评估不同分类器,然后尝试选出最好的那个。所以,针对开发集上的指标优化。无论你是调整超参数,或者是尝试不同的学习算法,或者在搭建机器学习系统时尝试不同手段,你会发现,如果你有一个单实数评估指标,你的进展会快得多,它可以快速告诉你,新尝试的手段比之前的手段好还是差。

2024-03-30 00:12:47 1319

原创 【10分钟掌握深度学习13】优化算法1

CPU 除了负责浮点整形运算外,还有很多其他的指令集的负载,比如像多媒体解码,硬 件解码等,所以 CPU 是个多才多艺的东西,而 GPU 基本上就是只做浮点运算的,也正是因为 只做浮点运算,所以设计结构简单,也就可以做的更快。另外显卡的 GPU 和单纯为了跑浮点 高性能运算的 GPU 还是不太一样,显卡的 GPU 还要考虑配合图形输出显示等方面,而有些专 用 GPU 设备,就是一个 PCI 卡上面有一个性能很强的浮点运算 GPU,没有显示输出的,这样 的 GPU 就是为了加快某些程序的浮点计算能力。

2024-03-29 00:37:11 947

原创 【10分钟掌握深度学习13】优化算法2

这样,不仅可以从 batch training 变成 online training 方法,而且每次是按照单点的最优方向而不是整体的最优方向前进,从而相当于在朝目标前进的路上多拐了好多弯,有可能逃出局部最优。神经网络的训练中,通过改变神经元的权重,使网络的输出值尽可能逼近标签以降低误差 值,训练普遍使用 BP 算法,核心思想是,计算出输出与标签间的损失函数值,然后计算其相 对于每个神经元的梯度,进行权值的迭代。这样,也不再是按照标准路线前进,每次的步骤都容易受到上一次的影响,从而可能会逃 出局部最优。

2024-03-29 00:37:04 1006

Spark入门.docx

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

2020-04-02

人手一份核武器 - Hacking Team 泄露(开源)资料导览手册 _ WooYun知识库.pdf

事先声明本人并不是全栈安全工程师,仅仅是移动安全小菜一枚,所以对泄漏资料的分析难免会有疏忽或着错误,望各位围观的大侠手下留情。 首先来看安全界两大元老对Hacking Team(以下简称HT)被黑这个事件的看法: @tombkeeper: Stuxnet 让公众知道:“原来真有这种事”,Snowden 让公众知道:“原来这种事这么多”,Hacking Team 让公众知道:“原来这种事都正经当买卖干了”

2020-03-27

程序设计实践中文版

2016-10-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除