G1D15-fraud-APT-汇报-基础模型与LR相关内容总结-KG-cs224w colab1-ctf rce41-44

9 篇文章 0 订阅

一、fraud

跑了一个lr模型,从正则,一直看到了极大似然和最大后验估计emmm。一路跑偏,已经0954了。先把实验结果抄一抄

本来想把模型都跑完,没想到看R补充了大量的基本知识(L1\L2正则、先验概率

今天先来看fraud
看的时候,要知道原来模型的大体内容,效果,改进空间。

下午场开始啦~1351。
再花一个小时总结一下APT论文,然后和老师汇报。

二、APT

完美用了一个小时看完、总结完了paper,并push了一下老师。休息了一下,打算再看看上午学的内容。

最近开始用markdown了,感觉还蛮爽的!
呜呜呜,刚刚看csdn私信,发现被夸了,好开心啊!!!

三、基础模型与LR相关内容总结(上午内容)

(一)正则化方法

1、L1,L2

正则化,约束了解空间。
L1正则化用参数绝对值约束,看起来像是个有棱角的方形。不易求导,更容易为0,更加稀疏,很多参数最后为0。
L2正则化用参数欧氏距离约束,是圆形约束。

在这里插入图片描述
在这里插入图片描述

(二)极大似然估计

这是一个谜一样的存在,当时再看《统计学习方法》的时候就因为这个一度放弃,今天终于可以弄明白一点了!!

1、似然函数

所谓似然函数,其实就是我们熟悉的概率函数P(X|θ)的另一种解读方法。
(1)如果模型参数θ已知,x为变量,那么求不同x出现的可能性就是我们平时说的概率函数
(2)如果x已知,而θ为变量,那么对于不同的θ,导致出现x的概率,则为似然函数。也就是,对于不同的θ,出现已知x的可能性。

2、极大似然估计

MLE:most likelihood estimate
一般x是已知的,由我们抽样获取的,我们希望通过抽样实验估计出模型参数θ的值。
于是,我们求解,在θ为什么值的时候,最可能出现我们抽样出的结果,认为该θ为模型的最优值。这里面包含了一层意思——我们认为我们抽样的结果可以反应数据本身的分布,即我们根据我们的样本,估计了一个使模型生成该样本数据的最佳参数。我们无比相信我们的抽样结果x。

3、最大后验估计

MAP:Maximum A Posteriori
在考虑极大似然估计的时候,我们只考虑了什么样的θ可以让x最大可能出现,但是并没有考虑theta本身出现的概率,所以并不能反映P(θ|x),也就是已知x,某个theta真正出现的概率,即最大后验估计。这也是贝叶斯学派的思想,强调加入先验概率P(θ)

4、MLE和MAP

个人感觉,
MLE是无比相信某一次实验的结果,仅仅看实验结果,求θ,使得实验结果最大可能出现;
而MAP,则是在MLE的基础上做了一些correction,类似于补了一刀,虽然这个θ可以使本次实验结果最大可能出现,但是有可能这个θ本身的出现并不符合常理,要用P(θ)纠正。

所以,二者之间,其实可以通过实验次数来不断靠近——实验次数多了,那么一次实验的结果也就有说服力了,靠近真实结果了,MLE也就不会被P(θ)影响太多了,因为常识其实已经在不断的实验中被注入了。

从数学上讲,例如,投硬币实验,实验次数多了,那么θ次方也就多了,最大值就不会轻易被P(θ)的分布带跑偏了。

当然,如果有顽固贝叶斯学派,认为θ日常只可能出现在0.5,即P(θ=0.5)=1,那么无论怎样,MAP只能为theta=0.5,在取其他值的时候,P(θ|x)=0,也就是知识注入太强势了。

(三)不同的avg

A. Micro考虑所有样本,直接算
B. Macro先针对不同类别算,再在类别之间直接平均
C. weighted针对不同类别算后,加权求平均

(四)LR原理

兜兜转转,回到最初的起点。
其实感觉逻辑回归就是个模型嘛~这个模型其实就是线性+sigmoid拟合。

1、预测函数

其中z其实就是θT·x的线性组合,h(x)求出来在0~1,我们为其赋予意义:y为1的可能性。
在这里插入图片描述

在这里插入图片描述

2、损失函数Loss

由于定义了h(x)的含义:y为1的可能性,那么就可以据此分类讨论,Yt为0和1的情况啦。
如果Yt=0,我希望预测结果也为0,则结果越靠近0,损失越小,越靠近1,损失越大,于是L(h(x),y)=-log(1-h(x));
如果Yt=1,则希望预测结果也越靠近1,结果越靠近1,损失越小,则L(h(x),y)=-log(h(x)),这里采用-log作为代价函数
在这里插入图片描述

用log的原因,大概是在不影响本身表达loss的想法的情况之下,更好计算和优化,

3、代价函数C

损失函数,是定义在单个样本的,而代价函数是定义在整个训练集的
这里用yi和(1-yi)分布*相应的loss,是一个很神奇的方法。当yi为0时,只需要看yi=0带来的loss,即右半部分;yi=1同理。而且乘数为1,不影响值的大小。
在这里插入图片描述
其实到这里基本就可以优化了。

4、目标函数

目标函数是在代价函数的基础上,加上正则项(结构风险)的函数,最终需要优化的函数。
呜呜呜,越来越爱“学习”了,真的是理论和时间的完美融合。

5、优化@梯度下降

梯度的方向是给定函数,在某点数值上升最快的方向,反过来,就是数值下降最快的地方。
在这里插入图片描述
迭代优化,这也解释了为什么要设置迭代次数

在这里插入图片描述

6、反向传播BP

是一种快速求偏导的算法
对于每一个样本,先正求y,然后计算目标函数(误差),对误差分别对最后一层的参数求导,再根据链式法则,对之前每一层参数求导,分别得到对应梯度。
反向传播,巧妙借助反向的优势,借助前面的求导直接,实现对每一层参数的求导。
求导之后,再根据梯度下降,优化参数。

总的来说,我想通过改变θ,让目标函数变小,那么我要对θ(神经网络中的w和b)进行梯度下降操作。于是,就要对每个参数求偏导。在求偏导时,先对后层参数求,前层参数可以借助后层参数的求导结果,快速实现梯度的计算,这也是反向传播的美妙之处。

—1644总结完啦~~
一会有个讲座~
btw,终于有时间看看datacon相关内容啦~开心!!!

emmm吃饭,看讲座,北邮的老师好潇洒~王小娟老师,优秀知识女性hh

1820狂吃狂吃零食,看一会KG书籍,一会去做核算

四、KG

具体笔记记录在typora里啦
这里记录一些小点
1、启发式规则
就是基于经验构建的算法啦
一个基于直观或经验构造的算法,在可接受的花费(指计算时间和空间)下给出待解决组合优化问题每一个实例的一个可行解,该可行解与最优解的偏离程度一般不能被预计。

看着看着就不想吃零食了!!!
先去做核算,回来继续看!!!

—1912继续看啦

2、本体匹配
哇塞,这本书把原来的概念细节化了,没想到本体匹配还能玩出这么多花花来~

看到了这个!!!清华大学知识工程实验室!

3、TransE、TransR、TransH很有意思啊,可以仔细看看

妈耶看书看的脑壳痛了,终于读完第二章啦~~~

去敲一会colab1吧!!!

五、cs224w colab1

1、normalized closeness centrality
标准化的是乘了N-1,点多一点,图就大一点,那么距离远一点也正常。如果点多,距离还小,那就是真正的王者。
在这里插入图片描述

2、又看到tensor真的好激动啊
在这里插入图片描述

明天再继续敲!!!我要去看ctf啦!!!

六、今天居然要写脚本了

41题一道题就好顶呀~
大体思路是,因为都过滤了,所以采用构造字符串。
为啥不直接构造一个16进制呢?非得用或生成?

搭一下昨天的服务器

改了这里,试一试!
在这里插入图片描述
不行,xsl,
我的目录写错了
在这里插入图片描述

Mysql密码更改

Navicat

用来连接mysql

手册

sublime

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值