冒号的后面表示是对前面的限制
聚类特征
邻域
竖线
q 代表满足后面的条件的元素
竖线后面表条件
默认是列向量 加上T就是列向量了
预测值的符号
X 是已知的样本数据
x的相关表达式推出y
W是参数 分号后面是参数
有T转置表示 列向量? 每个分量为行向量
相反没有T则是行向量 每个分量为列向量
表示去除元素k之后的集合?
符号
上下数字
色它这里不表示条件 而是参数 未知数
θ
Θ 是参数
Θ 是参数
矩阵分析符号
点积
上标表示向量
下标表示具体的元素
相对熵
KL散度
正比
交叉熵和相对熵
竖线前面的两个参数都是未知参数
竖线后面的两个变量都是已知的
分号后面是参数,其他两个是样本值
W和b同时为参数
组合
行向量
I,j 先固定一个数
然后k 再取所有的数
I. j 都要取完?
范数 模
后面一坨取最大值时对应的j
先算i,再看j
这里的求和符号管不到最后的一项
这种情况下 求和符号 管最后一项
投影矩阵的计算
N,B 表示针对矩阵的一部分
求和符号要管多项的话会加括号的
对向量各分量的梯度?
去除D0的意思?
下标:k 为第几次迭代的意思
行向量?
角标
列向量
分类变量,半定量数据
如何查看 求和符号的范围
找到最优的参数 w和b 使的其使右边的式子达到最小
先取i 一行,再对所有行元素绝对值求和 最后去最大值的行
上下两种符号的区别 下面这种两个e补色托 相当于是对每个元素都处理了
特征值和特征向量
这个求和符号 包含了最后一项 是对求和符号里的 每一项都求导之后 再求和的
反向传播
这个求和符号是对后面整个部分进行控制
参数
C和y两个参数都在求和符号内
J 为特征
Tm为阈值
集合的表示
Xij 样本的第j个特征小于tm
色他 代表参数
表示个数
是的G最下的参数斯塔取值
样本在每一类上的分布概率
样本个数占比来估计
指数相乘 就变成指数项 相加
0-1 损失
红色是指数损失 是0-1损失的上界
经典 CSDN 机器学习的 adabost 的推导过程
上下相等
在f=fm-1的情况下 求梯度
相当于函数在x等于某个值的时候求梯度
下标是q(x)
满足竖线后条件的所有样本的集合
用户b对item P 的打分
归一化的作用
相当于用比率而不是绝对值来做判断
标准化 去掉长度(数量,绝对值的影响)
乘法的作用
对零值的处理
阻尼系数
退化 就是后退一步
无穷右开头
∝ 是这个对吗,这个是成正比的符号
平滑方法 把零变成非零
看公式 看符号的物理意义和下标
下标 ----符号-------公式的意义
学习最快的方法就是看公式
另一个看公式的技巧就是看图
最初的paper会附上图片
比看公式更快
大T 为横向量
加对数就是似然?
Y对这一坨都管
X 是对所有都管?
问题: 括号 期望 增减的学习
波浪 表示是已知的 经验的
M 维向量 取值在0到n之间
m是英语句子长度 n 是外语句子长度
S1 和S2 都在S 集合里面
Q 个向量 每个向量 dk维
向量做除法
词对齐向量
N 是外语句子的长度 m 是英语句子的长度
A 是m 维 取值在零到n 之间
均匀分布?
x是样本 色他是参数 用样本和已知的模型估计参数
欠采样的公式很巧妙 和TFIDF的区别
欠采样公式貌似和TF 部分 相互抵消了 因为二者都是利用同样的数据得到的 而且不能替代 IDF的作用 因为IDF 是来自于其他数据的特征 而不是数据本身的特征