- 博客(12)
- 收藏
- 关注
原创 vscode 编写latex笔记
记录设置全局中文字体及英文字体,调整页面大小到与 word 页面相同,设置常用的字体大小及行间距。安装vscode插件注意:需要确保本机已经安装好 Latex 环境,macbook 下可安装 MacTex(安装好后会自带一个编辑器 TexShop)。在 vscode 扩展中搜索 LaTex Workshop 并安装。设置 XeLaTex 编译默认的 Latex 编译方式是不支持中文的,所以需要修改插件编译方式,采用 XeLaTex 来编译(支持 UTF-8)。在 vscode 的 setti.
2022-03-16 21:00:53 1230
原创 VIM 插件管理工具——vim-plug
vim-plug一个小巧的 vim 插件管理工具,设置简单,使用方便。工具地址:https://github.com/junegunn/vim-plug。安装直接下载 github 页面中 plug.vim 文件,将其放入本机 vim 的 autoload 文件夹中。windows放在在 gvim 安装目录的 vimfiles/autoload/ 文件夹下。Mac一般在 ~/.vim/autoload/ 文件夹下。没有可以自己创建。使用在 vim 配置文件 .vimrc (gvim 为_v
2022-03-07 21:32:35 8093 5
原创 [学习笔记]数据挖掘-week9
集成学习学习视频:80240372X 数据挖掘:理论与算法(自主模式)Ensemble所谓集成学习,就是生成多个模型,并将这些模型有策略的结合在一起, 依据每个模型的结果来确定最终的输出内容。集成学习本身并不是一个算法。而集成学习又包含:Boosting, Bagging.集成学习主要解决的问题:(1)如何选择模型。(2)如何将这些模型的结果组合起来。集成学习结果较好的原因之一是选择的是不同的分类器做集成。或者使用同样的分类算法,但每个算法的训练集不同,初始参数不同或选择的特征集不同。分类器
2021-11-29 13:38:26 172
原创 [学习笔记]数据挖掘-week8
推荐算法学习视频:80240372X 数据挖掘:理论与算法(自主模式)大致分为两类算法:基于内容推荐,基于协同过滤推荐。以买书为例,基于内容的推荐算法会根据该书的内容,作者等信息推荐其他书籍。基于协同过滤的推荐算法会推荐我“朋友”所认为好的书。TF-IDFtf(t,d)=nt,d∑knk,didf(t,D)=log∣D∣∣d∈D:t∈d∣\begin{aligned} & tf(t,d) = \frac{n_{t,d}}{\sum_k n_{k,d}}\\ &
2021-11-24 16:51:24 580
原创 [学习笔记]EMD经验模式分解
Empirical Mode Decomposition参考文献:The empirical mode decomposition and the Hilbert spectrum for nonlinear and non-stationary time series analysis背景
2021-11-12 14:48:03 799
原创 [学习笔记]数据挖掘-week6
聚类算法学习视频:80240372X 数据挖掘:理论与算法(自主模式)聚类算法评价标准比较简便的评价标准如下Je=∑i=1c∑x∈Di∣∣x−Mi∣∣2mi=1ni∑x∈Dix\begin{aligned} J_e &= \sum_{i=1}^c\sum_{x\in D_i}||x-M_i||^2\\ m_i &= \frac{1}{n_i}\sum_{x\in D_i}x\end{aligned}Jemi=i=1∑cx∈Di∑∣∣x−Mi∣∣2
2021-11-03 11:02:31 76
原创 [学习笔记]数据挖掘-week5
支持向量机(SVM)学习视频:80240372X 数据挖掘:理论与算法(自主模式)核心思想:从输入空间向特征空间做映射。Linear SVMsSVM 最开始为线性分类器,分类过程如下图。图片来源:Burges, C.J. A Tutorial on Support Vector Machines for Pattern Recognition. Data Mining and Knowledge Discovery 2, 121–167 (1998)H1H_1H1 与 H2H_
2021-10-27 18:57:02 121
原创 [学习笔记]数据挖掘-week4
人工神经网络单一神经元一个单独的神经元又称为感知机(perceptrons)。公式定于如下:o={1,if∑i=0nwi⋅xi>00,otherwiseo(x1,...,xn)={1,ifw0+w1⋅x1+...+wn⋅xn>00,otherwise\begin{aligned} o & = \begin{cases} 1,\quad & \text{if}\quad\sum_{i=0}^nw_i\cdot x_i > 0\\
2021-10-14 09:15:25 57
原创 [学习笔记]数据挖掘-week3
贝叶斯P(A∣B)=P(B∣A)P(A)P(B)P(A|B)=\frac{P(B|A)P(A)}{P(B)}P(A∣B)=P(B)P(B∣A)P(A)描述事件 B 发生的时候,事件 A 发生的概率。通过贝叶斯公式设计分类器,如下:ωMAP=argmaxP(a1,a2,...,an∣ωi)P(ωi)P(a1,a2,...,an)ωi∈ω\omega_{MAP}=arg\max\frac{P(a_1,a_2,...,a_n|\omega_i)P(\omega_i)}{P(a_1,a_2,...,a
2021-10-08 17:34:56 71
原创 [学习笔记]数据挖掘-week2
[学习笔记]数据挖掘-week2离群点distancek(O)distance_k(O)distancek(O)选取 kkk 个离 OOO 点最近的点,以最远的一个点为半径画圆,表示 OOO点的距离。距离相同的点算作一个点,即有可能最终得到的点多于kkk 。则两点之间的距离定义如下:distancek(A,B)=maxdistancek(B),d(A,B) distance_k(A,B)=max{distance_k(B), d(A,B)} distancek(A,B)=maxdist
2021-09-27 16:45:58 132 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人