自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 资源 (3)
  • 收藏
  • 关注

原创 NLP情感分析(Task0)

项目来源:Datawhale组队学习之情感分析学习内容利用RNN进行情感二分类利用RNN的各种变体,如LSTM, BiLSTM等进行情感二分类利用更快的模型FastText进行情感二分类利用CNN进行情感二分类情感多分类利用BERT进行情感分类安装环境pytorch已安装过torchtextpip install torchtextspacyconda install -c conda-forge spacypython -m spacy download en_

2021-09-13 20:29:57 137

原创 深度学习文本分类经验学习

深度学习经验:模型显然并不是最重要的: 好的模型设计对拿到好结果的至关重要,也更是学术关注热点。但实际使用中,模型的工作量占的时间其实相对比较少。虽然再第二部分介绍了5种CNN/RNN及其变体的模型,实际中文本分类任务单纯用CNN已经足以取得很不错的结果了,我们的实验测试RCNN对准确率提升大约1%,并不是十分的显著。最佳实践是先用TextCNN模型把整体任务效果调试到最好,再尝试改进模型。理...

2020-02-25 21:03:46 287

原创 理解词嵌入进阶

第一种方法是:one-hot方法比如说有cat,dog,apple三个词汇。那么就生成一个三维向量,每个词占向量里面的一个位置,cat:[1,0,0] dog:[0,1,0] apple:[0,0,1]。那么假如现在一篇文章有1000个单词,那么每个词汇就要用一个1000维的向量来表述,其中只有单词所在的位置是1,其余位置全部是0,每个单词向量之间是无关的。这样做的好处是简单,但是不太符合现...

2020-02-25 21:00:43 148

原创 批量归一化

对于浅层模型,对输入进行标准化处理,使得各个特征的分布相近,任意一个特征在数据集中所有样本上的均值为0、标准差为1对于深度模型:提出批量归一化,利用小批量的均值和标准差,不断调整网络中间输出,使得网络各层的输出数值更稳定对全连接层做BatchNormalization对卷积层做批量归一化位置:卷积计算之后、应用激活函数之前。卷积层输出的维度:样本数x通道数x卷积后的高x卷积后的...

2020-02-25 20:55:22 266

原创 动手学深度学习笔记2

Part1 模型选择1  误差与数据集● 训练误差(training error):模型在训练集上表现出的误差。● 泛化误差(generalization error):在任意一个测试数据样本上表现出的误差的期望。举个栗子,训练误差就是做往届试卷(训练)的错误率,泛化误差则可以通过真正参加考试(测试)时的答题错误率来近似。机器学习模型应该关注降低泛化误差。● 验证集(valida...

2020-02-14 21:54:04 120

原创 机器学习入门之贝叶斯

# -*- coding: UTF-8 -*-from sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitimport mathimport numpy as npiris = load_iris()X_train, X_test, y_train, y_tes...

2020-01-20 23:30:36 120

原创 机器学习入门笔记聚类算法

sklearn# 聚类前X = np.random.rand(100, 2)plt.scatter(X[:, 0], X[:, 1], marker='o')plt.show()# 聚类后kmeans = KMeans(n_clusters=2).fit(X)label_pred = kmeans.labels_plt.scatter(X[:, 0], X[:, 1], c=...

2020-01-19 18:11:34 218

原创 机器学习个人学习笔记——决策树(侵删)

决策树是一种基本的分类与回归模型,呈树形结构。可以看作if-then的处理结构,也可以看作条件概率分布,对特征空间进行划分,在子特征空间进行类别判断,大于阈值则属于子空间的类别。https://blog.csdn.net/weixin_35479108/article/details/85284613sklearnimport matplotlib.pyplot as pltfro...

2020-01-17 01:55:18 278

原创 Task2机器学习入门笔记逻辑回归

逻辑回归与线性回归的区别线性回归适用于不同类别的训练样例数目相当。如果不同类别的训练样例数目稍有差别,通常影响不大,但若差别很大,则会对学习过程造成困扰。类别不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况。例如:图显示了是否购买玩具和年龄之间的关系,可以用线性回归拟合成一条直线,将购买标注为1,不购买标注为0,拟合后取当0.5值为阈值来划分类别。可以看到,在途中,年龄的区...

2020-01-14 02:23:45 154

原创 datawhale Task0机器学习概述

机器学习分类1. 监督学习监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最...

2020-01-08 20:39:25 174

原创 datawhale机器学习初级算法学习笔记——Task1线性回归(侵删)

1、线性回归原理我也没看懂。。。数学不好哎。均方误差是回归中常用的线性度量:J(θ)=12∑j=1n(hθ(x(i))−y(i))2J(\theta)=\frac{1}{2}\sum_{j=1}^{n}(h_{\theta}(x^{(i)})-y^{(i)})^2J(θ)=21​j=1∑n​(hθ​(x(i))−y(i))22、线性回归损失函数、代价函数、目标函数损失函数(Loss F...

2020-01-08 19:58:30 243

uniaxial_tension.in

这个是lammps官网的第二个例子,里面有我个人的注释,几乎每行都有,能够快速学习,这个和第一个例子程序差不多,举一反三,第一个例子的程序差不多就会了。。

2020-05-03

双击运行lammps

快速运行lammps,不用在cmd里一行一行敲,这个是并行的。串行的自己改成lmp_serial,然后就可以了。里面可以自己设置核数。

2020-05-03

LaTeX讲义教程

LaTeX讲义教程LaTeX讲义教程LaTeX讲义教程

2018-01-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除