自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(50)
  • 收藏
  • 关注

原创 BLEU值的计算

机器翻译BLEU值的计算

2022-09-06 20:10:36 740 1

原创 代码随想录刷题记录:DP系列

菜鸡的算法题刷题记录

2022-09-06 20:04:08 520

原创 【git分支重命名】

重命名远程分支删除原来的分支,重命名本地分支,再重新提交一个远程分支删除远程分支git push --delete origin xxxx或者 git push --delete origin refs/heads/xxxx或者git push --delete origin refs/tags/xxxx重命名本地分支git branch -m xxxx yyyyy推送本地分支git push origin yyyyy...

2022-01-09 19:54:47 551

原创 【git】error: dst refspec v0.10.2 matches more than one

问题描述git push origin < name > 时 ,会自动监测是tag还是heads,然后再推送。如果出现tag和heads重名,就会报错error: dst refspec v0.10.2 matches more than onegit ls-remote结果如下:61d10100326130d2eceee85167d5ec2d9970ebbe refs/heads/seq_task4ee9724f3a6a47134483e4955c688f4f34

2022-01-09 19:39:14 637

原创 【Git】git push远程不同的分支

前言Fork后,需要在本地进行修改,并提交到自己的仓库。正文git push origin <local_branch>:<remote_branch>可以通过git branch -a 来查看本地与远程的分支名称代码如下(示例)git push origin tem:remotes/origin/v0.10.2...

2022-01-09 18:35:55 3683 1

翻译 NLP新范式prompt【2】

【1】It’s Not Just Size That Matters:Small Language Models Are Also Few-Shot Learners使用了pet的语言模型:小模型少参数抗衡GPT-3最近的预训练模型参数已经扩展到千亿个级别了,如GPT-3 。 很多时候训练这样一个巨大的模型带来的资源消耗也是不可低估的,这就给研究者的使用带来困难。但是不是参数越多,模型越大性能就越好。改善后的语言模型仍然可以有类似的性能,但是参数数量却小上很多。这篇论文将文本输入转换为包含任务描

2021-10-29 19:01:41 589

翻译 NLP新范式【1】

【0】Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference提出了Pet : 小模型半监督,匹配下游任务。其中总结了若干prompt的pattern综述这篇论文提出cloze-style prompt-based fine-tuning方法Pet(Pattern Exploiting Training)Pet是一种半监督的训练程序,将输入示例重新定义为cloze-风格

2021-10-29 18:59:40 295

原创 NLP新范式 prompt【0】

NLP新范式 prompt【0】与使用具体的分类器的传统Fine-tuning不同,基于prompt的fine-tune直接使用预训练的模型来执行分类或回归的预训练任务。从 BERT (Devlin et al., 2019) 开始,在下游应用程序中使用特定任务的上游微调预训练语言模型 (LM) 已成为 NLP 的标准做法。 然而,具有 175B 参数的 GPT-3 模型带来了一种将 LM 用于下游任务的新方法:GPT-3 可以很好地处理少标注任务。 通过利用自然语言提示和任务演示作为上下文,GPT-3

2021-10-29 18:58:15 560

原创 Linux 后台运行python代码

nohup python -u Run.py > shellLog.txt 2>&1 &## test.py --要运行的python文件## shellLog.txt --log输出的文件,可查看运行log##> nohup Command [ Arg … ] [ & ]##Command:要执行的命令。##Arg:一些参数,可以指定输出文件。##&:让命令在后台执行,终端退出后命令仍旧执行。## 2>&1 解释:##

2021-09-25 23:57:10 243

原创 Conda的清理(一下少了14G)

一般使用conda命令清理conda clean -p //删除没有用的包(推荐)conda clean -t //tar打包conda clean -y -all //删除全部的安装包及cache如果想看看到底占多大存储空间可以往下看通过命令du -sh *查看当下目录的所占内存为什么pkgs这么大!查阅资料后发现Anaconda文件夹下有个pkgs文件夹。据我观测(没找到正式说明),里面是各种包的各个使用过的版本及压缩包。比如用conda update

2021-09-25 23:53:30 61100 10

原创 服务器配置tensorflow-gpu2.6.0

项目场景:运行sktime-dl需要用到tensorflow-gpu2.6 ,服务器上有conda环境。但是cuda与cudnn版本号出了问题,下面记录一下过程。问题描述:查看机器信息:查看cuda版本 11.4方法一 : 在路径下查看 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA方法二:- - nvcc -V- - v11.4 (管理人员告知)查看tensorflow版本pip list tensor

2021-09-25 23:47:50 781 1

原创 Conda 下 ModuleNotFoundError: No module named ‘pip‘

python -m ensurepippython -m pip install --upgrade pip

2021-09-21 16:07:44 476

原创 Pycharm下 文件路径找不到(神奇的bug)

solution1:改为绝对路径将目录重整后,有一些文件就不能通过File()相对路径打开了,"datasets1/train_catvnoncat.h5"现在就将相对路径改为绝对路径就好了。os.path.join(dir_path,'datasets1/train_catvnoncat.h5'solution2: pycharm 重新导入文件还有一点特别迷惑,pycharm在改完目录结构后,总会出现一些奇怪的bug,刚刚把路径改为绝对路径后,还是报错。索性直接把项目的.idea文件删除后

2021-09-21 12:04:43 3299 1

原创 《PyTorch深度学习实践》学习笔记 【4】

《PyTorch深度学习实践》学习笔记 【4】学习资源:《PyTorch深度学习实践》完结合集六、Logistics Regression(逻辑斯蒂回归模型)虽然它叫做回归模型,但是处理的是分类问题6.0 回归问题和分类问题有监督学习:回归问题分类问题二分类多分类回归问题:如果我们预测的结果是以连续数字进行表示,即我们将在连续函数中对多个输入变量建立映射关系时,则这样的问题称之为回归问题。分类问题:如果我们预测的结果是以离散形式表示的,即我们将多个输入变量与多个不同

2021-08-20 00:00:10 2023

原创 《PyTorch深度学习实践》学习笔记 【5】CNN_1

《PyTorch深度学习实践》学习笔记 【5】CNN_1十、CNN 110.1 卷积神经网络的基本结构卷积神经网络=特征提取+分类10.1.1 特征提取特征提取器,通过卷积运算,找到某种特征。由卷积层convolution和下采样Subsampling 构成。一个图像,丢到一个卷积层里面仍然是一个3维的张量;下采样,通道数不变,但是图片的宽度和高度变小(减少维数数量,减少计算量)10.1.2 分类器将特征向量化后,用全连接网络进行来分类。10.2 Convolution (卷积层)1

2021-08-19 23:56:37 1302 1

原创 《PyTorch深度学习实践》学习笔记 【2】

《PyTorch深度学习实践》学习笔记 【2】学习资源:《PyTorch深度学习实践》完结合集二、线性模型2.1 概念:2.1.1 数据集和测试集​ 数据集拿到后一般划分为两部分,训练集和测试集,然后使用训练集的数据来训练模型,用测试集上的误差作为最终模型在应对现实场景中的泛化误差。​ 一般来说,测试集在训练的时候是不能偷看的。我们可以使用训练集的数据来训练模型,然后用测试集上的误差作为最终模型在应对现实场景中的泛化误差。有了测试集,我们想要验证模型的最终效果,只需将训练好的模型在测

2021-08-14 22:39:48 6665 5

原创 《PyTorch深度学习实践》学习笔记 【3】

《PyTorch深度学习实践》学习笔记 【3】学习资源:《PyTorch深度学习实践》完结合集三、梯度下降类似牛顿迭代法/ 二分法,对cost func 求导 , 利用偏导进行迭代,使得cost func 达到最小值。具体的求导过程关键迭代式:课上实例代码【2】x_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]w = 1.0#线性函数def forward(x): return x * w#MSEdef cost(x

2021-08-14 22:38:50 1954

原创 《PyTorch深度学习实践》学习笔记 【1】

《PyTorch深度学习实践》学习笔记 【1】学习资源:《PyTorch深度学习实践》完结合集一. 绪论1. 人工智能的发展历程Rule—Based: 基于规则(如经典的积分计算)Classic machine learning : 手动提取特征,使用特征representation learning : 自动提取特征维度的诅咒: (参数空间搜索组合爆炸)解决方法:使用更少的更有代表性的参数。DeepLearning:将特征提取和特征函数训练两个过程结合起来,也称之为E

2021-08-14 11:34:35 997

原创 MinGW 的安装和配置 (C/C++编译需要)

MinGW-w64的安装及配置教程MinGW-w64官方下载地址配置MinGW-w64路径右键 此电脑–>属性–>高级系统设置–>环境变量–>设置系统变量将之前安装的的 MinGW-w64 的 bin 文件夹地址,复制到新增的空白变量位置里,即可完成 MinGW-w64 的配置工作。cmd 打开命令行,输入 gcc -v...

2021-07-25 14:34:47 405

翻译 OneNote快捷键大全

OneNote官方快捷键大全

2021-07-15 11:32:51 1784

原创 Vmware共享目录消失(绝对有用!)

查看是否已经挂载vmware-hgfsclient2. 如果没有挂载先umount卸下sudo umount /mnt/hgfs然后在重新挂上去sudo vmhgfs-fuse .host:/ /mnt/hgfs再次查看vmware-hgfsclient

2021-07-09 11:25:13 2154

原创 软构复习【6】

2021-07-06 14:24:17 75

原创 软构复习【5】

2021-07-06 14:23:43 85

原创 软构复习【4】

2021-07-06 14:23:04 81

原创 软构复习【3】

2021-07-06 14:22:31 59

原创 软构复习【2】

2021-07-06 14:21:52 93

原创 软构复习【1】

2021-07-06 14:21:11 76

原创 【软构课堂笔记6:设计模式】

2021-07-05 14:46:25 71

原创 【软构课堂笔记4:可复用性 CRP 可维护性 正则表达式】

2021-07-05 14:45:35 91

原创 【软构习题课1】

2021-07-05 14:43:56 58

原创 【软构课堂笔记3:面向对象编程 】

2021-07-05 14:42:48 62

原创 【软构课堂笔记2:ADT 表示独立性 Spec强度】

2021-07-05 14:41:41 91

原创 【软构课堂笔记:Spec obj mutable imutable】

2021-07-05 14:40:25 72

原创 CSAPP2021 helloP2P

计算机系统大作业题 目 *程序人生-Hello’s P2P *专 业 *计算机科学与技术 *学   号 *1190301804 *班   级 *1936602 *学 生 *梁成    *指 导 教 师 *刘宏伟   *计算机科学与技术学院2021年6月摘 要hello’P2P介绍了hello.c程序从诞生到结束的全过程,包括预处理、编译、汇编、链接、进程等。我们主要使用gcc,edb,gdb等工具在linus下对hello进行一系列操作和分析,在这个过程中搭建起了认识计算机底层的框架,

2021-06-17 18:52:15 592

原创 【总结】Obj & Spec

SPECObject属性/数据可变的不可变的方法Spec实现Spec:定义: 双方的“合同”/”防火墙“(外部不可见)基本结构:前置条件(对参数的约束,对客户端的约束)后置条件(对返回值的约束,对开发者的约束)原则:​ 前置满足---->后置必须满足 前置满足—>?(fail fine)​ Spec是给客户端看的,不要把程序内部暴露出来强度:stronger(对客户端更加友好/易使用,对开发

2021-06-09 20:25:38 184

原创 【总结】ADT

ADT 总结1. ADT的内容属性(名词)rep内部数据结构不可见方法(动词)Spec规约impl实现方法,功能Spec可见impl不可见对外部只有接口,封装后用户不关心内部1.1 ADT的内部方法可以大致分为以下四类creator构造器​ 初始化,新建一个ADT对象 a. new() b. 静态工厂:graph.empty()producer生产器​ 比如 String.concat() 能够返回一个新的对象, 不改变内部数

2021-06-09 20:24:38 168

原创 【lab2】关于Equals和HashCode重写

为什么要重写Equals和HashCode?每当我们定义一个immutable类的时候,就应该考虑重写其Equals和HashCode​ 一个immutable类,创造两个对象A,B; A和B有着一模一样的内容,但是由于内存地址的不同,我们用"==“或者是缺省的equals(内部实现还是”= ="),是不能够得出他们相等的。​ 如果要想他们在外界看来是一样的,那就要重写类中的equals函数,而HashCode也应该随之重写。​ 因为:如果两个对象相同,就是适用于equals(java.lan

2021-06-09 20:23:52 112

原创 【lab2】scanner读文件

public GraphPoet(File corpus) throws IOException { try { File file = new File("assets/test.txt"); Scanner scanner = new Scanner(corpus); scanner.useDelimiter("\\s+"); String preWord = null; ...

2021-06-09 20:23:21 87

原创 【lab2】Safety from rep exposure

简单来说,一个主类有属性和方法两种成分,这里的主类是指用户直接使用的类,需要做到以下两点1、将类中所有的属性(变量)定义为private类型,​ 目的是不让用户得到你的内部属性2、方法或者返回immutable data,或者返回本应该返回的mutable data的副本,或者返回一个不可修改的mutable data​ 1、尽量使用immutable数据类型,比如能使用String就不使用StringBuilder,能使用Instance就不使用Data​ 2、为了创造mutable d

2021-06-09 20:22:08 131

原创 【lab2】defensive copy

How to Defensive Copy条件方法返回一个mutable的数据类型语法without defensive copy:public Name getName(){ return name;}这种observer则会造成类中参数被改变的风险。with defensive copy:public Name getName(){ return new Name(name.toString());}对于抽象类型lab2中给出的 L 是一个不知道类型的抽

2021-06-09 20:21:22 92

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除