自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 知识图谱上的推理任务

我的理解是从answer遍历relation反向创立query,这样把整个kg遍历一遍,一定能得到答案集合,但是我不理解这是怎么推出隐边的,可能是在抽样的时候可以是没有连接,认为他有这条边,然后去算得分去确定是否存在这条边。对于conjunctive queries,如果是complete的话,那么我们只需要沿query plan直接traverse,但是对于incomplete的话,我们希望通过嵌入方法来隐式impute KG中缺失的关系,此外我们还需要定义在隐空间的intersection操作。

2024-04-28 16:28:02 543 1

原创 关于李宏毅作业3cnn的优化

做李宏毅作业3的时候,运行了baseline,简单的4个卷积层加批标准化层加最大池化层,最后加一个全连接层,用crossentropyloss去做一个多分类问题。能优化的地方一个是对数据集加强,用transform对已经有标签的图片进行一些随机的变换,每次训练的同一个图片都是有略微差别的,加了这个后分数确实提高一点了。机器学习里常用的k折交叉验证,这里也派上用场,这里是通过k折,将数据拆分成k份从而训练出k个相对独立的模型,再采用Ensemble方法提升精度。不过很多优化都还没有实现,回头有时间补上。

2024-04-06 15:20:22 208 1

原创 用pytorch去完成kaggle里titanic的预测

【代码】titanic。

2024-03-30 17:55:46 100

原创 卷积神经网络高级篇

为了避免重复地进行神经网络的定义,把一些重复的封装成类,提高效率。至于对应的通道数,可以一层一层定义,定义完后输出结果的shape,来进行下一层输入的确定。

2024-03-24 22:50:43 143 1

原创 pytorch7 卷积神经网络

卷积层能保留图像的空间信息,所以相对于线性变换把所有像素值展成一维来说,更能保留图像的特性。这段代码把计算放在gpu上,相对较快。

2024-03-24 15:33:19 192 1

原创 pytorch训练6 多分类模型

对于softmax,直接传入线性模型,不需要非线性变换,softmax里会进行e的z次方映射取正,然后归一化,最大值就是y_hat,然后计算损失函数-ylog (y_hat)。多分类问题y的标签为one-hot编码,即只有一个标签为1,其余都为0。

2024-03-21 21:19:52 214 1

原创 pytorch练习5 用DataSet和DataLoader实现mini-batch

先把数据集分成训练集和测试集,其他步骤都一样,最后把训练封装,测试也封装,每训练两千次进行测试,求一次loss和acc,最终loss收敛在0.349左右,acc在0.74左右,参考了一下别人的作业,对上面的代码进行测试。

2024-03-20 23:06:25 123 1

原创 pytorch练习4 处理多维特征

将8个特征的数据不断进行降维,计算图每一层线性变换后非线性变换。实现了多特征的二分类。

2024-03-20 17:27:26 177 1

原创 pytorch练习3 实现逻辑斯特回归模型

在线性变换的基础上对y进行sigmoid()函数变换,将值映射到0-1的区间,此时y_hat是为1的概率。用BCEloss去进行梯度下降优化。基本和线性回归差不多,只不过变成了分类模型。得到的概率图如下,在x=2.5的时候通过的概率为0.5。

2024-03-19 21:19:53 216

原创 练习2 用pytorch实现线性模型

4.准备训练,先用model(x),调用forward计算y_hat,然后用损失函数计算loss,对loss进行backward得到梯度,用优化器optimizer.step()进行更新。optimizer=torch.optim.SGD(model.parameters(),lr=0.01) #SGD是优化模块的一个类,parameters找到model中可训练的参数进行训练。y_pred=model(x_data) #调用model的forward计算y_hat。3.准备MSE损失函数,和优化器。

2024-03-19 17:47:40 343 1

原创 pytorch练习1 3d图的绘制(线性回归)

loss_val=loss(x_val,y_val)#由唯一的[w,b]确定唯一的loss_val。

2024-03-17 19:45:57 353

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除