深度学习
文章平均质量分 69
curry dog
自然语言处理
展开
-
wandb+腾讯云进行深度学习可视化和超参搜索
修改docker权限通过将用户添加到docker用户组可以将sudo去掉,命令如下sudo groupadd docker #添加docker用户组sudo gpasswd -a $USER docker #将登陆用户加入到docker用户组中newgrp docker #更新用户组wandb 配置在云服务器上开启wandb 镜像wandb local -e HOST=http://云服务器公网ip:8080 进入镜像 修改登录账号和密码docker exec -it wandb-loc原创 2022-04-15 12:02:47 · 2095 阅读 · 0 评论 -
TensorFlow (keras) 杂记
语法Conv2D(64, (7, 7), strides=(2, 2), name=‘dep_conv1’, use_bias=True)(depth_x) (filters, kernel_size, strides=(1, 1), padding='valid', data_format=None, dilation_rate=(1, 1), activation=None,原创 2022-04-12 18:30:28 · 214 阅读 · 0 评论 -
error: ‘AT_CHECK’ was not declared in this scope
error: ‘AT_CHECK’ was not declared in this scope解决方法hailanyi 2021-05-21 17:32:36 1758 收藏 12分类专栏: pytorch 文章标签: pytorch 神经网络版权pytorch专栏收录该内容2 篇文章 0 订阅订阅专栏error: ‘AT_CHECK’ was not declared in this scope在编译deform_conv时遇到问题:error: ‘AT_CHECK’ was not转载 2021-12-30 15:05:27 · 939 阅读 · 0 评论 -
cs229笔记
ps0求df(XY)df(XY)df(XY)求d(X−1)d(X^{-1})d(X−1)求∇f(xTAx)\nabla f(x^TAx)∇f(xTAx)求∇2f(xTAx)\nabla^2 f(x^TAx)∇2f(xTAx)求∇g(a⊤x)∇2g(a⊤x)\nabla g\left(a^{\top} x\right) \quad \nabla^{2} g\left(a^{\top} x\right)∇g(a⊤x)∇2g(a⊤x)......原创 2021-12-01 15:08:29 · 340 阅读 · 0 评论 -
图像识别网络 总结
MASK RCNRPN生成anchor对于backbone输出的每一个特征图(Resnet 有5个),RPN输出一个 cls_logit(H/n,W/n,3) 和一个bbox_pred(H/n,W/n,3x4). 其中3代表3个不同长宽比的anchor(eg0.5,1,2),n代表对于原图的缩放倍数(分别为4,8,16,32,64)生成proposals对5种不同尺度的特征图,都执行以下操作取出置信度前pre_nms_top_n的anchors;(eg pre_nms_top_n=转载 2020-10-06 22:11:39 · 1570 阅读 · 0 评论 -
pytorch 杂记
切片a=torch.tensor([[1,2,3],[4,5,6],[7,8,9]])print(a[[[1],[0]],[[1],[0]]])tensor([[5], [1]])broadcasta=torch.tensor([[1],[2],[3]])b=torch.tensor([1,2,3])print(a+b)tensor([[2, 3, 4], [3, 4, 5], [4, 5, 6]])原创 2020-11-06 22:21:54 · 702 阅读 · 0 评论 -
autograd实现
思路:步骤一:从某个叶节点开始,将其压入队尾步骤二:弹出队首节点作为当前节点。先求出当前节点对于各个父节点的梯度,父节点加上这个梯度之后出度也随之减一,当某个父节点出度为零时,将其加入队列中。重复步骤二。std::vector <std::vector <double>> nn::graph::compute_gradients (nn::var::iterator tar, const std::vector <nn::var::iterator> &va原创 2020-10-30 23:53:47 · 291 阅读 · 0 评论 -
NLP 总结
LSTM三个门控制对前一段信息、输入信息以及输出信息的记忆状态,进而保证网络可以更好地学习到长距离依赖关系。遗忘门(记忆门):通过判断当前输入信息的重要程度决定对过去信息的保留度输入门:通过判断当前输入信息的重要程度决定对输入信息的保留度输出门:当前输出有多大程度取决于当前记忆单元激活函数:门:sigmoid,0-1分布概率,符合门控的定义。且当输入较大或者较小时,值会接近1或0,进而控制开关。候选记忆:分布在-1~1之间,与大多场景下0中心分布吻合在输入为0有较大的梯度,使模型更快收敛LS原创 2020-10-30 19:19:42 · 182 阅读 · 0 评论 -
RRPN笔记
求overlaps判定一个点是否在另一个矩形中__device__ inline bool inrect(float pt_x, float pt_y, float * pts) { // pt_x,pt_y是待判定的点 double ab[2]; double ad[2]; double ap[2]; double abab; double abap; double adad; double adap; ab[0] = pts[2] - pts[0]; .原创 2020-10-30 14:45:49 · 282 阅读 · 0 评论