AI
文章平均质量分 80
YuQiao0303
这个作者很懒,什么都没留下…
展开
-
[Diffusion Model笔记] DDPM数学推导版 2024.04.23
xT: 符合高斯分布的噪声x0: 一个符合GT的图像,无噪声的,clean imageT: 时间步xt: 第t步的图像,要从他推出t-1的图像。(一直推下去的话可以推出x0)βt\beta_tβt:noise rate,关于t的固定序列,含义是每一步t要加的噪声的比例。αt\alpha_tαt:signal rate,关于t的固定序列,αt\alpha_tαt= 1-βt\beta_tβt,含义是每一步t保留的上一步图像比例。通常会被设置为lim。原创 2024-04-25 11:04:03 · 822 阅读 · 0 评论 -
[Diffusion Model 笔记]DDIM 笔记 数学推导 Denoising Diffusion Implicit Models
DDIM只是一个采样的算法,其训练和DDPM是一样的。DDIM在推导采样公式时,没有用DDPM中q(xt|xt-1)的条件;同时把一个高斯噪声可以换成随机高斯噪声和预测的噪声的加权和,其中σk\sigma_kσk是一个超参数,控制二者的权重xsαˉsx0∣k1−α‾s−σk2ϵθσkϵxsαˉsx0∣k1−αs−σk2ϵθσkϵx0∣k1αˉk。原创 2024-04-25 11:03:07 · 1336 阅读 · 0 评论 -
[读论文]meshGPT
ShapeNetV2, 所有55个categories来train GPT;但在chair,table,bench和lamp这四个类别上finetune。AutoEncoder用了2 A100, 2 days。transformer用了4 A100, 5 days。原创 2023-12-01 17:33:52 · 3099 阅读 · 0 评论 -
[读论文](StyleGAN) A Style-Based Generator Architecture for Generative Adversarial Networks
重点是提出两个指标:Perceptual path length和linear separability提出一种GAN的generator 架构(按分辨率coarse to fine的)不将z作为网络的输入,而是将learned constant + scaled noise作为输入,将z处理后作为style,即instance normalization(AdaIN)的scale和bias;style的获得。原创 2023-02-08 16:22:06 · 3451 阅读 · 0 评论 -
[读论文] (MeshInversion)Monocular 3D Object Reconstruction with GAN inversion (ECCV2022)
项目主页:https://www.mmlab-ntu.com/project/meshinversion/方法名称:MeshInversion输入:单目图像 (in the wild,有背景的,没有抠图的)输出:textured 3D meshkey challenge: 缺少3D或multiview supervision方法核心:先预训练一个3D GAN ,可以从latent code z生成textured mesh。然后在inference的时候,从输入的图片倒推最符合的z。(这是一个in原创 2022-12-05 21:07:45 · 3757 阅读 · 4 评论 -
RuntimeError: one of the variables needed forgradient computation has been modifiedby an inplace ope
第527行对用v1_0的修改是in place操作。再次运行,就会显示更详细的信息和更精确的定位。在相应位置修改即可。原创 2022-10-24 11:13:57 · 1397 阅读 · 0 评论 -
[李宏毅] self attention 个人笔记
但self attention可以并行计算,而且离得很远的东西也可以很好的用到(RNN容易遗忘)。因此现在基本self attention可以代替RNN。相当于self attention加上一些限制,就是CNN。所以在样本少的时候cnn更好,样本多时相反。就是使用多组qkv,得到多组b,这些b拼接起来乘W得到最终的b.CNN 类似于,只对领域求α的self attentin。只需算有边的点的alpha,没边的直接置0。传统神经网络的输入是一个向量。主要是NLP,如bert。......原创 2022-08-07 15:55:25 · 912 阅读 · 0 评论 -
softmax 与 sigmoid 关系测试
一个数x,和0一起,构成数组[x,0],经过softmax,二者分别得到一个概率,分别设为softmax(x)和softmax(0)原创 2022-08-01 14:55:05 · 165 阅读 · 0 评论 -
[读论文]Point Scene Understanding via Disentangled Instance Mesh Reconstruction (DIMR)
暂未开源方法:2 stagestage 1: get instance输入:场景点云输出:(point-wise) semantic labels, instance center offsets, rotation angles方法:略stage 2: mesh reconstruction输出:(proposal wise) residual bounding boxes, confidence scores, latent distributions of complet meshes方法:原创 2022-07-11 10:05:29 · 303 阅读 · 0 评论 -
读论文:(nvdiffrec) Extracting Triangular 3D Models, Materials, and Lighting From Images
Project page: https://nvlabs.github.io/nvdiffrec/github项目名称叫 nvdiffrec整体看起来跟nurf一样是对单个物体(单个场景)训练的。输入: multi-view images, 相机位姿,背景分割mask(不知道光照情况)。输出: triangle meshes, texture, lighting输入: multi-view images, 相机位姿,背景分割mask(不知道光照情况)。输出: triangle meshes,原创 2022-07-06 15:23:43 · 3899 阅读 · 2 评论 -
基于体素的三维表面重建: DLGAN, 3D GAN,3D-R2N2等
输入:1或多张单个物体任意视角的图片 (encode成一个latent code)输出:3D occupancy grid (323232)loss: sum of voxel-wise 交叉熵。(虽然代码和这个有差别)官方代码:非官方torch代码:https://rohitgirdhar.github.io/GenerativePredictableVoxels/关于autoencoder的ablation study:第16页, table 2 (FIg.7 里面其实没有消融实验, su原创 2022-07-01 22:39:42 · 1561 阅读 · 0 评论 -
[读论文]DECOR-GAN
任务:粗略体素几何体的精细化输入:粗略体素几何体content作为content,精细体素几何体作为style输出:content的精细化,类似那个style。方法概述reconstruction loss 结果像style: 希望如果拿style降采样后的结果通过网络,可以生成style自己。Ld (discrininator的loss): 希望生成的结果中,原来有内容的体素,现在还是有内容。 用一个discrininator类似于把generator的结果降采样了,然后判断(降采样后为空的原创 2022-07-01 22:38:30 · 470 阅读 · 0 评论 -
tensorboard 一直不更新最新内容 问题解决记录
现象即使不运行tensorboard --logdir ./runs,也能在浏览器中查看 localhost:6006的tensorbaord情况无论是否运行tensorboard --logdir ./runs,浏览器中的数据都是旧的。我有4个event file,其中一个是新建的,还有一个旧的重命名了浏览器中不显示新建的,重命名的也显示的是旧名字找到原因仿佛尝试,突然发现我运行tensorboard --logdir ./runs命令后,后面的提示是说Serving Tenso原创 2022-05-16 09:26:41 · 5608 阅读 · 3 评论 -
[读论文] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (ECCV2020 Best Paper)
总览任务:view synthesis: 视图合成。即输入一些同一个静态3D场景的2D照片 with poses,输出任意其他角度的该场景2D图像。方法:用一个mlp网络来表示静态三维场景之后,可以从任意角度该场景渲染为2D图片(视图合成)。用神经辐射场NeRF来表示场景基本思路:从某个视角看这个场景,会看到其颜色。于是将场景表示为视角-颜色的对应关系。FΘ:(x,d)→(c,σ)F_{\Theta}:(\mathbf{x}, \mathbf{d}) \rightarrow(\m原创 2022-05-06 13:21:07 · 1275 阅读 · 0 评论 -
[读论文]Modeling polypharmacy side effect
本文是2020.12.02的笔记,于2022.03.08从本人onenote迁移到CSDN相关连接论文网站: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6022705/#项目网站:http://snap.stanford.edu/decagon/github: https://github.com/mims-harvard/decagon论文内容Introduction多药合用(复方用药,polypharmacy)效果好。但增加了副作用的原创 2022-03-08 15:26:02 · 1514 阅读 · 2 评论 -
[个人笔记](GraphSage)Inductive Representation Learning on Large Graphs
该笔记记录于2021.01.06,于2022.03.08 从本人OneNote转移到CSDN。GraphSage讲解https://zhuanlan.zhihu.com/p/79637787这篇解读基本完全解答了GraphSage是干啥的。简单的说,一个图里有很多节点,每个节点之间可能有边。每个节点有自己的特征向量。网络每一层把节点自己的特征向量和邻居的聚合一下,构成自己下一层的特征向量,特征向量维度不便。这样,有新节点加入的话,就可以只修改或训练新节点及其邻居,而不用整个图一起修改。Gr原创 2022-03-08 10:41:08 · 483 阅读 · 1 评论 -
SSRNet 点云重建 代码采坑记录
ubuntu下的docker环境,直接pull官方tensorflow的镜像,新建contianer。从百度网盘下载里面的groundtruth数据集,放到服务器上。进入container:安装所需的包python ssr.py experiments/dn/config.json --trainImportError: No module named ‘joblib’pip install joblibpip install trimesh python ssr.py expe原创 2021-11-28 17:32:36 · 3179 阅读 · 9 评论 -
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space
核心本文提出了一种3D图形的表示方法,并给出了得到他的网络架构和训练方法。用decision boundary 来表示物体的表面。这个方法贼好,放在2D类比,就像像素图和矢量图,矢量图是精度是无限的,但又不会耗费额外的内存。(对啊,早该想到啊,怎么会2019年才出来。。。既然2D可以有矢量图,3D就不能吗)具体一点,一个物体用一个occupancy function 来表示:注意,是实数空间,不是离散的按一定分辨率取样的。然后用一个神经网络来逼近这个函数,给每个实空间的3D点一个0-1之间原创 2021-11-03 19:23:25 · 13340 阅读 · 13 评论 -
关于一维和二维卷积,以及1*1卷积核的理解
本文图片大部分来自吴恩达Andrew Ng老师的深度学习课程。基础操作:最基本的卷积操作是把卷积核在输入中移动(扫一遍),获得输出。维度:一维卷积和二维卷积的维度是指,输入数据的维度,比如一维的只有长度(如文本,第一个单词第二个单词),二维的有长宽(如图像,横纵分布的像素矩阵)。一维卷积的卷积核在一维方向上移动(如文本,第一个单词第二个单词);二维卷积的卷积核在二维方向上移动(比如图像从左到右从上到下)channel:在此基础上,输入可以有不同channel。(例原创 2021-09-15 11:10:00 · 9943 阅读 · 0 评论 -
[个人向笔记]pytorch 入门笔记
这个用的是这个教程的最后一节。https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html模型类步骤:先用一个类定义模型。至少两个方法:__init__和forward。init: 先要super一下。init: 然后定义每一个有参数要学习的层(卷积层和全连接层)。通常用现成的torch.nn的函数完成,输入网络结构参数forward: 利用上文定义的卷积和全连接,以及torch.nn.functional的函原创 2021-09-13 21:52:00 · 176 阅读 · 0 评论 -
ssh配置pycharm连接远程服务器笔记
目标直接在本地使用pycahrm调试代码,但运行在远程的服务器上。二者通过ssh相连方法首先要有远程服务器的ip,端口号,用户名,密码。然后进行pycharm的配置。参考此文:https://blog.csdn.net/ft_sunshine/article/details/91894221主要包括配置:Tools > Deployment > Configuration.里面的Connection和Mapping。配置Python解释器等。.运行代码。有多种方原创 2021-09-13 16:24:18 · 1289 阅读 · 0 评论 -
CVPR2021| RfDNet 代码运行配环境采坑记录(Ubuntu)
试图运行以下代码:https://github.com/yinyunie/RfDNet花了很久,特此记录采坑总结。总结关于install:pip install -r requirements.txt 之前先看一下他的要求,会发现里面有的用了本地链接。这种要删掉。同时如果requirements.txt 里面都是明确指定了版本号,即用的==而非>=, 也要慎重。可能的话,先从requirements.txt里面删掉自己已经安装过的软件。尽量不要动cuda,跟硬件和驱动都有关,如果不适原创 2021-09-11 20:51:29 · 3630 阅读 · 10 评论 -
2021-09-09 如何查看自己的pytython, pytorch,tensorflow,numpy,cuda,cudnn版本
pytorch,tensorflow,numpy用python代码查看版本:import torchprint(torch.__version__) #注意是双下划线1.7.1import tensorflow as tfprint(tf.__version__) #1.15.0import numpy as npprint(np.__version__) #1.19.2cuda用命令行:(base) E:\project\PyCharm\RfDNet>nvcc --vers原创 2021-09-09 10:58:08 · 1100 阅读 · 0 评论 -
[读论文]CVPR 2021 | RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction
本文解决的问题:indoor scene construction: 输入室内点云,输出3D模型(instance 粒度)端到端Related work:Shape completion: 补全缺损的但各物体常用点层面的卷积,如pointNet等。Scene completion: 补全场景,主要挑战是物体相互遮挡inpaint depth frames: 深度图补全,常用2D CNNvoxel or TSDF grids 补全,常用3D CNN。instance reco原创 2021-09-02 22:22:22 · 827 阅读 · 2 评论 -
[个人笔记]3D点云深度学习入门
目录基本数据结构任务粒度的区分:(2D为例)常用方法和思路基本数据结构abcd分别是:点云(point cloud):(x,y,z) , (x,y,z,d), (x,y,z,r,g,b)体素(Voxel): 体素是3D空间的像素(pixel)。量化的,大小固定的点云。每个单元都是固定大小和离散坐标。多边形网格(Polygon meshes):面二维投影下面是一张体素的图。任务upsampling, reconstruction, segmentation, object detec原创 2021-08-15 23:39:21 · 2189 阅读 · 2 评论 -
[yolo笔记]学习YOLO的个人笔记:理论与
首先学习的是这篇知乎文章参考链接yolo官网yolo论文原文YOLO简介: You Only Look OnceYOLO是一个目标检测算法。输入一张图片,给出对象的bounding box及分类标签,如下图(图片来自yolo官网)。YOLO是一个只使用一次CNN的端对端的算法。目前已有好几代。问题建模Yolo的CNN网络将输入的图片分割成S*S的 网格, 每个网格需要负责预测以本格子为中心的目标。每个网格需要预测B个边框的位置,和C个类别各自的概率。总共是(B*5+C)个值。原创 2021-08-08 17:03:35 · 111 阅读 · 0 评论 -
[个人笔记]吴恩达深度学习lesson5 week2自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
这是一篇个人向的笔记。推荐学习顺序:(可选)最好掌握线性代数、微积分、概率论的一些基本知识学习吴恩达机器学习课程学习吴恩达深度学习的前4课(也可以选择性学习部分内容)即第五课第一周然后可以学习本课,即吴恩达深度学习第五课的第二周内容本课程视频本课程文字版目录2.1 词汇表征(Word Representation)2.1 词汇表征(Word Representation)...原创 2021-07-04 17:59:12 · 188 阅读 · 0 评论 -
[个人笔记]吴恩达深度学习L3 W2:机器学习策略(2)(ML Strategy (2))
http://www.ai-start.com/dl2017/html/lesson3-week2.html#header-n1252.7 迁移学习(Transfer learning)迁移学习:把网络从任务甲中学的的知识(参数)用于任务乙。举例:已经训练好一个识别猫和狗(任务甲)的网络,现在想做X射线扫描图分类(任务乙)操作:首先完全重新初始化最后一层,然后开始训练:如果你的放射科数据集很小,你可能只需要重新训练最后一两层的权重,就是和并保持其他参数不变。如果你有足够多的数据,你可以重新原创 2021-07-04 17:58:34 · 115 阅读 · 0 评论 -
[个人笔记]sklearn 常用机器学习分类器调参总结
前言有复现需要的时候建议全部指定random_state不收敛的时候指定一下max_iterlogistics regressionmodel = LogisticRegression(C=my_c, max_iter=500, random_state=0)重要参数:C默认L2正则化,默认优化器的情况下,基本只有个C可以调。svm重要参数:C:惩罚系数的相反数(如上图),C越大越容易过拟合,C越小越容易欠拟合kernel: linear,poly , rbf,原创 2021-05-26 10:44:39 · 609 阅读 · 0 评论 -
[个人笔记]python机器学习库 sklearn用法笔记
该库可以轻松实现多种最基本的机器学习方法(不包括复杂的深度学习网络),用作baseline非常方便合适。本文代码在此文基础上增加自己的模型评估部分不用交叉验证,完整代码参考#!/usr/bin/env python3.6.5# -*- coding: UTF-8 -*-"""@Author: YuQiao@Date: 2021/3/30 14:27@File: test.py"""from sklearn import datasets#引入数据集,sklearn包含众多数据集from原创 2021-03-30 16:52:25 · 257 阅读 · 0 评论 -
[个人笔记]吴恩达深度学习lesson5 week1序列模型
这是一篇个人向的笔记。推荐学习顺序:(可选)最好掌握线性代数、微积分、概率论的一些基本知识学习吴恩达机器学习课程学习吴恩达深度学习的前4课(也可以选择性学习部分内容)然后可以学习本课,即吴恩达深度学习第五课的第一周内容本课程视频本课程文字版目录1.1 为什么选择序列模型?(Why Sequence Models?)1.2 数学符号(Notation)1.3 循环神经网络模型(Recurrent Neural Network Model)1.1 为什么选择序列模型?(Why Sequen原创 2021-03-23 20:46:12 · 655 阅读 · 0 评论 -
Anaconda+Keras(TensorFlow)手写数字识别笔记
环境安装与配置安装Anaconda基本是一路下一步用管理员权限打开Anoconda Prompt创建一个python3.5的环境,环境名称为tensorflowconda create -n tensorflow python=3.5启动tensorflow环境activate tensorflow(不使用tensorflow时,关闭tensorflow...原创 2019-01-07 17:13:38 · 1041 阅读 · 0 评论