tensorflow
文章平均质量分 97
跬步达千里
深度学习 图像处理 tensorflow caffe python C++
展开
-
使用NeRF进行3D体素渲染
使用NeRF进行3D体素渲染文章目录使用NeRF进行3D体素渲染前言一、设置二、下载并载入数据3.数据处理流程四、NeRF模型五、训练六、训练步骤可视化七、推理八、渲染3D场景九、视频可视化总结前言在这个例子中,我们展示了文献NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis的最小实现。作者提出了一种巧妙的方法,通过神经网络对体积场景函数进行建模,从而合成场景的新视图。为了帮助您直观地理解这一点,让我们从以翻译 2022-04-06 15:13:42 · 5528 阅读 · 1 评论 -
facenet chinese whispers(face cluster)
facenet face cluster chinese whispers原创 2017-04-21 11:11:18 · 10495 阅读 · 5 评论 -
tensorflow调参总结(不断更新中)
slim batch norm fine tune原创 2017-04-25 11:38:21 · 13947 阅读 · 5 评论 -
facenet_train.py代码注释
"""Training a face recognizer with TensorFlow based on the FaceNet paperFaceNet: A Unified Embedding for Face Recognition and Clustering: http://arxiv.org/abs/1503.03832"""# MIT License# # Copyri原创 2017-05-08 18:08:53 · 7899 阅读 · 5 评论 -
tf moving average
批处理 ,滑动平均, moving average原创 2017-04-24 15:59:38 · 3657 阅读 · 5 评论 -
tensorflow optimizer 总结
tensorflow上的优化函数:下面图像来源:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-06-speed-up-learning/SGD 所谓的随机梯度下降,就是指,由于取的样本是一批一批的,因此,每批数据之间有可能会导致参数的梯度更新方向不一致,因此叫随机梯度下降优点在初期解原创 2017-04-01 17:24:57 · 9182 阅读 · 0 评论 -
slim arg_scope variable_scope
tensorflow api: http://wiki.jikexueyuan.com/project/tensorflow-zh/api_docs/python/index.html tensorflow 官网api: http://www.tensorfly.cn/tfdoc/api_docs/python/index.htmltensorflow例子: https://github.c原创 2017-03-24 18:07:35 · 5035 阅读 · 0 评论 -
tensorflow center loss代码注释
def center_loss(features, label, alfa, nrof_classes): """Center loss based on the paper "A Discriminative Feature Learning Approach for Deep Face Recognition" (http://ydwen.github.io/papers原创 2017-03-31 17:29:52 · 3700 阅读 · 4 评论 -
【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
转载网址:http://blog.csdn.net/mao_xiao_feng/article/details/53382790在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢?首先明确一点,loss是代价值,也就是我们要最小化的值tf.nn.softmax_cross_entropy转载 2017-03-29 16:29:52 · 1068 阅读 · 0 评论 -
facenet_train_classifier.py代码注释
facenet原创 2017-04-07 17:17:11 · 8238 阅读 · 6 评论 -
tensorflow 恢复指定层与不同层指定不同学习率
#tensorflow 中从ckpt文件中恢复指定的层或将指定的层不进行恢复:#tensorflow 中不同的layer指定不同的学习率with tf.Graph().as_default(): #存放的是需要恢复的层参数 variables_to_restore = [] #存放的是需要训练的层参数名,这里是没恢复的需要进行重新训练,实际上恢复了的参数也可以训练原创 2017-04-07 17:13:37 · 6298 阅读 · 0 评论 -
tensorflow加载数据的几种方式
http://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/reading_data.html#QueueRunnerhttp://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/threading_and_queues.html创建线程并使用QueueRunner对象转载 2017-03-27 16:19:06 · 3149 阅读 · 0 评论