算法整理之2


title: 算法整理之2
date: 2019-09-20

原本在个人博客上写了一些博文,现转移到CSDN上

算法整理

  1. A3C算法:深度强化学习算法 https://www.cnblogs.com/wangxiaocvpr/p/8110120.html
  2. adv_imagenet_models:Imagenet数据集的处理 https://blog.csdn.net/gzroy/article/details/85954329
  3. adversarial_crypto:密钥算法模块 https://blog.csdn.net/sunhuansheng/article/details/82223170
  4. adversarial_logit_pairing:对抗性logit配对。Adversarial logit配对文件的实现,以及在ImageNet和Tiny ImageNet上预训练的少数模型。https://arxiv.org/pdf/1803.06373.pdf
  5. adversarial_text:对抗性训练方法的半监督文本分类和半监督序列学习。
  6. exoplanet-ml:用于系外行星科学的机器学习模型和实用程序。
  7. attention_ocr:TensorFlow模型,用于实际图像文本提取问题。此文件夹包含在FSNS数据集数据集上训练新的Attention OCR模型以转录法国街道名称所需的代码 。您也可以使用它来训练您自己的数据。
  8. audioset:该存储库提供与AudioSet相关的模型和支持代码, AudioSet是一个包含超过200万个人类标记的10秒YouTube视频音轨的数据集,其标签取自600多个音频事件类的本体。AudioSet被 发布 在2017年3月被谷歌的声音了解团队提供音频事件检测常见的大范围的评估任务以及声音事件的全面词汇的起点。
  9. autoaugment:使用AutoAugment在CIFAR-10和CIFAR-100数据集上训练Wide-ResNet,Shake-Shake和ShakeDrop模型。CIFAR-10 / CIFAR-100数据可从以下网址下载:https://www.cs.toronto.edu/~kriz/cifar.html 。该代码使用以下模型复制了CIFAR-10/100上表1和表2的结果:Wide-ResNet-28-10,Shake-Shake(26 2x32d),Shake-Shake(26 2x96d)和PyramidNet + ShakeDrop。
  10. autoencoder:autoencoder是一种无监督的学习算法,主要用于数据的降维或者特征的抽取,在深度学习中,autoencoder可用于在训练阶段开始前,确定权重矩阵的初始值。https://blog.csdn.net/qq_39521554/article/details/80697882
  11. brain_coder:脑编码器是一种代码合成实验环境。
  12. cognitive_mapping_and_planning:https://blog.csdn.net/c602273091/article/details/78819362
  13. cognitive_planning:Arsalan Mousavian,Alexander Toshev,Marek Fiser,Jana Kosecka,James Davidson这是在Active Vision数据集上实现语义目标驱动的导航训练和评估。ECCV模拟环境中的视觉学习和实体代理研讨会2018。
  14. compression:这是一个TensorFlow模型repo,包含有关神经网络压缩的研究。此repo目前包含以下文件的代码:采用递归神经网络的全分辨率图像压缩
  15. cvt_text:该存储库包含使用跨视图训练的半监督序列建模的代码。目前支持序列标记和依赖性解析任务。
  16. deep_contextual_bandits:https://blog.csdn.net/qq_32690999/article/details/78996398
  17. deep_speech:这是DeepSpeech2模型的实现。当前的实现基于作者的DeepSpeech代码中的代码和MLPerf Repo中的实现。DeepSpeech2是一种用于自动语音识别(ASR)的端到端深度神经网络。它由2个卷积层,5个双向RNN层和一个完全连接层组成。使用的特征是从音频输入中提取的线性频谱图。网络使用连接主义时间分类CTC作为损失函数。https://www.jianshu.com/p/e48437fcf246
  18. DeepLab:语义图像分割的深度标注DeepLab是用于语义图像分割的最先进的深度学习模型,其目标是将语义标签(例如,人,狗,猫等)分配给输入图像中的每个像素。当前的实现包括以下功能:1.DeepLabv1 [1]:我们使用atrous卷积来明确控制在深度卷积神经网络中计算特征响应的分辨率。2.DeepLabv2 [2]:我们使用不稳定的空间金字塔池(ASPP)来使用多个采样率和有效视野的过滤器在多个尺度上稳健地分割对象。3.DeepLabv3 [3]:我们使用图像级功能 [5,6 ]扩充ASPP模块以捕获更长距离的信息。我们还包括批量标准化 [7]参数,以促进培训。特别是,我们应用激流卷积在训练和评估期间提取不同输出步幅的输出特征,这有效地使得在输出步幅= 16时训练BN并在评估期间在输出步幅= 8时获得高性能。4.DeepLabv3 + [4]:我们扩展DeepLabv3以包含一个简单而有效的解码器模块,以优化细分结果,特别是沿着对象边界。此外,在这种编码器 - 解码器结构中,可以通过迂回卷积任意地控制所提取的编码器特征的分辨率,以折衷精度和运行时间。https://www.jianshu.com/p/b5f5cdc0ba9d
  19. Delf:DELF对于大规模实例级图像识别特别有用。它检测并描述语义局部特征,这些特征可以在显示相同对象实例的图像之间进行几何验证。此处发布的预先训练的模型已针对地标识别进行了优化,因此期望它在该领域中运行良好。我们还提供了用于构建DELF模型的张量流代码,然后可以使用该代码来训练其他类型对象的模型。https://blog.csdn.net/sparkexpert/article/details/80590452
  20. differential_privacy:ensorFlow Privacy是一个Python库,其中包含用于培训具有差异隐私的机器学习模型的TensorFlow优化器的实现。该库附带了教程和分析工具,用于计算所提供的隐私保证。https://blog.csdn.net/forest_open/article/details/81429458
  21. domain_adaptation:在经典的机器学习问题中,我们往往假设训练集和测试集分布一致,在训练集上训练模型,在测试集上测试。然而在实际问题中,测试场景往往非可控,测试集和训练集分布有很大差异,这时候就会出现所谓过拟合问题:模型在测试集上效果不理想。 以人脸识别为例,如果用东方人人脸数据训练,用于识别西方人,相比东方人识别性能会明显下降。 当训练集和测试集分布不一致的情况下,通过在训练数据上按经验误差最小准则训练的模型在测试上性能不好,因此出现了迁移学习技术。https://blog.csdn.net/u013841196/article/details/80956828
  22. efficient-hrl:端到端训练实体和关系抽取https://blog.csdn.net/juanjuan1314/article/details/90296866
  23. FEELVOS:用于视频对象分割的快速端到端嵌入式学习https://blog.csdn.net/qq_34914551/article/details/88596860
  24. Fivo: 过滤用于训练生成序列模型的变分目标。该代码实现了训练顺序潜变量模型的3个不同界限:证据下界(ELBO),重要性加权自动编码器界限(IWAE)和我们的界限,过滤变分目标(FIVO)。此外,它包含几个连续的潜在变量模型实现:1.变分递归神经网络(VRNN)2.随机递归神经网络(SRNN)3.具有线性条件的高斯隐马尔可夫模型(GHMM) 可以训练VRNN和SRNN用于钢琴和语音数据的序列建模。GHMM可在合成数据集上训练,可用作分析易处理模型的简单示例。https://blog.csdn.net/weixin_42749767/article/details/82986650
  25. gan:生成对抗网络。https://www.jianshu.com/p/0fc4c696e409
  26. global_objectives:全球目标Global Objectives库提供TensorFlow损失功能,可直接针对各种目标进行优化,包括AUC,精确调用等。全局目标损失可用作TensorFlow标准多标签丢失功能的直接替代品: tf.nn.sigmoid_cross_entropy_with_logits和tf.losses.sigmoid_cross_entropy。
  27. im2txt:用于图像字幕的图像到文本神经网络。这个模型的作用跟它的名字一样,image-to-text,把图像转为文字,也就是图片描述。https://blog.51cto.com/12340098/2337731
  28. inception:用于计算机视觉的深度卷积网络。https://blog.csdn.net/loveliuzz/article/details/79135583
  29. KeypointNet:这是“通过端到端几何推理发现潜在3D关键点[ pdf ]”中提出的关键点网络的实现。给定已知类的单个2D图像,该网络可以预测一组3D关键点,这些关键点在同一对象的视角和对象实例之间是一致的。这些关键点及其探测器在没有关键点位置监控的情况下自动发现和学习[ demo ]。https://blog.csdn.net/buyan4395/article/details/82890825
  30. learned_optimizer:学到的优化器。在顶级目录中,metaopt.py包含用于训练和测试学习优化器的代码。metarun.py将实际的训练过程打包到一个文件中,定义并公开许多标志以调整过程,从选择优化器类型和问题集到更精细的超参数设置。没有测试二进制文件; metaopt.test_optimizer通过传递优化器对象和带有检查点的目录,可以临时完成测试。
  31. learning_to_remember_rare_events:用于深度学习的大型终身内存模块。
  32. learning_unsupervised_learning:学习无监督学习规则。此存储库包含“学习无监督学习规则”中提供的学习更新规则的代码和权重。此时,此代码无法对更新规则进行元编辑。https://blog.csdn.net/qq_34859482/article/details/80261323+
  33. lexnet_nc:名词复合关系分类的分布式模型。这是用于对关系进行分类的LexNET算法的Tensorflow实现,特别适用于对名词化合物之间的关系进行分类
  34. lfads:动力系统的潜在因子分析。是一个专为调查神经科学数据而设计的顺序变分自动编码器,但可广泛应用于任何时间序列数据。在无监督设置中,LFADS能够将时间序列数据分解为各种因素,例如初始条件,生成动力系统,控制输入到该生成器,以及观察数据的低维描述,称为因子。另外,观察模型是概率分布的损失,因此当LFADS处理数据集时,去噪的版本例如,如果数据集是原始峰值计数,那么在泊松分布下的负对数类似损失下,去噪数据将是推断的泊松率。
  35. lm_1b:十亿字基准的语言模型。这是十亿字基准的预训练模型。这是一个2013年发布的英语大型语料库。这个数据集包含大约10亿字,并且词汇量大约为800K字。它主要包含新闻数据。由于训练集中的句子是混洗的,因此模型可以忽略上下文并专注于句子级语言建模。
  36. lm_commonsense:一种简单的常识推理方法,包含用于从常规推理的简单方法重现结果的代码。
  37. lstm_object_detection:Tensorflow移动视频对象检测。https://blog.csdn.net/gdengden/article/details/86527251
  38. marco: 这是本文中描述的预训练模型:使用深度卷积神经网络分类结晶结果。该模型将结晶实验图像作为输入:水晶样品,它将其归类为属于四种类别之一:晶体,沉淀物,透明物质或“其他物种”。该模型是对来自MARCO存储库的数据进行过训练的Inception-v3的变体。
  39. maskgan: 通过填写______更好的文本生成. 谷歌大脑让AI学做完形填空的新尝试. https://blog.csdn.net/c2a2o2/article/details/79193978
  40. minigo. 这是基于作者提供的代码MiniGo的简化实现:MiniGo。MiniGo是一款极简主义的Go引擎,模仿AlphaGo Zero,“掌握没有人类知识的游戏”。Alphago Zero的有用单图概述可以在备忘单中找到。MiniGo的实现包括三个主要组件:DualNet模型,蒙特卡罗树搜索(MCTS)和Go域知识。目前,DualNet模型是我们的重点。https://baike.baidu.com/item/Minigo/22742691?fr=aladdin
  41. morph-net: MorphNet是一种在培训过程中学习深层网络结构的方法。关键原则是不断放松网络结构学习问题。具体而言,通过添加针对特定资源(例如FLOP或模型大小)的消耗的正则化器来诱导激活稀疏性。当将正则化器损失添加到训练损失并且通过随机梯度下降或类似的优化器使其总和最小化时,在由正则化器表示的约束下,学习问题变为网络结构的约束优化。该方法首次在我们的CVPR 2018中引入,论文“ MorphNet:深度网络结构的快速和简单资源约束学习”“。该方法的概述以及新设备特定的延迟正则化器在 GTC 2019中出现https://baijiahao.baidu.com/s?id=1631145546340380378&wfr=spider&for=pc
  42. Namignizer: 使用变化的PTB模型使用Kaggle婴儿名称数据库识别和生成名称。
  43. neural_gpu: http://arxiv.org/abs/1511.08228中描述的神经GPU模型的代码。扩展版本在https://arxiv.org/abs/1610.08613中描述。
  44. neural_programmer: 用逻辑和数学运算增强的神经网络。
  45. next_frame_prediction: 视觉动力学:通过交叉卷积网络进行概率未来帧合成。
  46. nst_blogpost:
  47. object_detection: Tensorflow对象检测API. 创建能够在单个图像中定位和识别多个对象的精确机器学习模型仍然是计算机视觉中的核心挑战。TensorFlow对象检测API是一个基于TensorFlow构建的开源框架,可以轻松构建,训练和部署对象检测模型。在谷歌,我们确实发现这个代码库对我们的计算机视觉需求很有用,我们希望你也能这样做。
  48. pcl_rl: 几种强化学习算法的代码,包括路径一致性学习。
  49. ptn: 透视变压器网. 这是NIPS 2016作品的TensorFlow实现“透视变换器网络:学习单视图3D对象重建而无需3D监督”
  50. qa_kg: 用于在知识图上回答问题的模块网络. 此代码存储库包含TensorFlow模型,用于在具有端到端模块网络的知识图上进行问题回答。
  51. real_nvp: TensorFlow中的真实NVP,使用Real NVP进行密度估算的训练程序的Tensorflow实现,由Laurent Dinh,Jascha Sohl-Dickstein和Samy Bengio,Imagenet(32x32和64x64),CelebA和LSUN包括将数据集放入.tfrecords格式的脚本。https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/82112222
  52. rebar: 用REBAR加固混凝土
  53. resnet: ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时ResNet的推广性非常好,甚至可以直接用到InceptionNet网络中。https://blog.csdn.net/u013181595/article/details/80990930
  54. sentiment_analysis: 这是在描述的情感分析模型的实现本文。实现是参考paddle版本。该模型使用具有不同内核大小的两个CNN层的串联。批量标准化和丢失层用于防止过度拟合。https://blog.csdn.net/weixin_32614651/article/details/80579758
  55. seq2species: 物种分类的神经网络模型.
  56. skip_thoughts: 递归神经网络句子到矢量编码器。https://www.jianshu.com/p/a60a46ed50de
  57. slim: TensorFlow-Slim图像分类模型库.TF-slim 是TensorFlow(tensorflow.contrib.slim)的一个新的轻量级高级API,用于定义,训练和评估复杂模型。该目录包含用于训练和评估使用TF-slim的几种广泛使用的卷积神经网络(CNN)图像分类模型的代码。它包含的脚本允许您从头开始训练模型或从预先训练的网络权重中对其进行微调。它还包含用于下载标准图像数据集的代码,将它们转换为TensorFlow的本机TFRecord格式,并使用TF-Slim的数据读取和排队实用程序读取它们。您可以轻松地在任何这些数据集上训练任何模型,如下所示。我们还包括了一个 jupyter笔记本,提供了如何使用TF-Slim进行图像分类的工作示例。有关开发或修改自己的模型. https://www.cnblogs.com/hejunlin1992/p/8082535.html
  58. steve: 随机集合价值扩张.
  59. Street: StreetView Tensorflow循环端到端转录(STREET)模型。
  60. struct2depth: 这是一种用于无监督学习单眼视频的深度和运动的方法,通过明确地建模3D物体运动,在线细化和通过新的损失公式改善运动物体的质量,在两个任务上实现新的最先进的结果。https://www.cnblogs.com/shepherd2015/p/10577788.html
  61. swivel: 在Tensorflow中旋转.这是用于生成字嵌入的Swivel算法的TensorFlow实现 。
  62. syntaxnet: SyntaxNet:语法的神经模型。TensorFlow工具包,用于深度学习,支持自然语言理解(NLU)https://www.cnblogs.com/kmsfan/p/5538730.html
  63. tcn: 时间对比网络.这实现了“时间对比网络”,这是更大的自我监督模仿学习项目的一部分。https://blog.csdn.net/Kuo_Jun_Lin/article/details/80602776
  64. tensorrt: TensorRT是NVIDIA的深度学习推理优化器。简而言之,TensorRT重写执行图的部分以允许更快的预测时间。https://blog.csdn.net/IAMoldpan/article/details/86604290
  65. textsum: 这篇文章中我们将基于Tensorflow的Seq2Seq+Attention模型,介绍如何训练一个中文的自动生成新闻标题的模型。自动总结(Automatic Summarization)类型的模型一直是研究热点。 https://blog.csdn.net/c2a2o2/article/details/79140021
  66. transformer: 空间变换器网络[1]允许空间操纵网络内的数据。https://blog.csdn.net/YQMind/article/details/80864133
  67. vid2depth: 利用三维几何约束从单目视频无监督学习深度和自我运动. http://www.qukaa.com/TXTRF107327XASYYT1==1.html
  68. video_prediction: 基于神经平流的视频预测. 该视频预测模型可选地以动作为条件,通过内部预测如何将最后图像(可能已被预测)变换成下一图像来预测未来视频。因此,它可以重用前一帧中的外观信息,并且可以更好地推广到训练集中未见的对象。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值