自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(357)
  • 收藏
  • 关注

转载 TensorFlow和Keras解决大数据量内存溢出问题

NVIDIA DLI 深度学习入门培训 | 特设三场!4月28日/5月19日/5月26日一天密集式学习  快速带你入门阅读全文>正文共5771个字,1张图,预计阅读...

2018-04-18 00:00:00 20150 3

转载 TensorFlow应用实战 | TensorFlow基础知识

NVIDIA DLI 深度学习入门培训 | 特设三场4月28日/5月19日/5月26日一天密集式学习  快速带你入门阅读全文>挺长的~超出估计值了~预计阅读时间20分钟。从helloworld开始mkdir 1.helloworldcd 1.helloworldvim helloworld.py代码:# -*- coding: UTF-8 -*-# 引入 TensorFlow 库import te

2018-04-17 00:00:00 503

转载 计算机视觉实习面经【微软/阿里/腾讯】

NVIDIA DLI 深度学习入门培训 | 特设三场4月28日/5月19日/5月26日一天密集式训练 快速带你入门深度学习阅读全文>正文共3397个字,1张图,预计阅读时间8分钟。从CVPR出结果之后就开始找人内推,先后面了微软,腾讯,阿里,最后定了腾讯ailab计算机视觉研究员的offer。我的github(欢迎follow):https://github.com/ahangchen简历简历一定

2018-04-16 00:00:00 1013

转载 非对称卷积—Asymmetric Convolutions

NVIDIA DLI深度学习入门培训 | 特设三场4.28/5.19/5.26一天密集式训练  快速带你入门深度学习阅读全文>正文1547个字,1张图,预计阅读时间5分钟。最近拜读了Christian Szegedy的Rethinking the Inception Architecture for Computer Vision,让我开了许多脑洞。不得不承认,现在的深度学习发展太快了,稍不留神,

2018-04-13 00:00:00 7709 1

转载 特设三场!!快来看看 NVIDIA DLI 深度学习入门课程有没来到你的城市~

介绍NVIDIA 深度学习学院聚焦于人工智能和深度学习,致力于在全世界范围内提供支持,解决最具挑战性的问题。通过线上自主学习,或者线下由NVIDIA 认证的讲师来教授的培训课程,我们可以帮助开发者、数据科学家、工程师和研究人员开启训练、优化和部署神经网络,从而解决多种学科方面的现实问题,例如计算机视觉、自然语言处理、自动驾驶、医疗和机器人等。NVIDIA 深度学习培训自2017年三月份在国内开启以

2018-04-12 00:00:00 231

转载 机器学习程序猿在Linux猩球的生存指南

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共3048个字,8张图,预计阅读时间10分钟。一个小程序猿,在一场飞行意外中,坠落到Linux猩球,与家乡Win猩球/Mac猩球的绚丽多彩不同的是:Linux猩球大部分时间都是处于黑暗之中[命令行/Shell界面],因此,大多数时候他只能跟这个黑色的世界进行交互。为了更好的生存下来,他制作了这个

2018-04-12 00:00:00 434

转载 Bagging

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共4133个字,3张图,预计阅读时间10分钟。Bagging是Bootstrap Aggregating的英文缩写,刚接触的童鞋不要误认为bagging是一种算法,Bagging和Boosting都是ensemble learing 中的学习框架,代表着不同的思想。boosting派系,它的特点

2018-04-11 00:00:00 12944

转载 提升有监督学习效果的实战解析

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共6534个字,16张图,预计阅读时间18分钟。前言最近很长时间没有和大家分享东西了,最近一直在忙公司的项目,先说一声抱歉。之前写过销售预估算法,但是被诸多大佬吐槽有监督学习部分毫无深度,其实我是想写给一些刚入门的朋友看的,这边我boss最近也想让我总结一些相对"上档次"的一点的东西,我做了一些

2018-04-10 00:00:00 585

转载 构建并用 TensorFlow Serving 部署 Wide & Deep 模型

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共6912个字,4张图,预计阅读时间18分钟。Wide & Deep 模型是谷歌在 2016 年发表的论文中所提到的模型。在论文中,谷歌将 LR 模型与 深度神经网络 结合在一起作为 Google Play  的推荐获得了一定的效果。在这篇论文后,Youtube,美团等公司也进行了相应的尝试并公

2018-04-06 00:00:00 1004

转载 今日头条面试题:生成随机数(根据rand5()生成rand7())

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共2508个字,1张图,预计阅读时间7分钟。题目描述给你一个能生成1到5随机数的函数,用它写一个函数生成1到7的随机数。 (即,使用函数rand5()来实现函数rand7())。思路rand5可以随机生成1,2,3,4,5;rand7可以随机生成1,2,3,4,5,6,7。 rand5并不能直接

2018-04-04 00:00:00 7858 2

转载 深度学习最常用的学习算法:Adam优化算法

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共6267个字,30张图,预计阅读时间16分钟。听说你了解深度学习最常用的学习算法:Adam优化算法?深度学习常常需要大量的时间和机算资源进行训练,这也是困扰深度学习算法开发的重大原因。虽然我们可以采用分布式并行训练加速模型的学习,但所需的计算资源并没有丝毫减少。而唯有需要资源更少、令模型收敛更

2018-04-03 00:00:00 1834

转载 Spark常用的算子以及Scala函数总结

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共11264个字,7张图,预计阅读时间28分钟。Spark与Scala首先,介绍一下scala语言:Scala 是一种把面向对象和函数式编程理念加入到静态类型语言中的混血儿。为什么学scala?spark提供了R、Python等语言的接口,为什么还要重新学一门新的语言呢?1、spark本身就是用

2018-03-31 00:00:00 2817

转载 表情识别实验

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共988个字,8张图,预计阅读时间3分钟。需要完成的任务内容为:对图片里的人脸进行检测并对其表情进行分类。项目代码地址:代码地址链接(https://github.com/hanghang2333/emotionrecognition)数据简介用的是FER-2013 这个数据库, 这个数据库一共

2018-03-30 00:00:00 2674

转载 问答系统设计的一些思考

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共1415个字,6张图,预计阅读时间4分钟。问答系统通常分为任务型机器人、闲聊机器人和解决型机器人(客服机器人),三者的设计分别针对不同的应用场景。A):任务型机器人主要用于完成用户的某些特定任务,比如:买机票、话费充值或者天气咨询。B):闲聊机器人主要用于深入的和用户进行无目的交流;C):解决

2018-03-29 00:00:00 1854

转载 毫秒级检测!你见过带GPU加速的树莓派吗?

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共13130个字,5张图,预计阅读时间33分钟。树莓派3B+英特尔神经计算棒进行高速目标检测NCS Pi代码:训练数据预处理:https://gist.github.com/ahangchen/ae1b7562c1f93fdad1de58020e94fbdf测试:https://github.c

2018-03-28 00:00:00 15528 1

转载 Word2Vec教程-Skip-Gram模型

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共1930个字,6张图,预计阅读时间5分钟。原文:Word2Vec Tutorial - The Skip-Gram Model(http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/)这篇教程主要讲述了W

2018-03-27 00:00:00 254

转载 文本数据处理的终极指南-[NLP入门]

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共10202个字,13张图,预计阅读时间26分钟。简介实现任何程度或者级别的人工智能所必需的最大突破之一就是拥有可以处理文本数据的机器。值得庆幸的是,全世界文本数据的数量在最近几年已经实现指数级增长。这也迫切需要人们从文本数据中挖掘新知识、新观点。从社交媒体分析到风险管理和网络犯罪保护,处理文本

2018-03-26 00:00:00 1624

转载 神经网络思想建立LR模型(DL公开课第二周答案)

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共6603个字,3张图,预计阅读时间17分钟。LR回顾LR计算图求导算法结构设计一个简单的算法实现判别是否是猫。用一个神经网络的思想建立一个LR模型,下面这个图解释了为什么LR事实上是一个简单的神经网。[图片上传失败...(image-4b2c8b-1515499689320)]Mathemat

2018-03-24 00:00:00 843

转载 ResNet到底深不深?

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共1143个字,4张图,预计阅读时间3分钟。今年5月份的时候,Cornell University的几个人研究了ResNet,发现它所谓的“超深网络”只是个噱头,文章如下:Residual Networks are Exponential Ensembles of Relatively Shal

2018-03-23 00:00:00 445

转载 排序算法对比、总结(Python代码)

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共6126个字,27张图,预计阅读时间16分钟。排序大的分类可以分为两种:内排序和外排序。在排序过程中,全部记录存放在内存,则称为内排序,如果排序过程中需要使用外存,则称为外排序。下面讲的排序都是属于内排序。内排序有可以分为以下几类:1、插入排序:直接插入排序、二分法插入排序、希尔排序。2、选择

2018-03-22 00:00:00 584

转载 关于numpy mean函数的axis参数

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共527个字,1张图,预计阅读时间2分钟。理解多维矩阵的"求和"、"平均"操作确实太恶心了,numpy提供的函数里还有一堆参数,搞得晕头转向的,这里做个笔记,提醒一下自己, 下面是例程import numpy as npX = np.array([[1, 2], [4, 5], [7, 8]]

2018-03-19 00:00:00 1052

转载 Tensorflow中卷积的padding操作

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共975字,2张图,预计阅读时间3分钟。之前一直对tensorflow的padding一知半解,直到查阅了tensorflow/core/kernels/ops_util.cc中的Get2dOutputSizeVerbose函数,才恍然大悟,下面是具体的介绍:实际上tensorflow官方API

2018-03-18 00:00:00 846

转载 关于numpy mean函数的axis参数

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习  快速带你晋级阅读全文>正文共529个字,1张图,预计阅读时间2分钟。理解多维矩阵的"求和"、"平均"操作确实太恶心了,numpy提供的函数里还有一堆参数,搞得晕头转向的,这里做个笔记,提醒一下自己, 下面是例程:import numpy as np X = np.array([[1, 2], [4, 5], [7, 8]

2018-03-17 00:00:00 1649

转载 谈谈Tensorflow的Batch Normalization

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式学习 快速带你晋级阅读全文>正文共4488个字,4张图,预计阅读时间12分钟。tensorflow中关于BN(Batch Normalization)的函数主要有两个,分别是:tf.nn.momentstf.nn.batch_normalization关于这两个函数,官方API中有详细的说明,具体的细节可以点链接查看,关于BN的

2018-03-16 00:00:00 389

转载 Tensorflow的LRN是怎么做的

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式训练 快速带你晋级阅读全文>正文共1699个字,2张图,预计阅读时间5分钟。LRN全称是local response normalization,局部响应归一化,想了解原理的点这个AlexNet(http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-

2018-03-15 00:00:00 984

转载 谈谈Tensorflow的dropout

上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式训练 快速带你晋级阅读全文>正文共2005个字,1张图,预计阅读时间6分钟。Dropout这个概念已经推出4年了,它的详细描述见论文(https://arxiv.org/abs/1207.0580)。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述,但解释的含糊不清,这里呢,我也不打算解释清

2018-03-14 00:00:00 1250

转载 存储Tensorflow训练网络的参数

正文共3565个字,预计阅读时间10分钟。上海站 | 高性能计算之GPU CUDA培训4月13-15日三天密集式训练 带你快速晋级阅读全文>训练一个神经网络的目的是啥?不就是有朝一日让它有用武之地吗?可是,在别处使用训练好的网络,得先把网络的参数(就是那些variables)保存下来,怎么保存呢?其实,tensorflow已经给我们提供了很方便的API,来帮助我们实现训练参数的存储与读取,如果想了

2018-03-13 00:00:00 1289

转载 GoogLeNet的心路历程(四)

正文共1216个字 2张图,预计阅读时间5分钟。今年年初的时候,Szegedy写了GoogLeNet的第三篇续作,如下:[v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,top5 error 3.08%Szegedy读了此论文后,蹦出了结合GoogLeNet与Residual

2018-03-11 00:00:00 383

转载 GoogLeNet的心路历程(三)

正文共2965个字,估计阅读时间10分钟。本文主要介绍GoogLeNet续作二,inception v3。说实话,Szegedy这哥们真的很厉害,同一个网络他改一改就改出了4篇论文,这是其中第3篇,还有个inception v4。[v3] Rethinking the Inception Architecture for Computer Vision,top5 error 3.5%随着Szege

2018-03-10 00:00:00 708

转载 GoogLeNet的心路历程(二)

正文共3862个字,4张图,预计阅读时间10分钟。本文介绍关于GoogLeNet的续作,习惯称为inception v2,如下:[v2] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,top5 error 4.8%这篇文章做出的贡献不是一般的大,它提出了Bat

2018-03-09 00:00:00 389

转载 GoogLeNet的心路历程(一)

正文共2964个字,4张图,预计阅读时间8分钟。这一段时间撸了几篇论文,当我撸到GoogLeNet系列论文的时候,真是脑洞大开!GoogLeNet绝对可以称为已公开神经网络的复杂度之王!每当我看到它那错综复杂的网络图时,心里总有一种说不出的苦涩滋味,我也不知为何。然后,我萌生了一个想法,用自己的语言描述一下GoogLeNet的发展历程和关键技术点,我知道网上已经有很多人总结过GoogLeNet的各

2018-03-08 00:00:00 2743 1

转载 神经网络瘦身:SqueezeNet

正文共1753个字,4张图,预计阅读时间5分钟。今年二月份,UC Berkeley和Stanford一帮人在arXiv贴了一篇文章:SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and(https://arxiv.org/abs/1602.07360)这篇文章做成了许多人梦寐以求的事——压缩神经网络参数。但和以往不同,原作

2018-03-07 00:00:00 555

转载 Kaggle比赛心得

正文共5453个字,5张图,预计阅读时间14分钟。最近参加了两场Kaggle比赛,收获颇多,一直想写篇文章总结一下。接触Kaggle到现在不到一年,比赛成绩一个银牌(5%)一个铜牌(9%),勉强算入门了,跟大神们还有很大的距离。新学期准备找实习面试,整理一下项目经验,于是动笔总结总结参加Kaggle比赛的个人心得体会和技巧。先放一张成绩图和Kaggle个人主页的链接(https://www.kag

2018-03-06 00:00:00 11599 2

转载 上海站 | 高性能计算之GPU CUDA培训

近年来,深度学习和人工智能正在飞速发展,CUDA并行计算平台利用图形处理器GPU的能力,显著提高计算性能。同时,CUDA平台的可编程性和丰富性,让天文学、生物学、化学、物理学、数据挖掘、制造、金融等领域的开发和研究人员加速他们的应用程序,提高工作效率。培训对象LeadAI将携手丽台科技面向各科研院所、高等院校和企事业单位从事GPU CUDA高性能计算领域或感兴趣的相关人员,提供为期三天的培训服务,

2018-03-06 00:00:00 967

转载 Keras同时用多张显卡训练网络

正文共4542个字,预计阅读时间12分钟。Author: Zongwei Zhou | 周纵苇Weibo: @MrGiovanniEmail: zongweiz@asu.eduReferences官方文档:multi_gpu_model(https://keras.io/utils/#multi_gpu_model)以及Google。误区目前Keras是支持了多个GPU同时训练网络,非常容易,但是

2018-03-06 00:00:00 4989

转载 NVIDIA DLI 深度学习培训 | 北京站年后即将开班

介绍NVIDIA 深度学习学院聚焦于人工智能和深度学习,致力于在全世界范围内提供支持,解决最具挑战性的问题。通过线上自主学习,或者线下由NVIDIA 认证的讲师来教授的培训课程,我们可以帮助开发者、数据科学家、工程师和研究人员开启训练、优化和部署神经网络,从而解决多种学科方面的现实问题,例如计算机视觉、自然语言处理、自动驾驶、医疗和机器人等。NVIDIA 深度学习培训自2017年三月份在国内开启以

2018-03-06 00:00:00 228

转载 TensorFlow中的多线程

正文共1699个字,2张图,预计阅读时间5分钟。TensorFlow提供两个类帮助实现多线程,一个是tf.train.Coordinator,另一个是tf.train.QueueRunner。Coordinator主要用来实现多个线程同时停止,QueueRunner用来创建一系列线程。Coordinator根据官方文档,Coordinator主要有三个方法:1、tf.train.Coordinat

2018-03-05 00:00:00 3367

转载 Python 多版本共存问题 2

正文共2550个字,预计阅读时间10分钟。本文主要讨论 多种版本的 Python 模块的共存与调用问题,并尝试给出一种清爽的解决办法。多种版本的Python module?伴随 Python 逐步成为数据科学领域的主力研发语言,越来越多的机器学习库都发布了 Python 版本,包括了著名的 scikit-learn,tensorflow,keras 等。正是由于数据科学近年来在基础算法和计算架构上

2018-03-02 00:00:00 1023

转载 Python 多版本共存问题

正文共2282个字,预计阅读时间10分钟。Python 3和Python 2?自从 Python 发布新的版本 3 以来,就一直是开发者心中的一个纠结。由于 Python 3 并不完全兼容 Python 2的语法,这导致大量的Python 2时代的优秀module在Python 3中无法使用,这些module的开发者自身也感到并没有令人特别激动的理由让自己用Python 3来对module进行重写

2018-02-27 00:00:00 647

转载 请注意,我们要谈谈神经网络的注意机制和使用方法

全文共8099个字,12张图,预计阅读时间20分钟。神经网络中的注意机制(attention mechanism),也被称为神经注意(neural attention)或注意(attention),最近也得到了人们越来越多的关注。在本文中,作者将尝试为不同机制和用例找到共同点,此外还将描述并实现两个软视觉注意(soft visual attention)机制范例。本文作者 Adam Kosiore

2018-02-26 00:00:00 585

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除