认知计算与深度学习

本文探讨了认知计算的不同层次,从低级的感知到高级的理解,并深入介绍了深度学习领域,特别是Theano库在实现多层神经网络模型,如卷积神经网络(CNN)和递归神经网络(RNN)中的应用,以及利用GPU加速学习过程的重要性。
摘要由CSDN通过智能技术生成

一、认知计算

       人类感知的低级形式:强度感知、感觉、构型、转换、事件。 高级形式:关系、范畴、序列、程序、原理、系统。

    

      二、深度学习

      Theano 是著名的Python-GPU 运算库,支持GPU运算,大大提高了Deep Learning 的运算效率而闻名业界。Theano实现的Deep Learning 模型包括:多层感知器、卷积神经网络(LeNet)、深度置信网络、混合蒙特卡罗抽样、递归神经网络(RNN)、情感分析的LSTM网络、压缩自动编码器、RNN-RBM网络等。为了使机器支持GPU运算,需要两大系统:Visual Studio 开发平台Cuda驱动工具包

      

     卷积神经网络(CNN)实现代码:

# -*- coding: utf-8 -*-
"""
This tutorial introduces the multilayer perceptron using Theano.

 A multilayer perceptron is a logistic regressor where
instead of feeding the input to the logistic regression you insert a
intermediate layer, called the hidden layer, that has a nonlinear
activation function (usually tanh or sigmoid) . One can use many such
hidden layers making the architecture deep. The tutorial will also tackle
the problem of MNIST digit classification.

.. math::

    f(x) = G( b^{(2)} + W^{(2)}( s( b^{(1)} + W^{(1)} x))),

References:

    - textbooks: "Pattern Recognition and Machine Learning" -
                 Christopher M. Bishop, section 5

"""
__docformat__ = 'restructedtext en'


import os
import sys
import time
import numpy
import theano
import theano.tensor as T
from logistic_sgd import LogisticRegression, load_data

class HiddenLayer(object):
    def __init__(self, rng, input, n_in, n_out, W=None, b=None, activation=T.tanh):
        """
        注释: 
        这是定义隐藏层的类,首先明确:隐藏层的输入即input,输出即隐藏层的神经元个数。输入层与隐藏层是全连接的。 
        假设输入是n_in维的向量(也可以说时n_in个神经元),隐藏层有n_out个神经元,则因为是全连接, 
        一共有n_in*n_out个权重,故W大小时(n_in,n_out),n_in行n_out列,每一列对应隐藏层的每一个神经元的连接权重。 
        b是偏置,隐藏层有n_out个神经元,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值