一、认知计算
人类感知的低级形式:强度感知、感觉、构型、转换、事件。 高级形式:关系、范畴、序列、程序、原理、系统。
二、深度学习
Theano 是著名的Python-GPU 运算库,支持GPU运算,大大提高了Deep Learning 的运算效率而闻名业界。Theano实现的Deep Learning 模型包括:多层感知器、卷积神经网络(LeNet)、深度置信网络、混合蒙特卡罗抽样、递归神经网络(RNN)、情感分析的LSTM网络、压缩自动编码器、RNN-RBM网络等。为了使机器支持GPU运算,需要两大系统:Visual Studio 开发平台和Cuda驱动工具包。
卷积神经网络(CNN)实现代码:
# -*- coding: utf-8 -*-
"""
This tutorial introduces the multilayer perceptron using Theano.
A multilayer perceptron is a logistic regressor where
instead of feeding the input to the logistic regression you insert a
intermediate layer, called the hidden layer, that has a nonlinear
activation function (usually tanh or sigmoid) . One can use many such
hidden layers making the architecture deep. The tutorial will also tackle
the problem of MNIST digit classification.
.. math::
f(x) = G( b^{(2)} + W^{(2)}( s( b^{(1)} + W^{(1)} x))),
References:
- textbooks: "Pattern Recognition and Machine Learning" -
Christopher M. Bishop, section 5
"""
__docformat__ = 'restructedtext en'
import os
import sys
import time
import numpy
import theano
import theano.tensor as T
from logistic_sgd import LogisticRegression, load_data
class HiddenLayer(object):
def __init__(self, rng, input, n_in, n_out, W=None, b=None, activation=T.tanh):
"""
注释:
这是定义隐藏层的类,首先明确:隐藏层的输入即input,输出即隐藏层的神经元个数。输入层与隐藏层是全连接的。
假设输入是n_in维的向量(也可以说时n_in个神经元),隐藏层有n_out个神经元,则因为是全连接,
一共有n_in*n_out个权重,故W大小时(n_in,n_out),n_in行n_out列,每一列对应隐藏层的每一个神经元的连接权重。
b是偏置,隐藏层有n_out个神经元,