import keras
from keras.models import Sequential
from keras.layers import Dense,Dropout,Activation
from keras.optimizers import SGD
import tensorflow as tf
import numpy as np
# 如果使用GPU版TensorFlow,并且在显卡高占用率的情况下训练模型,
# 那要在初始化Session时为其分配固定数量的显存,否则可能会在开始训练的时候直接报错退出
def get_session():
""" Construct a modified tf session.
"""
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
return tf.Session(config=config)
keras.backend.tensorflow_backend.set_session(get_session())
# 生成虚拟数据
# np.random.random((1000,20)) 生成(1000,20)的随机数
# np.random.randint(10,size=(1000,1)) 生成的维度为(1000,1),数值范围在[0, 10)区间内
x_train = np.random.random((1000,20))
y_train = keras.utils.to_categorical(np.random.randint(10,size=(1000,1)),num_classes=10)
x_test = np.random.random((100,20))
y_test = keras.utils.to_categorical(np.random.randint(10,size=(100,1)),num_classes=10)
# Dense(64) 是一个具有 64 个隐藏神经元的全连接层。
# 在第一层必须指定所期望的输入数据尺寸:
# 在这里,是一个 20 维的向量。
model = Sequential()
model.add(Dense(64,activation='relu',input_dim=20))
model.add(Dropout(0.5))
model.add(Dense(64,activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10,activation='softmax'))
sgd = SGD(lr=0.01,decay=1e-6,momentum=0.9,nesterov=True)
model.compile(loss='categorical_crossentropy',optimizer=sgd,metrics=['accuracy'])
model.fit(x_train,y_train,epochs=20,batch_size=100)
score = model.evaluate(x_test,y_test,batch_size=10)
print('the mlp model mAP {}'.format(score))