python内核死亡的原因_python - Jupyter Notebook内核在编译神经网络时死亡 - SO中文参考 - www.soinside.com...

在使用Jupyter Notebook编译Keras密集神经网络时,遇到内核死亡的问题,主要原因是CUDA内存不足。尝试了numba device.reset()、更换内核、重装conda和jupyter等方法无效。代码块显示了一个包含多层Dense、Dropout和BatchNormalization的网络结构,最后编译模型并报错。
摘要由CSDN通过智能技术生成

在创建和编译keras密集神经网络时,我的jupyter笔记本内核总是死掉。终端给我一个消息,提示它无法分配空间,并且CUDA内存不足。我的GPU(2060 Super)已经多次运行此模型,只是没有在jupyter上运行。我已经做了很多搜索,而没有找到一个切实可行的答案。我尝试过的一些事情是使用numba device.reset()更改内核,并重新安装conda和jupyter,但似乎无济于事。

这里是总是出现错误的代码块:inputs = keras.Input(shape=(69,))

fc1 = keras.layers.Dense(100, activation='relu')(inputs)

d1 = keras.layers.Dropout(0.1)(fc1, training=True)

bn1 = keras.layers.BatchNormalization()(d1)

fc2 = keras.layers.Dense(150, activation='relu')(bn1)

d2 = keras.layers.Dropout(0.1)(fc2, training=True)

bn2 = keras.layers.BatchNormalization()(d2)

fc3 = keras.layers.Dense(200, activation='relu')(bn2)

d3 = keras.layers.Dropout(0.1)(fc3, training=True)

bn3 = keras.layers.BatchNormalization()(d3)

fc4 = keras.layers.Dense(120, activation='relu')(bn3)

d4 = keras.layers.Dropout(0.1)(fc4, training=True)

bn4 = keras.layers.BatchNormalization()(d4)

fc5 = keras.layers.Dense(60, activation='relu')(bn4)

bn5 = keras.layers.BatchNormalization()(fc5)

outputs = keras.layers.Dense(2, activation='softmax')(bn5)

model = keras.Model(inputs, outputs)

model.summary()

model.compile(optimizer="adam", loss="sparse_categorical_crossentropy", metrics=["accuracy"])

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值