Mask_RCNN模型自训练数据,搭建指南(win10,pycharm,TensorFlow)

Mask_RCNN模型自训练数据,搭建指南(win10,pycharm,TensorFlow)
1.安装Anconda环境(请自行百度安装)
2.创建一个Anconda虚拟环境

conda create -n Tensorflow_envs python=3.6

3.打开PyCharm
4.源代码下载

git clone https://github.com/matterport/Mask_RCNN.git

5.安装环境依赖

pip install –r requirements.txt

如果安装不成功的话,请加上豆瓣源或者其他源

pip install –r requirements.txt -i https://pypi.douban.com/simple

6.下载预训练模型

https://github.com/matterport/Mask_RCNN/releases

7.安装pycocotools

pip install pycocotools -i https://pypi.douban.com/simple

8.安装jupyter

pip install jupyter -i https://pypi.douban.com/simple

9.运行Mask_RCNN项目下的/samples/demo.ipynb,如果能够运行说明环境基本上搭建完成了,基本上到这一步都没有什么问题。

关键在于训练自己的数据集(关键点)

1

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyCharm中使用TensorFlow进行神经网络数据并行化,可以使用TensorFlow的分布式策略(tf.distribute.Strategy)。tf.distribute.Strategy可以帮助我们轻松地实现数据并行化,使每个设备(CPU或GPU)都可以同时训练神经网络的一部分。 下面是一个简单的例子,演示如何在PyCharm中使用tf.distribute.Strategy进行数据并行化: 1. 导入必要的库 ``` import tensorflow as tf from tensorflow.keras import layers ``` 2. 定义模型 ``` def create_model(): model = tf.keras.Sequential([ layers.Dense(64, activation='relu', input_shape=(784,)), layers.Dense(10, activation='softmax') ]) return model ``` 3. 定义分布式策略 ``` strategy = tf.distribute.MirroredStrategy() ``` 4. 在分布式策略下编译模型 ``` with strategy.scope(): model = create_model() model.compile(loss='categorical_crossentropy', optimizer=tf.keras.optimizers.SGD(), metrics=['accuracy']) ``` 5. 加载数据并进行训练 ``` (train_images, train_labels), (test_images, test_labels) = tf.keras.datasets.mnist.load_data() train_images = train_images.reshape((60000, 784)).astype('float32') / 255 test_images = test_images.reshape((10000, 784)).astype('float32') / 255 train_labels = tf.keras.utils.to_categorical(train_labels, 10) test_labels = tf.keras.utils.to_categorical(test_labels, 10) model.fit(train_images, train_labels, epochs=10, batch_size=64) ``` 在这个例子中,我们使用了MirroredStrategy,这个策略会在所有可用的设备上复制模型,并在每个设备上训练不同的批次。如果你的机器只有一个GPU,那么它将会复制模型到这个GPU上,并在这个GPU上训练不同的批次。如果你的机器有多个GPU,那么它将会在每个GPU上复制模型,并在每个GPU上训练不同的批次。 在训练时,我们只需要像普通的Keras模型一样调用fit方法即可。tf.distribute.Strategy会自动将数据分发到所有的设备上,并将训练结果进行聚合。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值