centos下搭建open_nsfw

服务器yum源为阿里源

open nsfw是雅虎开源的一款开源的黄图识别的模型。
nsfw翻译为不可在工作中看的图片。主要是针对黄图的,恐怖,血腥图片不能识别。
在centos7.2搭建open nsfw的环境

1.安装依赖

sudo yum -y install protobuf-devel leveldb-devel snappy-devel opencv-devel boost-devel hdf5-devel

sudo yum -y install gflags-devel glog-devel lmdb-devel

sudo yum -y install liblas-devel atlas-devel

sudo yum -y install openblas-devel

sudo yum -y install python-devel python-pip

2.安装caffe
cd /home
wget https://github.com/BVLC/caffe/archive/1.0.tar.gz

tar zxvf 1.0.tar.gz

cd /home/caffe-1.0/python/

for req in $(cat requirements.txt);do pip install req; done

cd /home/caffe-1.0

cp Makefile.config.example Makefile.config

vi Makefile.config

因为是虚拟机,这里cpu 模式,所以需要吧CPU_ONLY:=1前面的注释去掉

CPU_ONLY := 1

对于CentOS7,没有libatlas-base-dev这个包,那么可以通过修改编译参数使用openblas解决

修改前
BLAS := atlas
修改后
BLAS := open

修改配置文件完毕后开始编译
make pycaffe
make all

报错:/usr/lib64/libpangoft2-1.0.so.0: undefined reference to `g_log_structured_standard’

解决方法:sudo yum -y update glib2

make test

make runtest

export PYTHONPATH=/home/caffe-1.0/python:$PYTHONPATH

python

报错:ImportError: No module named numpy

解决方法:sudo yum -y install numpy

报错:ImportError: No module named skimage.io

解决方法:sudo yum -y install python2-scikit-image

报错:ImportError: No module named matplotlib

解决方法:sudo yum -y install python-matplotlib

报错:ImportError: No module named google.protobuf.internal

解决方法:pip install protobuf

3安装open nsfw

cd /home/

sudo yum -y install git

git clone https://github.com/yahoo/open_nsfw
cd open_nsfw

mkdir image

放几张图片到image目录下

python ./classify_nsfw.py --model_def nsfw_model/deploy.prototxt --pretrained_model nsfw_model/resnet_50_1by2_nsfw.caffemodel ./image/11.jpg

三张图片的数值分别是:

NSFW score: 0.943383216858

NSFW score: 0.765072345734

NSFW score: 0.446755349636

socre < 0.2 很安全
score >= 0.2 && score <= 0.8 介于色情与安全之间
score > 0.8 很大可能性是色情

github上的一些开源数据集:
https://github.com/EBazarov/nsfw_data_source_urls
https://github.com/alexkimxyz/nsfw_data_scraper
保重身体。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用:网络需要在图像和输出概率(评分0-1)之间过滤不适合工作的图片。评分<0.2表示图像具有较高概率是安全的。评分>0.8表明极有可能是不适合工作(NSFW)图像。我们建议开发者根据用例和图像类型的不同选择合适的阈值。根据使用情况、定义以及公差的不同会产生误差。理想情况下,开发人员应该创建一个评价集,根据“什么是安全的”对他们的应用程序进行定义,然后适合ROC曲线选择一个合适的阈值。结果可以通过微调你的数据/ uscase /定义NSFW的模型的改进。我们不提供任何结果的准确性保证。使用者适度地结合机器学习解决方案将有助于提高性能。模型描述:我们将不适合工作的图片(NSFW)作为数据集中的积极对象,适合工作的图片作为消极对象来进行训练。所有这些被训练得图片都被打上了特定的标签。所以由于数据本身的原因,我们无法发布数据集或者其他信息。我们用非常不错的名字叫“CaffeOnSpark”的架构给“Hadoop”带来深度学习算法,并且使用Spark集群来进行模型训练的实验。在此非常感谢 CaffeOnSpark 团队。深度模型算法首先在 ImageNet 上生成了1000种数据集,之后我们调整不适合工作(NSFW)的数据集比例。我们使用了50 1by2的残差网络生成网络模型。模型通过 pynetbuilder 工具以及复制残余网络的方法会产生50层网络(每层网络只有一半的过滤器)。你可以从这里获取到更多关于模型产生的信息。更深的网络或者具有更多过滤器的网络通常会更精确。我们使用剩余(residual)网络结构来训练模型,这样可以提供恰到好处的精确度,同样模型在运行以及内存上都能保持轻量级。 标签:opennsfw

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值