拯救尴尬:鉴黄神器NSFW JS开源了!

近日,GitHub上开源了一款鉴定不雅内容的js库NSFW JS,你可以使用NSFW JS识别不雅内容,所有操作都只在客户端进行,甚至都不需要让文件离开用户的电脑。

演示地址:https://nsfwjs.com/

项目地址:https://github.com/infinitered/nsfwjs

你有没有过这样的经历,在睡觉之前看了一些东西,然后在闭上眼睛时那些东西仍然历历在目?我说的可不是那种甜蜜的美梦,而是那种被你的老板看到后会让你卷铺盖走人的东西。

用户的输入可能会很恶心。我的一个朋友之前开了一家网店,居然可以允许用户输入负的数。一些恶意用户会购买一件50美元的衬衫,然后再加上负一件40美元的衬衫,从而达到打折的效果!纠正用户输入的数字是很容易的,但如果是图片呢?那是不可能的!

机器学习正在做着令人惊叹的事情,现在已经开始进入JavaScript领域,那些令人惊叹的事情无处不在。

NSFW JS NPM模块

我可以用一整章的内容来介绍NSFW JS内部原理,但还是让我们来关注它的功能吧。

给NSFW JS一张图片元素或画布,然后简单地调用classify,可能会得到如下5个分类结果。

  • 绘画(Drawing)——无害的艺术,或艺术绘画;

  • 变态(Hentai)——色情艺术,不适合大多数工作环境;

  • 中立(Neutral)——一般,无害的内容;

  • 色情(Porn)——不雅的内容和行为,通常涉及生殖器;

  • 性感(Sexy)——不合时宜的挑衅内容。

每个分类都有一个概率!基于这些数字和分类,你可以采取行动或者只是目瞪口呆。

\"\"

为什么要用它?

大公司一般都有专门的团队专注于消除令人反感的内容,但我们一般享受不到这种奢侈。就像客户端的表单验证可以减少服务器端的工作量一样,客户端的内容检查也可以减少团队的工作量。

场景1:

想象一下,当用户要上传淫秽图像时,他们会立即收到这样的消息:“抱歉!这张图片的一些内容已经触发了内容警告。你仍然可以上传图片,但不会立即可用,需要通过人工审核后才会生效”。用户看到这条消息后可能会放弃上传。

场景2:

它也可以用于用户到用户的保护。在从别人那里接收消息时,可能会收到警告,告知他们要查看的内容是不是适合。如果可以查看,它会在显示之前进行确认,而这些是在没有服务器处理的情况下完成的!

随着用户上传内容的合法性变得越来越重要,我们需要更大更好的工具来保证优质网站的畅通。

如何使用它?

这很简单,基本上包含三个步骤:

1.获取代码;

2.在客户端加载模型;

3.对图像进行分类。

1. 获取代码

我将向你展示Node风格的用法。首先,我们需要引入NSFW JS。如果项目中尚未包含TensorflowJS,请先获取它。

\"\"

现在,我们可以在JS文件中导入Node模块:

// Classic import styleimport * as nsfwjs from 'nsfwjs'// or just use require('nsfwjs')

2. 在客户端加载模型

接下来我们需要做的是加载模型。这个“模型”是用来评估图像的函数。可以在这里下载它们。这些文件是4MB大小的分片,便于在客户端进行缓存。在我的示例中,我将它们放在public/model/文件夹中。

\"\"

如果你的目录也一样,那么可以使用这个路径来加载模型。

// Load files from the server to the client!const model = await nsfwjs.load('/model/')

3. 对图像进行分类

现在,模型已经存在于客户端的内存中,我们可以对页面上的图像元素进行分类。

// Gimme that imageconst img = document.getElementById('questionable_img')// Classify the imageconst predictions = await model.classify(img)// Share resultsconsole.log('Predictions: ', predictions)

预测(默认情况下)将返回5个分类结果,按照最可能到最不可能的顺序排列!例如:

[  {className: “Drawing”, probability: 0.9195643663406372},  {className: “Hentai”, probability: 0.07729756087064743},  {className: “Porn”, probability: 0.0019258428364992142},  {className: “Neutral”, probability: 0.0011005623964592814},  {className: “Sexy”, probability: 0.00011146911856485531}]

所有概率的总和应该加起来等于1或100%。现在,你可以基于这些数据做你想做的事情!标记超过60%的东西,或者只用最前面那个,把其余的忽略掉。

误报

作为人类,你可能经过了几十年的图像识别训练。所以可以肯定地说,你肯定会遇到一些很明显的误报。虽然这些通常很有趣,但结果中也会出现少量的数据偏差。随着数据清洗技术的改进,这些偏差将被消除。这是一个缓慢的过程。

对于像NSFW这样的东西,我觉得出现误报总比出现漏网之鱼更好。

动手演示

需要注意的是,NSFW可能会发生误报,但这个模型每天都在不断改进。因为是开源的,所以我希望大家一起帮助改进它!

\"\"

英文原文:
https://shift.infinite.red/avoid-nightmares-nsfw-js-ab7b176978b1

更多内容,请关注前端之巅。

\"\"

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在C#中使用NSFWSPY进行鉴黄检测,你可以按照以下步骤进行操作: 1. 首先,你需要安装NSFWSPY NuGet包。在Visual Studio中,右键点击你的项目,选择"Manage NuGet Packages",然后搜索并安装NSFWSPY。 2. 导入必要的命名空间: ```csharp using NSFWSPY; using System.IO; ``` 3. 加载模型并创建NSFWSPY实例: ```csharp var modelFilePath = "path/to/nsfw_model.pb"; var threshold = 0.6f; // 设置鉴黄的阈值 var nsfwSpy = new NSFWSPY.NSFWSPY(modelFilePath, threshold); ``` 请确保将`modelFilePath`替换为你实际的NSFW模型文件的路径,并根据需要调整阈值。 4. 对图像进行鉴黄检测: ```csharp var imagePath = "path/to/image.jpg"; using (var imageStream = File.OpenRead(imagePath)) { var result = nsfwSpy.Classify(imageStream); Console.WriteLine($"NSFW Score: {result.NSFWScore}"); Console.WriteLine($"SFW Score: {result.SFWScore}"); Console.WriteLine($"Is NSFW: {result.IsNSFW}"); } ``` 请将`imagePath`替换为要进行鉴黄检测的图像文件的路径。 5. 运行代码并查看结果。`result.NSFWScore`表示图像被判定为不安全的分数,`result.SFWScore`表示图像被判定为安全的分数,`result.IsNSFW`表示是否被判定为不安全。 请注意,NSFWSPY是基于TensorFlow实现的,因此你需要在项目中包含正确的TensorFlow库文件。此外,确保你使用的模型文件与NSFWSPY库兼容。 希望这可以帮助你使用NSFWSPY进行鉴黄检测。如果你有任何其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值