面对性侵或性骚扰,人工智能可以怎么做

640?wx_fmt=gif

智造观点

最近几个月,性侵害问题频发。不管是刘强东在美涉嫌性侵女大学生,还是滴滴顺风车司机奸杀乘客,亦或是去年发生的红黄蓝幼儿园老师猥亵儿童事件,种种迹象表明,这类问题正逐渐蔓延到各个领域,成为各个阶层,各个年龄段的人都可能会遇到的危险。

 

此外,这种危险除了存在于实际生活场景外,网络世界也时常出现性侵害事件。为了解决这一系列的问题,人工智能技术解决方案的出现,或许能够为儿童以及女性这类群体提供更多的保护。


文/未末末

来源/人工智能观察(ID:Aiobservation)


70年代的时候,“性骚扰”一词逐渐出现在了人们的生活中,但此前,性骚扰行为就已经成为了很大的问题,不仅仅出现在真实的生活场景中,虚拟世界更是为犯罪者们提供了一个相对安全的空间。我们都知道,每秒钟,网络上都会生成大量的文字或者影像内容,但内容是不是规范、算法会不会对内容有所偏见,这都是令科技巨头们十分头疼的问题。

 

就像前些日子,美国总统川普抱怨谷歌搜索输入“Trump News”结果都是负面报道,而对于Twitter审查保守派言论的行为,直言称,Twitter正在控制我们什么能看,什么不能看。另外,色情影像问题,特别是针对儿童的,近年来也日趋严重。对此,不少英国媒体已经开始呼吁政府采取行动解决这些问题。当然,不管是科技巨头还是初创企业,也都纷纷献出自己的一臂之力,希望提出的AI解决方案,能起到一定的效果。


网络性侵事件频出,儿童或为重灾区


网络世界总是虚幻的,上面充斥着各种各样的信息和内容。究竟儿童色情在网络世界有多严重?英国国家家打击犯罪调查局(National Crime Agency)在周一时表示,仅仅在2017年,英国就有八万多人在网络上对儿童构成某种性威胁,而这样的情况在过去五年内增加了七倍之多,10岁以下的儿童受害的比例也激增。为什么会出现这种情况呢?

640?wx_fmt=png

在小智君(ID:Aiobservation)看来,关于儿童网络内容的恶化,与手机装置的功能发展以及直播平台的兴起有很大关系。具体来说,除了传统的儿童生活影像,近年来“直播式虐童”事件时有发生,且比例不断攀升。此前,这类内容较多存在于暗网(Dark Web)中,而现在,只需一台手机,连接网络,登陆直播平台,就可以实现大范围的传播。根据英国国家打击犯罪调查局的统计数据,2017年平均每天有近15名儿童在网络上受虐。

 

也正因为如此,英国广播公司(BBC)、英国独立电视台(ITV)、第四频道(Channel 4)等主流媒体近日联合呼吁,政府当局应设立一个独立监管机构,来解决儿童性威胁、性骚扰等网络问题。在他们看来,在没有任何第三方监管的状态下,指望网络巨头对内容做出正确的判断,既不现实也不适合,因为这不是网络审查。

 

当然,除了网络性侵外,最常见的另一种对女性的威胁便是办公室性骚扰。对于经常使用Slack、Skype或者计算机的人来说,网络性骚扰时有发生。虽然线上发生的事情可以截图保留内容,但根据美国平等就业机会委员会的统计,工作场所中75%的性骚扰事件没有报告,因为大多数报告事件的个人会遭到某种报复。在这种情况下,人工智能就成为了一项优先采用的解决方案,通过自动识别相关语言、图片、视频等内容,报告此类问题,对受到骚扰的人提供支持。


谷歌推AI工具,避免儿童受进一步侵犯


随着网络儿童性侵害的争议不断发酵,英国内政部长赛义德·贾维德(Sajid Javid)公开表示:“这类威胁的发展比业界回应速度还要快,简直跟不脚步。我对谷歌、Facebook、微软、苹果、Twitter在反恐方面进展印象深刻,但他们现在必须在防止儿童性侵害上,作出同等程度的努力才可以。”同时,英国当局本周发出警告,如果这些网络巨头不能好好处理网络儿童性侵害问题,未来将面临严重惩罚。


在这种情况下,谷歌宣布推出一个“内容安全应用程序界面“(Content Safety API),通过深层神经网络来处理图片,以便更有效率地审查可能违规的内容

640?wx_fmt=jpeg

实际上,这种结合人工智能的工具早已不稀奇,但它们都是以已被识别出的违规数据库为基础,进行相应内容检测,比如由微软开发的工具PhotoDNA,被应用于Facebook和Twitter上,算是一个比较有效率的方式,去阻止与已知的色情图片类似内容的传播。

 

它也不是完美的,一旦遇到没有标记过的内容(比如新的性侵害形式),就可能就会出现无法识别的情况,这时候就需要人类审查员的介入。而这样的痛点,正是谷歌新AI工具要解决的。据了解,通过机器视觉(machine vision),这个新工具可以协助审查员分类影像和标签,将可能出现的违规内容按优先顺序进行排列,加快审查员的效率。

 

根据谷歌官方的说法,这项AI工具可以帮助人类审查员移除比平常多700%的违规内容,能让人力审查团队的工作更有效率。当然,快速识别新图片,意味着涉及有关性侵害的图片等内容,可以更大程度上被识别出来,以帮助他们免受进一步的侵犯。


创业公司投身AI研究,打击工作中的性骚扰


而对于工作中的性骚扰,不少初创企业开始发力解决这一问题。


举个例子,去年12月,总部位于蒙特利尔的Botler.ai宣布推出一项新的服务,帮助性骚扰受害者确定自己是否被侵犯,以及发生在他们身上的事情是否符合美国或加拿大的刑法。据了解,该机器人使用了自然语言处理来确定某一事件是否可以被归类为性骚扰或其他形式的性犯罪

 

当然,他们的目标不是告诉人们是否可以在法庭上胜诉,而是赋予女性权力以法律理论的基础。如果用户想要将事件报告给适当的机构,无论是警察还是其他工作人员,机器人都可以生成事件报告。不过遗憾的是,该性骚扰侦测机器人还没有经过广泛的测试。

640?wx_fmt=jpeg

另一个关于打击性骚扰的例子,是Callisto,这是一个诞生于2015年的公益性的App,最初主要用于校园里的性骚扰和性侵犯匿名报告。截至2017年底,它已被13所大学采用,包括旧金山大学和斯坦福大学。目前,这个平台正在走出校园,因为被Y Combinator孵化器看中,已经进入了同样性骚扰频发的硅谷。

 

实际上,Callisto是一个将每个受害者连起来的APP。在受到性骚扰或者性侵害后,受害者可以在软件里报告该事件,受害者和施害人的信息都将被加密储存,直到施害者的下一次“出手” 被报告。此时,Callisto会联系到每一位受害者,为他们提供解决方案——提起诉讼,或者向人力资源报告,也会帮助受害者之间互相联系。

 

其创始人Ladd表示,自Callisto推出以来,统计数据显示,参与的学校已经注意到受害者报告侵害事件所需的时间在明显减少——从平均在事件发生后的11个月到事发后4个月,另外管理方对屡犯者的识别能力也有所提高。


AI助手识别关联词,可干预现实生活


尽管从现在的情况来看,人工智能在虚拟环境中可能更为有效,但它也并不只局限于该领域。从现有的人工智能技术和应用来看,他们可以帮助识别公开对话中的性骚扰行为,包括像亚马逊的数字助理Alexa,已经能够识别出某些相关的单词或短语。

 

小智君(ID:Aiobservation)认为,随着科技巨头们不断对其数字助理等AI工具进行重新编程和规划,未来我们可以期待它们可以通过无偏见的编程来监督某些不恰当的行为,至少在工作场所里可以实现。虽然现在大多数公司已经开始使用视频监控,并提供书面的反性越轨政策(anti-sexual misconduct policies ),但AI助手可能是在员工报告之前识别行为不端者的第一步。比如,如果人工智能可以接收触发词或短语,它就可以在发生骚扰时立即对雇主做出提醒。

 

但我们不得不承认的是,它在隐私方面会存在一定的局限性,尽管这些设备在保护工作、生活空间的同时,还能通过有效识别事件和简化报告技术节省时间。

(文中图片来自网络)

近期热文:

无人船也要来了!“陆海空”终将全部进入自驾模式

虚拟助手之争,智能音箱能否挑战智能手机?

Waymo被曝发展艰难,“由爱生恨”的自动驾驶将开向哪里

CB Insights:全面拆解谷歌AI战略布局

超级大国之外的竞争,人工智能进入“国别化”发展

全球智慧城市将达上千个,但66%的人却不想住,为何?

口音成语音识别发展最大公敌,新解决方案正在开发中

三个最新案例,带你了解AI如何让美妆产业智能化

媒体误读夸大,科学家发文辟谣,AI妖魔化的锅谁来背?

640?wx_fmt=png

投稿、约访、合作,联系邮箱aiobservation@qq.com

添加微信aixiaozhijun,更多交流或进AI观察团

640?wx_fmt=gif
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值