机器学习
文章平均质量分 80
草棚
Github:https://github.com/pengcao
Email:deamoncao@163.com
展开
-
从谷歌流感趋势(GFT)出错看大数据发展之路
如今,包括电视在内的许多媒体,都有“大数据分析”相关的一些栏目,大数据的概念也正在悄悄进入普通老百姓的意识中。我最早接触大数据应用的时候,被其中的一个重要案例所吸引,那就是谷歌与甲型H1N1流感的传奇故事。我们不得不佩服谷歌公司的眼光,从其诞生之日,谷歌就保存了用户所有的搜索记录,其他许多公司是不是将这些数据都当做垃圾扔掉了?你以为你在用谷歌搜索呀,其实谷歌也在搜索你!谷歌知道了我们在什么地方、什转载 2015-05-31 10:48:09 · 10300 阅读 · 0 评论 -
人工智能安全标准规范制定情况
人工智能安全、伦理、隐私保护等的安全相关 标准,大多仍处于研究阶段。国外 IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计 。2017 年 3 月, IEEE 在《IEEE 机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的 IEEE 全球倡议书”,倡议通过基于伦理的设计原则和标准帮助人们避免对人工智能技术的恐惧和盲目崇拜,从而推动人...原创 2019-06-30 10:25:09 · 2494 阅读 · 1 评论 -
When deep learning meets security
深度学习是一个新兴的研究领域,已经证明了它在部署更多方面的有效性高效的智能系统。另一方面,安全是现代信息化建设中最重要的问题之一。最近很多论文都表明使用深度学习模型可以实现应用于安全领域。现对这些研究成果进行总结,本文总结了其中的9个应用如下所示:(1)Tobiyama提出一种基于进程行为进行恶意进程检测到方法,研究人员利用LSTM(Long Short-Term Me...翻译 2019-06-30 10:39:08 · 448 阅读 · 0 评论 -
对抗攻击的防御技术
目前针对对抗攻击的防御技术主要分三个方向:改训练过程/ 输入数据、修改网络、使用附加网络。一改训练过程/ 输入数据1.1 蛮力对抗训练 通过不断输入新类型的对抗样本并执行对抗训练,从而不断提升网络的鲁棒性。为了保证有效性,该方法需要使用高强度的对抗样本,并且网络架构要有充足的表达能力。这种方法需要大量的训练数据,因而被称为蛮力对抗训练。很多文献中提到这种蛮力...翻译 2019-06-30 11:14:16 · 3882 阅读 · 0 评论 -
联邦学习如何在隐藏隐私的世界中塑造人工智能的未来
联邦学习不是从用户那里收集数据来训练数据集,而是大批量地在移动设备上训练AI模型,然后将这些学习转移回全局模型,而不需要数据离开设备。 作为Facebook上个月流行的深度学习框架PyTorch的最新版本的一部分,该公司的AI研究小组推出了Secure and Private AI,这是一个免费的为期两个月的Udacity课程,讲授使用加密计算,差异隐私和联邦...翻译 2019-07-07 09:54:10 · 535 阅读 · 0 评论 -
自动化系统问题:算法偏差
关于自动驾驶汽车的担忧列表变得越来越长。除了担心他们是多么安全,他们如何处理道路上棘手的道德权衡,以及他们如何使交通变得更糟,我们还需要担心他们如何伤害有色人种。 根据乔治亚理工学院的一项新研究,如果你是一个皮肤黝黑的人,你可能比白人朋友更容易受到自动驾驶汽车的打击。这是因为自动车辆可以更好地检测出肤色较浅的行人。 该研究的作者首先提出了一个简单的问题...翻译 2019-07-07 10:02:41 · 1938 阅读 · 0 评论 -
GyoiThon-基于机器学习的渗透测试工具
GyoiThon是一款基于机器学习的渗透测试工具。GyoiThon根据学习数据识别安装在Web服务器上的软件(操作系统,中间件,框架,CMS等)。之后,GyoiThon为已识别的软件执行有效的攻击。最终,GyoiThon会自动生成扫描结果报告。上述处理均由GyoiThon自动执行。流程如下所示:第1步:收集HTTP响应 GyoiThon在抓取时会收集目标网站的...转载 2019-07-07 14:58:48 · 946 阅读 · 0 评论 -
深度学习中的隐私保护技术综述
摘要:如今机器学习以及深度学习在各个领域广泛应用,包括医疗领域、金融领域、网络安全领域等等。深度学习的首要任务在于数据收集,然而在数据收集的过程中就可能产生隐私泄露的风险,而隐私泄露将导致用户不再信任人工智能,将不利于人工智能的发展。本文总结了目前在深度学习中常见的隐私保护方法及研究现状,包括基于同态加密的隐私保护技术、差分隐私保护技术等等。1 研究背景1.1 隐私泄露风险 ...转载 2019-07-21 20:28:05 · 17344 阅读 · 0 评论 -
XAI-可解释的人工智能
机器学习的巨大成功导致了大量的人工智能(AI)应用程序。持续的进步有望产生能够自我感知,学习,决定和行动的自主系统。然而,这些系统的有效性受到机器当前无法向人类用户解释其决策和行动的限制(上图)。国防部(DoD)面临着需要更智能,自主和共生系统的挑战。如果未来的战士能够理解,适当地信任并有效地管理新一代的人工智能机器合作伙伴,那么可解释的人工智能 - 特别是可解释的机器学...翻译 2019-07-08 23:17:24 · 8010 阅读 · 0 评论 -
AI安全---对抗攻击防御措施
目前,在对抗攻击防御上存在三个主要方向:1)在学习过程中修改训练过程或者修改的输入样本。2)修改网络,比如:添加更多层/子网络、改变损失/激活函数等。3)当分类未见过的样本时,用外部模型作为附加网络。1.改训练过程/ 输入数据1 蛮力对抗训练通过不断输入新类型的对抗样本并执行对抗训练,从而不断提升网络的鲁棒性。为了保证有效性,该方法需要使用高强度的对抗样本,并且网络架构要有充足的...原创 2019-06-02 14:33:06 · 3762 阅读 · 0 评论 -
【机器学习】分布式云端机器学习
本文由来自微软云端及信息服务实验室(CISL)与微软研究院的Dhruv Mahajan, Sundararajan Sellamanickam和Keerthi Selvaraj等研究员共同撰稿。 来自不同行业的企业们正在积累着海量宝贵的数据资源,如用户登陆行为、系统访问、使用习惯等不一而足。这些企业从包括微软云在内的云端服务平台受益无穷—不仅能够掌握这些数翻译 2015-05-31 12:55:03 · 826 阅读 · 0 评论 -
AUC与ROC
二元分类器是指要输出(预测)的结果只有两种类别的模型。例如预测阳性/阴性,有病/没病,在银行信用评分模型中,也用来预测用户是否会违约,等等。既然是一种预测模型,则实际情况一定是有些结果猜对了,有些结果猜错了。因为二元分类器的预测结果有两种类别(以下以阴/阳为例),对应其真实值,则会有以下四种情形:1. 预测为阳性,真实值为阴性 (伪阳性)2. 预测为阴性,真实值为阳性 (转载 2015-06-05 21:55:00 · 709 阅读 · 0 评论 -
机器学习调研
一.机器学习框架介绍机器学习近几年如火如荼的发展,各大公司以及人工智能的爱好者组织已经研发了很多开源的机器学习框架,里面封装了很多机器学习的算法,使得机器学习工程师们只需要关注模型的训练和调参,不需要关注算法的实现细节。本文选取了几个比较火的机器学习框架进行介绍。1.1 Appach MahoutMahout 是ApacheSoftware Foundation(ASF) 旗下的一个开源项目,提供...原创 2018-04-09 21:54:23 · 1224 阅读 · 0 评论 -
图像篇---Ubuntu下安装tesseract-ocr
linux 安装Tesseract-OCR1.安装对应的lib (install the libs)sudo apt-get install libpng12-devsudo apt-get install libjpeg62-devsudo apt-get install libtiff4-dev 其实本来还应该装这些的,只不过有些电脑自带有这些,还是装一下安全,反正如果装有的,会跳过的sud...原创 2018-06-24 17:38:07 · 2372 阅读 · 0 评论 -
Python基础篇-字符串操作
字符串操作by deamon(deamoncao@163.com)python使用频度非常高的字符串相关操作。去空格及特殊符号In[24]:s = ' hello, world!' = ' hello, world!'print(s.strip())(s.strip())print(s.lstrip(' hello, '))(s.lstrip(' hello, ...原创 2018-06-19 23:34:29 · 809 阅读 · 0 评论 -
联邦学习(Federated Learning)
联邦学习简介 联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等...原创 2019-04-27 10:38:47 · 222637 阅读 · 11 评论 -
人工智能安全标准规范制定情况
人工智能安全、伦理、隐私保护等的安全相关 标准,大多仍处于研究阶段。1.国外 IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计 。2017 年 3 月, IEEE 在《IEEE 机器人与自动化》杂志发表了名为“旨在推进人工智能和自治系统的伦理设计的 IEEE 全球倡议书”,倡议通过基于伦理的设计原则和标准帮助人们避免对人工智能技术的恐惧和盲目崇拜,从而推动人工智能技...原创 2019-11-03 10:37:19 · 540 阅读 · 0 评论 -
HE-Transformer(一种允许AI模型对加密数据进行操作的工具)
在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布推出开源HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它是nGraph,英特尔神经网络编译器的后端,基于简单加密算法库(SEAL),这是一个加密库,微软研究院开源软件。 HE允许对加密数据进行计算,允许用户获得有价值的见解,而不会有暴露底层数据的风险。使用HE,数据由用户控制,...原创 2019-08-11 11:16:30 · 1345 阅读 · 0 评论