![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
信息安全
草棚
Github:https://github.com/pengcao
Email:deamoncao@163.com
展开
-
python3打包成so
此博客是演示如何将python代码打包成so,防止python源码泄露,保证代码安全。以helloworld.py为例,将python打包成so。1.在/opt/目录下编写需要被编译的代码helloworld.py#!/usr/bin/env python# encoding: utf-8def hello(name): print("Hello %s!" % name)...原创 2019-11-03 11:34:43 · 6181 阅读 · 1 评论 -
联邦学习(Federated Learning)
联邦学习简介 联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等...原创 2019-04-27 10:38:47 · 221965 阅读 · 11 评论 -
AI安全---对抗攻击防御措施
目前,在对抗攻击防御上存在三个主要方向:1)在学习过程中修改训练过程或者修改的输入样本。2)修改网络,比如:添加更多层/子网络、改变损失/激活函数等。3)当分类未见过的样本时,用外部模型作为附加网络。1.改训练过程/ 输入数据1 蛮力对抗训练通过不断输入新类型的对抗样本并执行对抗训练,从而不断提升网络的鲁棒性。为了保证有效性,该方法需要使用高强度的对抗样本,并且网络架构要有充足的...原创 2019-06-02 14:33:06 · 3734 阅读 · 0 评论 -
以漫画的形式描述联邦学习
本文转载的是来自于Google联邦学习官方网站上的一个关于联邦学习的漫画,旨在共享和探讨联邦学习,故而转载该文。不足之处请大家指出,Thanks!由于图片显示不出来,故而附上原始的链接:https://federated.withgoogle.com/#top...转载 2019-06-30 11:21:44 · 1286 阅读 · 0 评论 -
深度学习中的隐私保护技术综述
摘要:如今机器学习以及深度学习在各个领域广泛应用,包括医疗领域、金融领域、网络安全领域等等。深度学习的首要任务在于数据收集,然而在数据收集的过程中就可能产生隐私泄露的风险,而隐私泄露将导致用户不再信任人工智能,将不利于人工智能的发展。本文总结了目前在深度学习中常见的隐私保护方法及研究现状,包括基于同态加密的隐私保护技术、差分隐私保护技术等等。1 研究背景1.1 隐私泄露风险 ...转载 2019-07-21 20:28:05 · 17280 阅读 · 0 评论 -
HE-Transformer(一种允许AI模型对加密数据进行操作的工具)
在加拿大蒙特利尔召开的NeurIPS 2018会议上,英特尔宣布推出开源HE-Transformer,这是一种允许AI系统对敏感数据进行操作的工具。它是nGraph,英特尔神经网络编译器的后端,基于简单加密算法库(SEAL),这是一个加密库,微软研究院开源软件。 HE允许对加密数据进行计算,允许用户获得有价值的见解,而不会有暴露底层数据的风险。使用HE,数据由用户控制,...原创 2019-08-11 11:16:30 · 1302 阅读 · 0 评论 -
差分隐私及应用
差分攻击 差分攻击是通过比较分析有特定区别的明文在通过加密后的变化传播情况来攻击密码算法的。差分攻击是针对对称分组加密算法提出的攻击方法,看起来是最有效的攻击DES的方法(之所以说看起来,是因为差分攻击需要很大的空间复杂度,实际上可能不如野蛮攻击具有可操作性)。2000年以前,差分攻击就被证明对MD5的一次循环是有效的,但对全部4次循环似乎难以奏效。但是随着对MD5研究的进展,情况...原创 2019-08-11 14:35:30 · 4435 阅读 · 2 评论