CCTSDB2021重磅发布!全新数据集!全新分类!多种算法测评!欢迎大家使用!数据集发布网址:GitHub-csust7zhangjm/CCTSDB2021论文原文:HCIS|AllIssueHuman-CentricComputingandInformationSciences期刊JCR Q1,中科院二区。 数据集下载链接:链接:百度网盘请输入提取码提取码:nygx 使用数据集请帮忙引用原作者论文:[1]JianmingZhang,XinZou,Li-DanKuang,JinWang,R.SimonSherratt,XiaofengYu.CCTSDB2021:Amorecomprehens
文章目录论文信息摘要主要内容图神经网络的隐私保护1.隐私攻击的分类1.1GNN的隐私攻击类型。1.2隐私攻击的威胁模型。2.对GNN进行隐私攻击的方法2.1有监督隐私攻击框架2.2成员关系推断攻击2.3重建攻击2.4属性推断攻击2.5模型提取攻击3.图神经网络的隐私保护3.1基于差分隐私的GNN隐私保护3.2基于联邦学习的GNN隐私保护3.1基于对抗隐私的GNN隐私保护4.用于隐私保护的GNNs的数据集5.GNNs隐私保护的应用6.GNNs隐私保护的未来研究方向论文信息AComprehensiveSurveyonTrustworthyGraphNeuralNetworks:Privacy,Ro
Abstract1、提供了协作学习的系统概述2、简要介绍了完整性和隐私攻击3、详细介绍了现有的完整性和隐私攻击及其防御Introduction举例:医学图像分类、移动键盘预测协作学习:允许两个或多个参与者协作训练共享的全局DL模型,同时他们的训练数据集保留在本地。每个参与者用自己的训练数据训练共享模型,并与其它参与者交换和更新模型参数。模型完整性威胁:只有一个攻击者也可以破坏模型完整性隐私性:尽管不共享原始训练样本,但共享的更新是由样本生成的,间接泄露了训练数据集的信息。在训练过程中,可以从共享的梯度中捕获成员关系和无意的特征泄露。甚至可以从相应的更新中重构训练样本。为了实现拜占庭容错协作学习
Abstract1、提供了协作学习的系统概述2、简要介绍了完整性和隐私攻击3、详细介绍了现有的完整性和隐私攻击及其防御Introduction举例:医学图像分类、移动键盘预测协作学习:允许两个或多个参与者协作训练共享的全局DL模型,同时他们的训练数据集保留在本地。每个参与者用自己的训练数据训练共享模型,并与其它参与者交换和更新模型参数。模型完整性威胁:只有一个攻击者也可以破坏模型完整性隐私性:尽管不共享原始训练样本,但共享的更新是由样本生成的,间接泄露了训练数据集的信息。在训练过程中,可以从共享的梯度中捕获成员关系和无意的特征泄露。甚至可以从相应的更新中重构训练样本。为了实现拜占庭容错协作学习