研究人员相信人工智能可以用来帮助保护人们的隐私
两位信息科学教授最近在The Conversation上发表了一篇文章,认为人工智能可以帮助保护人们的隐私,纠正它造成的一些问题。
陈志远和Aryya Gangopadhyay认为,人工智能算法可以用来保护人们的隐私,从而抵消人工智能的其他用途造成的许多隐私问题。Chen和Gangopadhyay承认,我们为了方便而使用的许多AI驱动产品如果不访问大量数据就无法工作,乍一看,这似乎与保护隐私的尝试不一致。此外,随着人工智能扩展到越来越多的行业和应用程序,更多的数据将被收集并存储在数据库中,这使得对这些数据库的破坏变得很诱人。然而,Chen和Gangopadhyay认为,如果使用得当,人工智能可以帮助缓解这些问题。
Chen和Gangopadhyay在他们的帖子中解释说,与AI相关的隐私风险至少来自两个不同的来源。第一个来源是为训练神经网络模型而收集的大型数据集,而第二个隐私威胁是模型本身。数据可能会从这些模型中“泄漏”,模型的行为会泄露有关用于训练它们的数据的详细信息。
深度神经网络由多层神经元组成,每一层都连接到它们周围的层。单个神经元以及神经元之间的链接对训练数据的不同位进行编码。即使模型没有过度拟合,该模型也可能被证明可以很好地记住训练数据的模式。正如康奈尔大学在他们的一项研究中发现的那样,网络中存在训练数据的痕迹,恶意行为者可能能够确定训练数据的各个方面。康奈尔大学的研究人员发现,攻击者可以利用面部识别算法来揭示哪些图像以及哪些人被用来训练人脸识别模型。康奈尔大学的研究人员发现,即使攻击者无法访问用于训练应用程序的原始模型,攻击者仍然可以通过使用模型来探测网络并确定训练数据中是否包含特定的人是在高度相似的数据上训练的。
目前正在使用一些人工智能模型来防止数据泄露并试图确保人们的隐私。人工智能模型经常用于通过识别黑客用来渗透安全方法的行为模式来检测黑客攻击。然而,黑客经常改变他们的行为来试图欺骗模式检测人工智能。
人工智能培训和开发的新方法旨在使人工智能模型和应用程序不易受到黑客攻击和安全规避策略的影响。对抗性学习致力于在模拟恶意或有害输入的情况下训练 AI 模型,从而使模型对利用更加鲁棒,因此得名“对抗性”。根据Chen和Gangopadhyay的说法,他们的研究发现了对抗旨在窃取人们私人信息的恶意软件的方法。两位研究人员解释说,他们发现抵御恶意软件最有效的方法之一是在模型中引入不确定性。目标是让不良行为者更难预测模型对任何给定输入的反应。
利用AI保护隐私的其他方法包括在创建和训练模型时最大限度地减少数据暴露,以及探索发现网络的漏洞。在保护数据隐私方面,联邦学习可以帮助保护敏感数据的隐私,因为它允许在训练模型时无需离开包含数据的本地设备、隔离数据以及大部分数据。来自间谍的模型参数。
最终,Chen和Gangopadhyay认为,虽然人工智能的扩散对人们的隐私造成了新的威胁,但在精心设计时,人工智能也可以帮助保护隐私。