人工智能监控:新研究揭示了你隐私的潜在风险

360影视 2025-01-24 08:40 2

摘要:人工智能工具越来越多地用于在线和面对面跟踪和监控人们,但它们的有效性存在重大风险。为了解决这个问题,牛津互联网研究所、伦敦帝国理工学院和UCLouvain的计算机科学家开发了一个新的数学模型,旨在帮助人们更好地了解人工智能的危险,并支持监管机构保护隐私。他们的

一种新的数学模型增强了对人工智能识别风险的评估,提供了一种可扩展的解决方案,以平衡技术效益和隐私保护。

人工智能工具越来越多地用于在线和面对面跟踪和监控人们,但它们的有效性存在重大风险。为了解决这个问题,牛津互联网研究所、伦敦帝国理工学院和UCLouvain的计算机科学家开发了一个新的数学模型,旨在帮助人们更好地了解人工智能的危险,并支持监管机构保护隐私。他们的研究结果发表在《自然通讯》杂志上。

该模型首次为评估识别方法提供了坚实的科学框架,特别是在处理大规模数据时。它可以评估广告代码和隐形跟踪器等技术的准确性,这些技术基于最小的信息(如时区或浏览器设置)来识别在线用户,这一过程被称为“浏览器指纹”。

该研究的主要作者、牛津大学互联网研究所高级研究员Luc Rocher博士说: “我们认为我们的方法是一种新的方法,可以帮助评估数据发布中重新识别的风险,同时也可以评估关键、高风险环境中的现代识别技术。在医院、人道主义援助运送或边境控制等地方,风险非常高,对准确、可靠的身份识别的需求至关重要。”

利用贝叶斯统计提高准确性

该方法利用贝叶斯统计领域来学习如何在小范围内识别个体,并将识别的准确性外推到更大的群体,比以前的启发式和经验法则好10倍。这使得该方法在评估不同的数据识别技术在不同的应用程序和行为设置中如何大规模执行时具有独特的能力。这可能有助于解释为什么一些人工智能识别技术在小案例研究中测试时表现非常准确,但在现实世界中却会识别错误。

鉴于基于人工智能的身份识别技术的迅速崛起对匿名和隐私构成的挑战,这些发现非常及时。 例如,人工智能工具正在进行试验,以自动识别网上银行中的人的声音,人道主义援助交付中的人的眼睛,或执法中的人的脸。

据研究人员称,这种新方法可以帮助组织在人工智能技术的好处和保护人们个人信息的需求之间取得更好的平衡,使日常与技术的互动更安全、更有保障。他们的测试方法允许在全面实施之前识别潜在的弱点和需要改进的领域,这对于保持安全性和准确性至关重要。

数据保护的重要工具

合著者Yves-Alexandre de Montjoye副教授(伦敦帝国理工学院数据科学研究所)说:“我们的新缩放定律首次提供了一个有原则的数学模型来评估识别技术在规模上的表现。了解识别的可扩展性对于评估这些重新识别技术带来的风险至关重要,包括确保遵守全球现代数据保护立法。”

Luc Rocher博士总结道:“我们相信,这项工作是朝着开发有原则的方法迈出的关键一步,这些方法可以评估更先进的人工智能技术带来的风险,以及在线人类痕迹的可识别性。我们希望这项工作将对研究人员、数据保护官员、伦理委员会和其他旨在在共享研究数据和保护患者、参与者和公民隐私之间找到平衡的从业者有很大的帮助。”

来源:圆梦论科技

相关推荐