当前位置:网者头条 >> 科学知识

开创性的数学模型可以帮助保护隐私并确保更安全使用AI

科学知识 2025-10-11 6509

摘要:人工智能工具越来越多地用于跟踪和监视我们在线和面对面的人,但它们的有效性具有很大的风险。计算机科学家开发了一种新的数学模型,可以帮助人们更好地了解AI带来的风险,并帮助监管机构保护人们的隐私。...

人工智能工具越来越多地用于和监视我们在线和面对面的人,但它们的有效性具有很大的风险。牛津互联网研究所,伦敦帝国学院和乌克瓦因的计算机科学家开发了一种新的数学模型,可以帮助人们更好地了解AI的风险并协助监管机构保护人们的隐私。这些发现已发表在自然通讯

开创性的数学模型可以帮助保护隐私并确保更安全使用AI

该方法首次为评估识别技术提供了强大的科学框架,尤其是在处理大规模数据时。例如,这可能包括监视从小型信息(例如时区域或浏览器设置)(一种称为“浏览器指纹”的技术)中识别在线用户的准确广告代码和无形的准确。

Lead author Dr Luc Rocher, Senior Research Fellow, Oxford Internet Institute, part of the University of Oxford, said: "We see our method as a new approach to help assess the risk of re-identification in data release, but also to evaluate modern identification techniques in critical, high-risk environments. In places like hospitals, humanitarian aid delivery, or border control, the stakes are incredibly high, and the need for accurate, reliable identification is paramount."

该方法借鉴了贝叶斯统计的领域,以了解可识别的个体在很小的规模上是如何的,并将鉴定的准确性推断到比以前的启发式方法和经验规则的较大人群中高达10倍。这赋予了方法在评估不同的数据识别技术在不同的应用程序和行为设置中如何进行大规模执行的方法。这可以有助于解释为什么在小案例研究中进行测试时,某些AI识别技术的性能高度准确,然后在现实情况下误认为人们的识别。

鉴于基于AI的识别技术的迅速崛起所造成的匿名和隐私构成的挑战,这些发现非常及时。例如,正在试用AI工具,以自动从网上银行业务中的声音,人道主义援助交付或执法部门的脸上自动识别人类。

根据研究人员的说法,新方法可以帮助组织在AI技术的好处与保护人们的个人信息的需求之间取得更好的平衡,从而使技术与技术的日常互动更安全,更安全。他们的测试方法允许在实施全尺度实施之前鉴定潜在的弱点和区域以改进,这对于维持安全性和准确性至关重要。

合着者伊夫·阿克斯兰德·德·蒙霍伊副教授(伦敦帝国学院数据科学研究所)说:“我们的新扩展法提供了一种原则上的数学模型,以评估识别技术将如何在规模上执行。了解识别率的可扩展性是必不可少的,以评估这些识别的风险,以确保这些识别能力为包括现代化的识别技术,包括现代化的技术。

卢克·罗彻(Luc Rocher)博士得出结论:“我们认为,这项工作是朝着开发原则性方法的至关重要的一步,以评估越来越高级的AI技术和人类痕迹中可识别性的性质所带来的风险。我们希望这项工作对研究人员,数据保护官员,eThics委员会以及其他研究人员的私人私人的参与和其他研究的私有化和其他研究的私有化和其他研究的私有化和其他研究的帮助,并为研究人员提供了一定的研究和研究,并保护了一致的数据和研究,这将为您提供平衡和研究的范围。

相关推荐
友情链接