国际新闻
当前位置: 首页» 人权新闻» 国际新闻
国际新闻

如何在数字化时代保护个人隐私——联合国人权专家一席谈

时间:2021-07-09 来源: 作者:

 

世界银行图片/Simone D. McCourtie
数字支付使经济运行对现金的依赖越来越少。
 
2021 年 7 月 8 日
 

联合国人权理事会任命的隐私权问题特别报告员约瑟夫·卡纳塔西(Joe Cannataci)7月2日同成员国代表进行了互动对话。卡纳塔西表示,隐私权从未像现在这样重要,也从未像现在这样受到侵蚀,技术趋势对隐私权的享有提出了前所未有的挑战。在互动对话中,卡纳塔西着重讨论了人工智能对隐私构成的挑战以及儿童隐私所面临的错综复杂的形势。请听联合国新闻李茂奇的报道。 

约瑟夫·卡纳塔西教授于2015年7月被任命为联合国首任隐私权特别报告员。他是马耳他大学媒体与知识科学学院信息政策与治理系主任,在荷兰格罗宁根大学法学院担任欧洲信息政策与技术法律项目主席,并担任澳大利亚埃迪斯科文大学安全研究所和计算机与安全科学学院的客座教授。他曾任欧盟处理监视问题的项目总协调人。 

卡纳塔西教授一直担任许多国际组织的专家顾问,撰写过关于数据保护法、专家系统责任、医学信息学法律要素、计算机软件版权的多部专著和多篇文章,并曾共同撰写关于自我监管与互联网、欧盟宪法与数据保护、网上争议解决、数据保留和警察数据方面的论文和教科书章节。他在2015年出版的最新专著《个人与隐私》被视为这一领域的经典著作。他在技术法、尤其是隐私法发展方面的先驱作用和他为欧洲信息政策发展方面做出的贡献受到同行的积极肯定。 

卡纳塔西在人权理事会与成员国就其所提交的年度报告进行互动对话时表示,在数字化时代保护个人隐私面临严峻挑战。 

卡纳塔西:“作为首任隐私权问题特别报告员,我努力增进人们对隐私权的理解,将其视为对个人一生自主和全面发展的至关重要的因素,从而促进对1948年《世界人权宣言》第22条采取更全面的落实办法(注:第22条内容为“每个人,作为社会的一员,有权享受社会保障,并有权享受他的个人尊严和人格的自由发展所必需的经济、社会和文化方面各种权利的实现”)。过去六年取得了很大成就,但仍有许多工作要做,因为保护隐私将永远是一个微妙的问题,在一个受技术驱动的世界和新技术和新兴科技不断涌现的数字时代所面临的特殊挑战中,许多事情悬而未决。新冠疫情带来的影响、国家监控、智能手机、大型科技公司和人工智能只是在此期间反复出现的几个主题。” 

 

全球人工智能领导者在日内瓦参加人工智能造福人类全球峰会。(2018年5月资料图)
国际电信联盟/D. Procofieff
全球人工智能领导者在日内瓦参加人工智能造福人类全球峰会。(2018年5月资料图)

 

人工智能是研究、开发用于模拟、延伸和扩展人的智能理论、方法、技术及应用系统的一门新的技术科学。它通过模式识别、机器学习、数据挖掘和智能算法在机器人领域、语言识别领域、图像识别领域和专家系统中得到广泛应用。人工智能的开发和应用建立在数据收集、分析和处理的基础之上,而这一过程牵涉到人的隐私的方方面面及其权利保障。卡纳塔西在其年度报告中指出,人工智能解决方案提供了诸多益处,但同时也造成了种种影响,涉及道德、伦理和社会问题,涉及隐私、不歧视和自由参与等人权。社会有责任在人权框架内以道德和负责任的方式开发、使用和监测人工智能解决方案,纠正歧视和任何侵犯人权的行为。所有人工智能解决方案都必须尊重法治、人权、民主价值观和多样性。每一个规划中的人工智能解决方案,包括算法,都应该接受及时的人权评估,包括道德和平等性评估。 

卡纳塔西在对话会议中强调:人工智能是一个复杂的主题,要在人工智能系统中部署和使用数据,就必须向用户和数据提供者以及参与人工智能解决方案及其运营决策的高管、经理和其他人做出明确、全面的解释,仅公布算法是不够的。人工智能战略和运作人工智能解决方案的负责人,以及监测其使用的人,应该参与有关人工智能和新出现的道德和技术问题的讨论。 

卡纳塔西:“如何使人工智能系统变得更尊重隐私?事实是,设计过程中考虑隐私问题是我在这6年中面临的巨大难题。实际上,我从1986年开始在人工智能领域开展工作。应该说,在我这36年的职业生涯里,常常发现,为了保护人们,强调在设计阶段注重隐私经常会有困难。在技术层面上,不幸的是,保障隐私常常变为一种事后工具。人们通常在设计系统后试图再就隐私问题做出决定,而不是在设计过程中将隐私问题嵌入其中。应该在每一个阶段——我想请所有会员国注意并努力在自己的国家解决这个问题——把隐私工程作为一种自律。人们应该通过在世界各地的大学和技术学院开展隐私研究工程,让工程师、软件工程师和像我一样的工程师在设计阶段就考虑隐私问题,许多欧盟项目——它们当中有一些是你们支持的项目——试图通过内置的设计来实现注重隐私。我的经验是,这样做非常难,因为大多数信息和通信技术专业人员都更多地注重性能。作为我在这里的主要建议之一,我会说应当在你们的教育系统中推广保护隐私工程,因为这将有助于在人工智能的设计阶段建立和嵌入隐私问题。” 

卡纳塔西在年度报告中同时论述了儿童隐私权问题。他指出,儿童和所有人一样有权享有人权和自由。国际和区域法律文书阐明了隐私权和儿童隐私权。而传统上,儿童的隐私权一直被认为是一个由成年人决定的问题。然而有时成年人以保护为名限制儿童的隐私,阻碍儿童在自主性和独立性方面的健康发展。他认为,青少年需要能够就其健康和身体做出决定,并随着他们的成熟,安全而私密地探索性取向,无论是线下还是线上。他指出,虽然儿童的依赖性(亦即脆弱性)可能会导致风险,但风险并不等同于伤害,驾驭一些风险对于儿童培养韧性和应对技能是必要的。只根据儿童的脆弱性来对儿童下定义,而不考虑他们的能力或潜力,很可能会造成过度保护,因而可能有损儿童的个性发展。 

研究显示,到2021年,面向儿童的在线广告市场价值可达17亿美元,在线广告公司在儿童13岁之前针对每个儿童收集的数据超过7200万条。卡纳塔西指出,虽然隐私是一个广泛和复杂的概念,但数据保护与此密切相关。防止个人数据被无限制地收集、存储、使用和共享至关重要。 

 

在当今的数字时代,政府越来越依赖数字监控技术来支持国家安全。
联合国儿童基金会/Elias
在当今的数字时代,政府越来越依赖数字监控技术来支持国家安全。

 

卡纳塔西指出,仅有技术解决方案和数字素养是不够的,各国须采取严格和持续的行动来解决结构性不平等问题并确保儿童隐私、数据保护及其安全。对此,各国有相当大的空间进行投资,改善与民间社会、业界、学术界和儿童的伙伴关系,从而共同构建真正有效的解决方案。 

卡纳塔西:“许多年来,我们已经看到在不同的国家,孩子们享有的自主权有所不同。在一些国家,儿童被赋予管理私生活的一些权利,包括他们的性生活,包括避孕。有些国家的年龄界限是13岁,有些国家是18岁。很多时候,国家采用适龄标准,事实上,如果你考察许多国家的立法,你会发现一名儿童在某些国家可能会被赋予刑事责任和民事责任。一名儿童在特定的年龄在某些国家会因犯罪而被送进监狱。在隐私保护方面,在私生活管理方面,儿童应该有更多的发言权。在这里,我最大的建议仍然是教育。儿童很小就开始成为数字公民。随着时间的推移,这一年龄线变得越来越提前。同样,比如说,哪一个年龄是开始性教育的最佳时间,是在十岁、十三岁?还是七岁,八岁?我强烈认为,数字公民教育必须从孩子们开始接触平板智能手机和笔记本电脑的那一刻开始。如果可能的话,从五岁到六岁,因为他们已经开始使用机器,但他们知道他们被操纵的程度吗?他们知道他们的每一次点击在多大程度上是因为广告、特征绘制等等而被关注的吗?他们不知道,因此他们越早接受这方面的教育,越精通技术,就越能提高这方面的意识。” 

卡纳塔西在报告中向各成员国提出的建议包括:确保政府立法、政策、决定、档案系统和服务以《儿童权利公约》关于隐私、个性和自主性的权利和价值为基础;支持对儿童获取在线服务和其他服务的自主决定能力进行全面分析,确保基于证据制定专门针对儿童的隐私法律、政策和法规;只有在没有更好的办法时,才以最谨慎的态度采用适龄标准作为监管工具;针对面向儿童的产品和服务,促进并要求落实通过设计保证安全、通过设计保护隐私和默认保护隐私指导原则,确保儿童在隐私受到侵犯时能够获得有效补救;确保个人数据的处理者,包括父母或照料者和教育工作者,意识到儿童有权享有隐私和数据保护;禁止为了作出有关儿童的决策,或分析或预测个人偏好、行为和态度,自动处理对儿童进行特征绘制的个人数据;仅在特殊情况下,出于儿童的最大利益或压倒一切的公共利益,在拥有适当法律保障机制的情况下,方可允许例外做法。 

李茂奇,联合国纽约总部报道。 

分享到:0
标签:
-->
延伸阅读Related Articles
推荐阅读
相关栏目
国际新闻
国内新闻
专题新闻
继续阅读

美再炒所谓“709事件” 外交部:暴露险恶用心