当前位置:首页 > 合规类 > IAPP > 考试资讯 > 项目动态 >
2022-11-23 12:09:41
浏览量:0
刚刚过去的2020年,是传统习惯、固有规则被打破重塑的一年,也是社会生活被全面推向数字化的一年。我们享受着前所未有的数字生活“便利”,如远程办公、社群购物、直播电商、社区团购,同时也不得不面对这份“便利”背后隐藏的大数据杀熟、隐私滥用以及平台垄断等问题。
“疫情期间,数字科技给这个不确定的世界带来了更多的确定性。然而,在2020年下半年,对于数字技术、数字未来的担忧和置疑突然显著增加,平台、大数据杀熟、个人隐私、社区卖菜等都带来了广泛的社会关注和热议,我想这种担忧不仅仅是对平台,也不仅仅是对数据,实际上是对整个社会、整个人类未来即将迈入数字世界的一种深刻的担忧。”腾讯集团高级副总裁郭凯天在1月9日的腾讯科技向善暨数字未来大会中表示,在这一大背景下,科技向善显得尤为重要。
1月9日腾讯发布《科技向善白皮书 2021》,总结过去一年科技在抗击疫情、推动社会发展等方面的应用,同时探讨了隐私保护、科技伦理等问题。
在上述白皮书中,谈及如何平衡科技创新与隐私数据之间的关系,清华大学经济管理学院教授朱恒源指出可以从三个方面着手,“第一是要有一些前瞻性、公益性的研究,关注新技术可能对社会带来的影响;第二是在商业领域要把竞争对手当作创新的合作伙伴;第三就是要在组织和文化上有一个纠偏的平衡机制。比如说人脸识别,我们的推进速度比欧美国家要快得多。我们在公共交通、社区管理等领域,已经有非常广泛的使用。但是我们对这项技术可能带来的挑战还缺乏足够的认知,一旦出现一些负面案例个社会对这种技术应用的容忍就会形成钟摆效应。”
“如果选择不披露个人隐私信息,可能会导致服务个性化的基准下降。这个时候就变成了一个选择题在什么情況下用户注重隐私,在什么情況下不太看重隐私?有了这个概念以后,你就会发现隐私问题不是一个绝对答案,它是一个相对答案,它需要找到每个人的平衡点,而每个人平衡点都不一样,这种平衡点又和收入、年需求等多种因素相关。”中国社科院信息化研究中心主任、信息化与网络经济研究室主任姜奇平表示,“和隐私相关的另外一个因素就是所处的场景,越是一对一的场景,越不在意隐私。现在大家之所以在意隐私,是因为我们破坏了一对一这个场景,也就是说有些产品拿到用户信息到处乱用,而不能像医生那样,用户提供的隐私信息只是用来服务于诊断的特定场景。”
姜奇平认为,个人信息的保护和利用问题要达成平衡,只有开发和保护取得平衡这才能实现多赢目标。
对于疫情期间人工智能在各行业应用所带来的潜在问题,中国科学院自动化研究所类脑智能研究中心副主任曾毅表示,“疫情期间,很多用于抗疫的人工智能产品不管你愿不愿意他们都获取了大量个人信息。而在疫情结束之后,或者是说疫情防控不需要的时候,它就有极大的概率会被下架。这种人工智能产品周期的确定性设计提醒了从业人员应该去进行负责任的产品研发,所以这带来了一个新的思考视角。”
同时曾毅也指出,疫情期间技术创新的动力很足,但是人们对潜在的技术和伦理风险的关注不够,“目前人工智能技术的应用主要集中在大数据分析技术上疫情期间,它的应用十分广泛,主要集中在智能测温、预测病毒和分析病毒的结构、筛选药物、外呼中心、小区门禁等等。然而在应用过程中,我们可以看到每一个应用都有潜在的技术和伦理的风险。”
曾毅认为,科技伦理是一个跨学科的问题,让科技伦理落地的可行方式是,对技术人员进行一定的伦理培训,同时研究伦理的人也应进行基础的技术学习。
在腾讯集团高级副总裁郭凯天看来,面对上述种种冲突和问题,科技向善应成为中国社会甚至人类社会迈向数字化未来过程中的基本准则,推行科技向善首先需要敬畏,其次是进取,第三是不忘初心,“包括敬畏监管,敬畏舆论,敬畏社会的发展等,只有敬畏才能在科技发展、行业扩张的同时,与传统、社会较好地结合,关注更多数人的利益,关注社会的利益,行业和技术才能发展得更稳健。”
(文章来源:南方都市报)