隐私安全保护:AI技术的取与舍
2019-11-14李斌董丰蒲松涛
李斌 董丰 蒲松涛
2019年8月30日,一款名为“ZAO”的AI换脸软件迅速刷屏朋友圈。用户只需上传一张清晰的面部照片,就能将自己的脸移花接木到各大影视剧人物的身上,几乎可以实现以假乱真。然而就在该软件一夜爆红的同时,要求获得用户人脸照片“完全免费、不可撤销、永久、可转授权和可再许可的权利”的协议也同样引发了巨大争议,AI技术的应用与隐私安全的保护之间的冲突迅速成为社会舆论的热点话题。
AI技术与隐私安全
天生对立吗?
AI技术是把“双刃剑”。随着大数据的发展、算法的突破以及算力的提高,人工智能正变得无处不在,人们一方面享受着人工智能带来的“红利”,另一方面则面临着人工智能带来的信息“裸奔”的挑战。作为新一轮产业革命的重要驱动力量,人工智能正深刻改变着经济社会发展的格局。人工智能在医疗健康领域的运用可以协助医生在更短時间内找到最佳治疗方案,在工业生产领域的运用可以将人们从重复的、无意义的工作中解放出来,在自然灾害检测领域的运用可以极大提高预报的精确程度。由此可见,AI在诸多领域的广泛应用是经济社会发展和科技进步的必然趋势。人工智能越“智能”,就越需要获取、存储、分析更多的社会、企业及个人信息数据。一旦人工智能应用不能得到合理的利用,人们将处于隐私“裸奔”的尴尬境地,从而造成严重的伦理道德问题。
AI技术与隐私保护可以兼容并存。作为一种新兴技术,人工智能本身并无善恶对错之分,关键在于使用者能否对其进行正当应用。我们不应因噎废食,仅仅因为一些有争议、待改进的人工智能应用就否定人工智能技术。如果利用得当,人工智能便能成为我们检测恶意软件、预警网络攻击、加强网络安全、保护用户隐私的重要利器。人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段加强对人工智能应用的正确引导,让人工智能在保障用户隐私安全的轨道上有序发展。
如何找到AI技术
与隐私安全的平衡点?
在法律层面,加快完善隐私安全法律体系。当前,我国隐私保护法律体系还不能完全适应人工智能快速发展的需求,应加快立法以进一步强化隐私权保护,但同时还要保护人工智能发展的“土壤”。2018年5月,欧盟颁布了被称为“史上最严”的《通用数据保护条例》(GDPR),GDPR要求经营者告知并获得客户同意后才可记录用户搜索等记录,且不能使用模糊、冗长的语言政策来获取用户数据使用许可等,并且对违法企业的惩处力度也是空前的。在保护个人数据与隐私方面,GDPR值得我国借鉴,但在立法时也要考虑我国人工智能发展的现实需求,致力于使人工智能向着有利于社会发展与保护隐私安全的方向发展。
在监管层面,创新监管方式,尝试设立“AI监管沙盒”。“监管沙盒”的概念由英国政府于2015年3月率先提出,“监管沙盒”是一个“安全空间”,在这个安全空间内,金融科技企业可以测试其创新的金融产品、服务、商业模式和营销方式,而不用在相关活动碰到问题时立即受到监管规则的约束。这一做法在人工智能领域同样具有借鉴价值,“AI监管沙盒”也是一个“安全空间”,在这个安全空间里,人工智能应用在正式上线前需要经过第三方独立评估机构测试评估直至评估达标后才能正式上线。引入“AI监管沙盒”一方面能提前预警、避免事后风险,另一方面能保障新技术能被合理应用。
加快发展新一代人工智能技术是我国发展必须牢牢抓住的宝贵机遇。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。我们完全可以通过多种手段加强对人工智能应用的引导,将隐私泄露的风险降至最低。