技术应用须守法律、伦理底线
2019-09-05朱巍
朱巍
从技术角度讲,AI+人脸识别是互联网应用发展方向,颠覆性地改变了移动互联网时代的科技应用,也是未来5G时代万物互联、人机互联的重要基础。从法律角度看,人脸识别,特别是AI+人脸识别,平台获取的数据信息属于个人信息,是隐私权法律保护体系中的核心隐私。
尽管隐私权本质属于民事权利,如果平台事先充分告知用户收集数据的范围、类型和目的,按照合法性、正当性和必要性的基本原则依法使用,一般来说,平台是可以通过网民协议等方式处分用户数据信息的。不过,移动端作为网络支付和社交平台,人脸识别就好比能够打开用户家大门的钥匙。网民协议作为君子协议,平台好好遵守倒是无妨,一旦发生了信息泄露或不当使用,这个危害是非常大的,数据的可复制性,将注定事后处置不能完全去除危害。
在我国“一法一决定”实施之前,对个人数据违法违规使用问题大都以“亡羊补牢”为主。网安法实施之后,立法将信息数据安全置于最高保护地位,重点放到了信息数据的提前保护,“未雨绸缪”的新举措将数据信息泄露风险降到了最低。即便数据信息没有被侵害,只是存在较大风险的情况,例如此次“ZAO”软件的“换脸”应用,相关机关也可以依法进行必要的监管。
“技术无罪”,这句话是需要前提的。第一,技术应该遵守法律。快播案刚过去没几年,P2P技术被用作传播淫秽信息,这就是技术应被法律纠偏的地方。第二,技术应具有可控性。以网络信息传播为例,虽然网络服务提供者享有“避风港规则”的法律豁免,但网站必须设置举报端口和信息过滤机制,如果连基本的信息安全制度都不遵守,那么平台就需要承担“红旗规则”的法律责任。第三,技术必须向善。好的技术发展不能仅以流量、获利、生态和市场占有率为评价方式,好的技术应该是核心技术,创新才是技术发展的灵魂所在。我们要时刻牢记,技术本身也是双刃剑。只考虑赚钱的技术,最终会失去人心,缺乏社会责任感和道德意识的平台很难走得远。
我们必须承认,立法具有一定滞后性,技术又走得过快,这对矛盾的解决机制中,还有“第三种力量”——道德伦理,技术的进步必须受到道德性的约束。将人脸识别技术应用于视频换脸,甚至作为监控学校师生上课的工具,这本身就是不道德的行为。换脸的代价是个人信息的泄露风险、侵害人格权事件的发生、影视作品版权和演员表演权的损害。监控师生上课的代价,是让教学失去精彩内容吸引学生的意义,让老师失去课堂控制的权威,让未成年人敏感信息存在曝光的可能,让学生失去天真烂漫的天性。
即便是网民协议写得再好,法律授权获取得再完整,换脸技术和课堂监控仍然不应成为AI+人脸识别的应用场所,前者涉及人格尊严和信息安全,后者涉及师道尊严和学生自由,这都是伦理道德制约技术应用的重要体现。
互联网下半场的核心竞争力在于创新,只有核心技术才能带来真正的市场和红利,换脸和课堂监控这类“花拳绣腿”,特别是在平台信息安全技术和制度保障尚未百分之百完备的时候,应尽快喊停。▲
(作者是中国政法大学传播法研究中心副主任)