五十年后,互联网世界会是什么样
2019-12-12云贺
云贺
1969年,对全世界而言都是个神奇的年份:人类首次登上月球、披头士乐队举行最后一次公开演出、互联网在这一年诞生……其中,对更多人来说,互联网的诞生显然更具影响力。从此以后,人类世界有了现实与虛拟之分,无数行业开启了变革的前奏。然而,伴随变革而来的还有数不尽的新麻烦,如网络安全、数据滥用等。
下一个五十年,互联网世界会是什么样?这些麻烦能否得到解决?为回答这些问题,今年10月底,美国皮尤研究中心调研采访了530位技术专家、创新企业家、政策主导者及科研人员,请他们描绘五十年后人类的互联网生活图景,并基于此撰写了名为《互联网生活的下一个五十年》的报告。
调研结果显示,大部分受访者都承认,下一个五十年,互联网必将与人类社会产生更加紧密、也更加不一样的联系。而未来前景的好坏,既取决于互联网技术的发展速度,也取决于人类的应对方案。
这是一个怎样的时代?
1969年10月29日,加州大学洛杉矶分校的研究生团队在伦纳德?克兰罗克(Leonard Kleinrock)教授的指导下,与斯坦福研究院实现了两台电脑主机之间的远程通讯连接。这一天,也被普遍视为互联网的“生日”。
“这是一个最好的时代;这是一个最坏的时代。”英国作家查尔斯?狄更斯所著《双城记》中的这句话,十分适用于互联网时代。美国皮尤研究中心的调研结果也证明了这一点。
72% 美国皮尤研究中心的调研结果显示,在530 位受访者中,72%对互联网的未来持明确的乐观态度,25% 的人则认为互联网的未来前景隐忧重重。
在530位被访者中,72%对互联网的未来持明确的乐观态度,25%的人则认为互联网的未来前景隐忧重重,剩下的3%认为,五十年后的互联网时代与今天相比不会发生重大改变。
有意思的是,乐观者与悲观者对于同样的问题,有着完全相反的判断或结论。
比如,对于这些问题:互联网会不会加剧社会阶层矛盾和贫富差距,人类会成为机器的奴隶还是主宰,人们的线上社交活动是一种更紧密的联系还是更疏离的关系,社会资源会走向垄断还是分散——
乐观者认为,下一个五十年,先进的互联网技术将给人们带来更长的寿命、更闲适的生活,社会资源与权力将更趋扁平化分配,由此促进实现社会公平。
悲观者则表示,互联网技术尚未实现普及,人与人之间的差距只会越来越大,其最终结果就是,经济、健康、教育等优势资源将向能够掌握或熟练应用互联网技术的人群聚集,而这样的社会将矛盾重重,隐性歧视也会无处不在。
不过,无论如何,大部分人都同意这一点:2069年的世界将大不一样。
奥特米特技术研究公司(Altimeter Group)的分析师苏珊?埃特林格(Susan Etlinger)就表示,五十年后,我们今天所理解的互联网概念将会被颠覆。
到那时,互联网不仅仅是通过URL、APP和网页等平台将数据和信息组织起来的技术,人与人、人与物在虚拟世界中的联系都将是可交互的,甚至是可被人类触觉感知的,而且虚拟世界中产生的这种联系还将深度嵌入到人类的日常生活中。
而最终的结果是:虚拟世界与物理世界之间的区隔会被打破。
下一个五十年,互联网世界需要更加有力、精准的管理制度。
“好结局不会凭空冒出来”
与此同时,几乎所有受访的专家都认为,下一个五十年,互联网世界需要更加有力、精准的管理制度。
麻省理工学院的教授埃里克?布林约尔松(Erik Brynjolfsson)表示:“我不认为‘五十年后是好是坏是最合适的提问方式,现在应该问的是‘我们怎样才能修复结果?什么是当前最不确定的因素?我希望我们能做出正确的抉择,但我们必须知道,好的结局一定不会凭空冒出来。”
的确,无处不在的数据滥用、永不掉线的监视直播、无孔不入的安全漏洞……这些困扰许许多多普通人生活的互联网问题,正在以一种不可预测的速度蔓延开来。
当虚拟世界中的问题涌上了现实生活的海岸,止损成为政府和企业共同的课题。 为此,报告总结出了在未来的互联网时代,政府和企业需特别关注和加强应对的一些风险点,主要包括:
——互联网世界的社会差距会不断扩大。掌握技术应用的人与尚没有接入网络的人之间,将产生一道深深的鸿沟。更可怕的是,虚拟世界的鸿沟与现实世界的鸿沟逐渐重合,使得优势资源进一步向着少数人手中集中。
——人类的沟通越便捷,个人世界越荒凉。一个充斥着“超级连接”的未来,将由一个个被孤立的个体构成,人与人之间的物理距离有可能越来越远。而一旦网络这个中介消失了,人类如何联通彼此将成为一个大难题。
数据管理问题尤为重要
此外,报告认为,在诸多风险点中,数据管理问题尤为重要。
在许多普通人的日常生活中,“用信息数据换便利”已经成为一种趋势。而人们的一举一动(购物、乘车、出行等),都会在各类网络平台上留下痕迹,成为商家进行行为分析的素材。
皮尤研究中心用“持续不断的数据监视”来形容这样的互联网时代。可是,这背后不仅存在着巨大的安全漏洞,如数据滥用和泄露问题,还有可能涉及到算法歧视。
这类算法歧视来源于“有偏见”的数据。众所周知,机器学习模型的构建在很大程度上取决于训练机器时读取的数据。然而,一旦基础数据出现细微的偏差,就可能导致整个模型出现结构性偏差。
数据存在的“偏见”,经由算法系统读取和分析,不仅会被完整地记录和学习下来,甚至还会放大这种“偏见”,使之刻板化。
美国文化理论界的几位专家在采访中就表达了这样的担忧:“除非我们立即规范数据的收集使用过程,否则种族歧视、性别歧视、仇外等情绪,将经由机器算法进一步巩固。最终,少部分精英集团的意见和情绪将被无限放大。”
事实上,涉及算法歧视的案例已经在美国出现过许多次。例如,谷歌搜索的“自动填充”功能被指控含有诽谤性搜索提示,侵犯了公民权利。再如,基于机器算法的广告商们,会更多地将高息贷款的相关信息自动推介给低收入群体,等等。
而人类如何应对这些问题,将成为决定未来互联网社会发展图景是否美好的重要因素。