人工智能的社会问题
2018-01-25蔡自兴
◎蔡自兴
20 17年7月8日国务院发布《新一代人工智能发展规划》,提出了面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,部署构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国。这个规划给全国人民,特别是人工智能工作者以巨大鼓舞。
近年来,人工智能在全世界获得巨大进展,进一步促进科学技术和国民经济的发展。人工智能能够提供重要的信息处理能力,包括知识获取与表达、确定性推理与不确定性推理、规划、特征识别与跟踪、自然语言处理、图像处理、地图构建与导航、计算智能及机器学习等。人工智能技术也为机器人技术向智能化方向提供理论支持,是智能机器人发展的根本保障。人工智能能够模仿人类行为以实现智能机器的特定应用。例如,机器人护士专家系统,可以让机器人在非预期情况下具有自我判断能力并从中学习。其他重要应用领域包括通过语音合成器讲话、快速甚至同步进行语言翻译、处理与识别语音。为了使表达更真实,操作系统必须将声音、嘴唇、面部表情、手势、眼神及眨眼等方面协调好。人工智能使机器人 “如虎添翼”,机器人这只老虎开始飞起来了!
让我们看看两个数据:智商 (IQ)值与智能机器人总数。大家知道,智商(IQ)即智力商数,为个人智力测验成绩和同年龄人被试成绩相比的指数,是衡量个人智力高低的一个标准。设定人的平均IQ值为100,爱因斯坦的IQ为190,属于特高智商,而达芬奇的IQ为205,是至今已知的个人最高智商。据预测,随着计算机智能程度的不断提高,20年后人工智能的IQ将达到10,000。这绝非痴人说梦,而是不久后的现实。另一个数据,预测未来20年智能机器人 (含工业机器人、服务机器人、智能驾驶汽车等)的数量会达到100亿以上,将超过人口总量;这也不是空穴来风,而是科学预测。从这两个数据可以看到,就某些重要指标而言,20年后智能机器人将从数量到质量全面赶超人类。智能机器人的进步,将为人类做出全面的更大贡献。
人工智能和智能机器人将改变人类的工作与生活环境、经济发展方式和医疗卫生状况,可以做人类的助手,为我们提供各种专业服务,修复受伤人类的肢体,甚至给人们带来 “永生”。人工智能的发展已对人类社会的方方面面产生了十分重大和深远的影响。
未来的人工智能系统和智能机器将发展到非常 “聪明”的程度,将能够自动识别并解决人类无法应对的体力和智力问题。智能机器将比人类至今已经制造出来的任何机器更有智慧和更加有用,它们不仅是工具,更是具有创造性的机器。我们可以期待,在不远的将来,高级智能机器人将普遍出现在我们的生活中,人工智能和智能机器人今后必将产生更大和更深远的影响。
人工智能的快速发展在给人类社会进步和经济发展带来巨大利益的同时,也带来严峻挑战。就像任何新技术一样,人工智能的发展也引起或即将出现许多问题,并使一些人感到担心或懊恼。社会上一些人担心人工智能技术会抢夺他们的饭碗而使他们失业,担忧智能机器人的智慧超过人类而威胁人类安全等。这些问题涉及劳务就业、社会结构变化、思维方式与观念的变化、法律、伦理道德、心理威胁和技术失控危险等。这些都是值得高度关注的影响社会安定和谐的社会问题。
下面探讨人工智能带来的几个具体的社会问题。
1.劳务就业问题
由于人工智能能够代替人类进行各种脑力劳动和体力劳动,例如,用工业机器人代替工人从事焊接、喷漆、搬运、装配和加工作业,用服务机器人从事医护、保姆、娱乐、文秘、记者、会计、清扫和消防等工作,用海空探索机器人替代宇航员和潜水员进行太空和深海勘探和救援。机器人将可能引发就业市场的变动并影响人类生活。因此,将有一部分人员可能把自己的工作让位给机器人,造成他们的下岗和再就业,甚至造成失业。
2013年英国牛津大学的一项研究报告称:未来有700多种职业都有被智能机器替代的可能性。越是可以自动化、计算机化的任务,就越有可能交给智能机器完成,其中以行政、销售、服务业首当其冲。涉及的职业有司机、技工、建筑工人、裁缝、快递员、接线员、抄表员、会计、收银员、翻译、记者、法官、播音员、节目主持人、保安、交易员、客服、保姆等。
广泛采用人工智能技术和智能机器替代员工从事各种劳动,这是由智能机器的优点决定的。这些优点包括:提高生产效率,降低运营成本;提高产品质量的稳定性与一致性;缩短产品改型换代的准备周期,减少相应设备投资;降低对一线操作人员的技能要求,改善劳动环境;节约人工工资和相关费用,提高生产安全;更加灵活,大大提升批量化生产效率,实现小批量产品的快速响应;更加信息化,使得生产制造过程中的材料、半成品、成品、各种工艺参数等信息更加容易采集,方便质量控制、质量分析、产品制造过程追溯,同时产品的成本统计和控制也更加容易。智能机器特别能够代替人们从事危险和不愿意从事的工作。
采用人工智能技术还与直接经济效益有密切关系。以机器人为例,根据机器人平均价格指数和劳务报酬指数曲线,机器人的平均价格一直下降 (如10年降价一半),而劳务报酬却一直上升(如10年提高一倍);也就是说,10年间劳务报酬指数与机器人价格指数的比值提高了4倍。因此,企业愿意采用机器人换人,世界各国必然更多地应用各种机器人 (含工业机器人和服务机器人等)以替代人工劳动,这已成为21世纪的一个必然趋势。这是一个值得社会学家、经济学家、人口学家以及政府决策官员们高度关注和深入研究的紧迫社会问题。
要解决智能机器换人问题或部分员工失业问题,一方面要扩大新的行业 (如第三产业)和服务项目,向生产和服务的广度和深度进军;另一方面,要加强对工人和技术人员的继续职业教育与培训,使他们适应新的社会结构,能够到绿色产业或行业工作,继续为社会做出贡献。从某种意义上看,智能机器代替员工的主要是那些单调、重复、危险、恶劣等不适宜人类或人类不愿意从事的工作,而可能为员工创造新的绿色环保工作岗位与需要更高创造能力的工作。这应该是社会的一种进步,人类要适应这种进步就需要不断学习新技术,更新知识。
2.社会结构、思维方式与观念的变化
人们一方面希望人工智能和智能机器能够代替人类从事各种劳动,另一方面又担心它们的发展会引起新的社会问题。实际上,数十年来,社会结构正在发生一种静悄悄的变化。过去人们直接与机器打交道,而现在要通过智能机器与传统机器打交道。也就是说,人—机器的社会结构,终将为人—智能机器—机器的社会结构所取代。智能机器人就是一种智能机器。从发展的角度看,从医院里看病的 “医生”、护理病人的 “护士”,旅馆、饭店和商店的 “服务员”,办公室的“秘书”,指挥交通的“警察”,到家庭的“勤杂工”和 “保姆”等等,将均由机器人来担任。因此,人们将不得不学会与智能机器相处,并适应这种变化了的社会结构。
1999年,国际自动控制联合会 (IFAC)第14届世界大会主席、中国工程院院长宋健在大会开幕式主题报告中说:再过20~30年,“可以设想,全世界的老人都可以有一个机器人服务员,每一个参加会议的人都可能在文件箱中带一个机器人秘书。”这一设想已经开始实现。
2016年,比尔·盖茨预言未来社会家家都有机器人。他说,“现在,我看到多种技术发展趋势开始汇成一股推动机器人技术前进的洪流,我完全能够想象,机器人将成为我们日常生活的一部分。”盖茨的预言也开始实现。现在,各种服务机器人已进入千家万户。
人工智能的发展与推广应用,还将影响到人类的思维方式和传统观念,并使它们发生改变。例如,传统知识一般印在书本报刊或杂志上,因而是固定不变的,而人工智能系统的知识库的知识却是可以不断修改、扩充和更新的。又如,一旦专家系统的用户开始相信智能系统 (智能机器)的判断和决定,那么他们就可能不愿多动脑筋,变得懒惰,并失去对许多问题及其任务的责任感和敏感性。那些过分依赖计算器的学生,他们的主动思维能力和计算能力也会明显下降。过分地依赖人工智能的建议而不加分析地接受,将会使智能机器用户的认知能力下降,并增加误解。人工智能在科技和工程中的应用,会使一些人失去介入信息处理活动 (如规划、诊断、理解和决策等)的机会,甚至不得不改变自己的工作方式。
此外,由于与机器人打交道毕竟不同于与人打交道,所以人们必须改变自己的传统观念和思维方式,逐步适应与智能机器的共处。
因此,在设计和研制智能系统和智能机器时,应考虑到上述问题,尽量鼓励用户在处理问题中的主动性,让他们的智力积极参与问题求解过程。
3.心理上的威胁
人工智能使一部分社会成员感到心理上的威胁,或叫做精神威胁。人们一般认为,只有人类才具有感知精神,而且以此与机器相别。如果有一天,这些人开始相信机器也能够思维和创作,那么他们可能会感到失望,甚至感到威胁。他们担心:有朝一日,智能机器的人工智能会超过人类的自然智能,使人类沦为智能机器和智能系统的奴隶。对于人的观念 (更具体地指人的精神)和机器的观念 (更具体地指人工智能)之间的关系问题,哲学家、神学家和其他人们之间一直存在着争论。按照人工智能的观点,人类有可能用机器来规划自己的未来,甚至可以把这个规划问题想象为一类状态空间内的搜索求解过程。当社会上一部分人欢迎这种新观念时,另一部分人则发现这些新观念是惹人烦恼的和无法接受的,尤其是当这些观念与他们钟爱的信仰和观念背道而驰时。
4.技术失控的危险
任何新技术的最大危险莫过于人类对它失去了控制,或者是它落入那些企图利用新技术反对人类的人手中。我国引以自豪的火药发明被某些外国人用于制造炸弹;化学科学的成果被人用于制造化学武器;生物学的最新成就可能被用于制造生物武器;核物理研究的重大突破导致原子弹和氢弹的威胁。难怪现在有人担心机器人有一天会反宾为主,奴役它们的创造者——人类,担心人工智能的其它智能制品威胁人类的安全。正是由于认识到这种担心,著名的美国科幻作家阿西莫夫 (I.Asimov)提出了“机器人三守则”:
(1)机器人必须不危害人类,也不允许它眼看人类受害而袖手旁观。
(2)机器人必须绝对服从人类,除非这种服从有害于人类。
(3)机器人必须保护自身不受伤害,除非为了保护人类或者是人类命令它作出牺牲。
我们认为,如果把这个 “机器人三守则”推广到整个智能机器,成为 “智能机器三守则”,那么,人类社会就会更容易接受智能机器和人工智能。
可惜至今未能创造出一种能够鉴别实际上是否遵循 “三守则”的人工智能软件。一个人工智能系统可能与其它一些机构结合起来,力图遵循这些规则,但尚无足够的智能来确保长期地遵守这些规则。
人工智能技术是一种信息技术,能够极快地传递。因此,存在某些比爆炸技术更大的潜在危险,即人工智能技术可能落入不负责的人手中,被他们用于进行反对人类和危害社会的犯罪 (有的人称之为 “智能犯罪”)。对此,我们必须保持高度警惕。同时人类有足够的智慧和信心,能够研制出防范、检测和侦破各种智能犯罪活动的智能手段。如果社会上少数败类胆敢利用人工智能进行危害人类的活动,那么他们将受到历史的无情惩罚。玩火者必自焚,这是历史的必然。人类一定能够从人工智能技术中获得不可估量的利益。
5.法律问题
人类将对具有人工意识的机器人给予前所未有的关注。机器人的发展与应用带来了许多法律问题,例如,汽车机器人发生事故,造成伤害应该由谁负责?又如,自主机器人士兵在战场上开枪打死人类是否违反国际公约?再如,机器人参加运动会赛跑可能会要求得到奖赏,并由此获得收入。随着思想复杂性的提高,人形机器人可能开始表达对于生活现象和问题的观点,甚至提出政治主张,要求拥有言论自由和游行示威权利。这些现象可能给人类带来挑战、不安,甚至危险。有些学者认为:机器人与人类反目成仇的可能性远高于我们的预想。机器人可能与人类对抗,它们不具备人类那种良知意识、是非观念和人生观念。用于对实施暴力、人身伤害甚至杀人行为的人类法律,是非也适用于机器人?机器人法律问题已经提上议事日程。
据报道,已有一些国家,如韩国、日本和美国等,已就机器人的一些问题立法,保护人类和机器人。韩国政府颁布了《机器人道德宪章》,以确保人类对机器人的控制,保护机器人获得的数据,保护机器人的权利。日本也颁布了《下一代机器人安全问题指导方针》,保护人类在使用机器人过程中不被伤害。
阿西莫夫提出的 “机器人三守则”的目的是创造一个基本框架,以便让机器人拥有一定程度的 “自我约束”。虽然这样复杂的机器人目前还没有制造出来,但机器人法律却已被广泛应用在在科幻、电影以及机器人研发领域中的 “机器人学”和 “人工智能”领域上。
阿西莫夫
不过,阿西莫夫三法则有着一定的历史局限性和概念歧义性,三条法则之间也存在逻辑矛盾。
假如两个人斗殴,机器人应当选择帮谁呢?加入任一方都违反第一法则前半部分,不加入却又违反第一法则后半部分。
假如主人要机器人帮他去抢银行,“抢银行”也是主人的一种命令,也不违反第一法则,那么机器人一定是去抢银行。这种违法的事情算不算违背第一法则?
假如机器人在执行 “保护人质”命令的过程中,未能保护自己而被绑架者 “击毙”,算不算机器人违背了第三法则?
由此可见,机器人三法则自身就存在着严重的逻辑矛盾。
后来,阿西莫夫又补充了 “第零法则”,只是偷换了概念,把第一条的 “个人”换成了 “人类”,但是人类之间是有不同的利益集团的。例如,如果两个集团或两个国家发生武装冲突,任何一方都认为自己是正义的,双方都研发军事机器人投入战争,做着伤害人类的事情。其结果是,机器人做和不做都不对;如果做的话就意味帮助一部分人伤害另一部分人,如果什么也不做的话机器人就违反第二法则了。
至今,又出现了对阿西莫夫机器人法则的补充意见。那些在阿西莫夫机器人三法则基础上加以修改得出的所谓 “完善”一点的定律,其实也并不完美,而且走向了穷尽所有,可能走进制定规则的误区。试想,连人类 (指令制定者)都无法判断是否正确的行为,机器人又如何能够得出正确的结论呢?在这个问题没有解决之前,谁能说机器人做错了?
机器人的发展也给现行法律带来了严峻挑战。
现有劳动法以保护劳动者为宗旨。而当大量工作岗位被机器人取代时,劳动法的适用广度势将大大缩减。
在全面迎来无人驾驶的时代,主要根据驾驶人员过错划分责任的道路交通制度体系将被彻底颠覆。一旦发生交通事故,现有的驾驶员责任不复存在,汽车公司可能将成为保险公司最大客户,交通法规或将改写。
在人工智能时代,大量的作品可能由智能机器创作,如记者机器人撰写新闻稿。这一切或将颠覆现有的与知识产权相关的法律制度。
“高级案件管理”系统,也被称为 “机器人法官”。该系统能够通过对既有数据的判例与分析,自动生成最优的判决结果。与法官一样面临职业危机的还有律师、教师、艺术家等行业。在人工智能时代,法律也将重塑对他们的职业要求。
人工智能时代的法律话题或者才刚刚开始,人类社会对它的探索也将持续不懈。无论喜欢或者不喜欢,人工智能时代终将到来。这将是一个智能机器与人高度融合的时代。在这个时代,我们将与智能机器一起生活、一起工作、一起思考。传统法律将面临巨大挑战,法律观念将被重新构建。法律的终极关怀,不仅包括人,还包括智能机器。无论你喜欢或不喜欢法律都将重构,不得伤害人类与不得虐待机器人或将同时写进宪法。
如同其他产品一样,人工智能产品在法律领域的许多责任问题和安全问题需要引起世界各国和智能机器研发者的高度关注。在医疗领域,医疗机器人引发的医疗事故或实施的恶意行为的责任问题;在军事和执法领域,执法机器人代行警察职能。具有反社会倾向的机器人将向人类伸出黑手,实施非法行为或恐怖袭击。这些问题应当如何考虑与处理?因此需要解决许多相关的法律问题。
由于人形机器人可以移动,具有自主性,能够通过内置软件做出决定,因此将提升机器人作业的安全性,但也将带来更加复杂的法律问题。机器人制造商必须为其产品的不良后果负法律责任,甚至被起诉。
希望法律能够规范人形机器人和其他智能机器的发展。特别是当超级智能机器变得越来越强大以至于超出人类控制时,这种能力可以帮助界定人机交互的界限。这需要我们确保对智能机器的控制、防止非法使用、保证智能机器获取安全数据,以及建立智能机器身份识别和跟踪系统。
人类制订智能机器 (包括智能机器人)法律的目的在于:通过完善的法律法规,最大限度地利用智能机器具有的能力,引领它们的发展进入正确轨道,并防范它们可能带来的消极影响,确保人工智能和智能机器以及人类社会的长治久安。
6.伦理道德问题
首先看看人工智能伦理问题出现的背景。
智能机器的发展关系人类的存亡。人工智能与智能机器的伦理问题应该引起全社会的关注,现代技术的进步让人类社会置于风险之中。对于人工智能的伦理问题,要做好智能技术的控制,先控制后制造,在机器人的设计和生产中人类应有所保留。
人们所担忧的应用服务机器人引发的风险与伦理问题,主要涉及两个方面:一是小孩和老人的看护,另一是军用自主机器人武器的发展。
孩子与机器人短期接触可以提供愉悦的感受,还可以激发他们的兴趣和好奇心。但是,机器人还不能作为孩子的看护者,因为孩子始终需要大人来照顾。过长时间与机器人相处,可能会造成孩子成长过程中不同程度的社会孤立。如果将孩子完全交给一个机器人保姆,让机器人保姆照料孩子的安全,那么可能使孩子缺失社交功能。人口老年化程度加深促进了助残机器人的发展。例如,喂食机器人、洗澡机器人、提醒用药的监控机器人等。老年人长期完全置于机器人照顾之下也是存在风险的。老年人需要与人接触,需要看护者为他们提供日常护理工作。即使它们可以减轻老年人的亲友的内疚感,却无益于解决老年人的孤独问题。人们正在逐渐被现实世界中人与机器人之间的关系所误导。
军用机器人的应用也产生另一些道德问题。例如,美国在伊拉克和阿富汗配置了5000多个遥控机器人,用于侦察与排雷,也有少数用于作战的重型武装机器人。在作战行动中,由地面机器人充当先锋,当隐藏着的敌人攻击时,无人驾驶侦察机发现敌军位置,通知巡航中的战斗机,然后,战斗机发射导弹,命中目标。这一切行动都通过网络由战场上的美军操控。地面武装机器人和自主/半自主武装无人机造成许多无辜群众 (包括儿童、妇女)的伤亡。如在叙利亚、伊拉克、阿富汗经常出现的那样。
高端军用无人机正在不断智能化
通常,武器都是在人的控制下选择合适的时机发动致命打击。然而,军用机器人可在无人控制的条件下自动锁定目标并且推毁它们。这些伦理问题的出现是因为目前还没有能够在近距离遭遇战中区别战斗人员和无辜人员的运算系统。计算机程序需要一个非常清晰的非战斗人员的定义,但目前还没有这种定义。机器人被设计用于实施包括军事活动或违法行为在内的对抗人类的行动。自主机器人士兵将大大增加引发地区性冲突和战争的可能性。
人工智能和智能机器的伦理道德问题将关系到智能机器是继续为我们人类所用还是成为我们的敌人?
许多科幻影片的剧情和结局反映了人类对于他们的创造物可能进行反抗的恐惧。例如,影片《终结者》中人类为了生存权而与机器人开展战斗。《黑客帝国》中,人们成为寄生机器人的俘虏;它们让人类活着只是为了从人类身上获取能量。卡雷尔·凯佩克在1921年创作的舞台剧《罗萨姆的万能机器人》剧中,机器人发动叛变并摧毁它们的人类主人。
人形机器人的发展引发对伦理道德的关注。如果不谨慎对待,那么机器人可能使我们受到伤害:造成伤害事故、实施故意伤害或犯罪行为、可能直接接触我们的个人隐私信息,并把它泄露给公众。
人形机器人已获得广泛应用,它们可以从事艺术表演、医疗实验对象、招待工作、时装表演。开发者力图复制人类的表情与行为,然而它们当前所具有的功能与科幻小说描述的相差甚远。对科技的恐惧感也将继续出现。比如,有一位机器人科普书籍的作者给他的3岁女儿买了一个和她一样高、能走路、会唱歌的机器人娃娃。当娃娃走向女儿并唱歌表演时,女儿不但没有感到惊喜和跑过去拥抱娃娃,相反,她脸色变得煞白,尖叫着跑回房间,好像见到怪物和幽灵一样。多年后他的3岁的外孙,在迪士尼乐园观看人形机器人表演时也被吓了一跳,为了让外孙平静下来,他只好把外孙带离机器人表演现场。这些说明人类在面对机器人时会产生出于本能的恐惧感。这个问题值得研究。
地球上某种由人类创造出来的生物,对人类是危险的,而且可能存在最具毁灭性的威胁。人类如何才能让智能机器具有同情心、责任心、同理心、负罪感、羞耻感和是非判断能力,如何通过编程实现机器人道德?否则,人形机器人就可能具有反社会和毁灭人类的倾向。在生物工程技术的启发下,机器人被制作的越来越像人类。仿生应用程序的开发要确保机器人作为有道德的生物存在。智能机器的智能构建需要得到人类本性的启发,同时又要避免人类的故有缺点。我们希望制作出和善的智能机器,而不希望它们完全仿效人类,不希望它们仿效残忍、自私、自以为是、为了一己私利而不择手段等不良品性。
那么,人类是否需要对智能机器的权利加以限制?
人类赋予智能机器某些权利是合理的,智能机器应该拥有得到尊重的道德权利。不过,在赋予智能机器某些权利的同时,我们更应该对智能机器的权利进行限制。
智能机器和人工智能系统研发人员正在不断努力,通过建立道德准则、指导方针以及将道德编制为相应算法以指导智能机器的行为,寻求解决问题的方法,以确保人工智能机器对人类是友好的。
许多学者认为,具有高度智能的机器会向人类要求更多的权利。这也提醒我们,技术上的可能并不能成为道德上的应当。我们是否应该对智能机器的发展做出某种制度上的限定,使其按照某种规范发展?对某种技术的应用范围进行限制,这并不是全新的话题,比如许多国家已经通过各种形式以至立法禁止克隆人。即使人们认为科学技术的研究不应该较多地受到伦理规范的限制,但至少应该对科技研究成果的应用范围保持高度的警惕。关于智能机器的科学技术基础至少包括人工智能、计算机科学技术与机器人学,对这些相关领域的科技成果的应用并不是无限度的。如果说克隆人的出现关乎人类尊严的话,那么智能机器的无限发展也将可能对人类的安全形成威胁。关于智能机器的发展限度等问题,政府部门、科技界、哲学界与法学界等不同领域的人员显然需要精诚合作,共同努力解决相关问题。这已经不是只存在于科幻小说与思辨哲学等领域的话题,而是一个日益紧迫的现实问题。
公众和立法机构将采取行动限制智能机器和人工智能技术的发展,而不是像原子弹和生化武器那样要在人类遭受重大伤害后才加以限制。国际社会的科学家和工程师们正致力于建立适用于人形机器人开发与使用的“道德准则”。要努力确保人类对智能机器的控制,防止非法使用,保障智能机器获取安全数据,确立明确的识别与跟踪智能机器的方法。需要制定相关法律保护人类免受变得越来越聪明能干、甚至某些能力超过人类的智能机器的伤害。
人工智能技术的发展给人类带来福祉,但需要谨慎地对待智能机器发展过程中可能出现的问题,尤其要考虑如何编制友好的人工智能算法来使智能机器按照伦理道德标准行事。
有必要把人工智能的社会学问题提上议事日程。政府部门、科研机构和学术团体,都要把人工智能社会学研究纳入相应计划,研究解决对策与办法。人工智能可能出现的一些负面效应或新问题,如利用人工智能技术进行金融犯罪,智能驾驶车辆需要出台相应的交通法规等。因此,需要建立相关的政策和法律法规,避免可能风险,确保人工智能的正面效应。只有人工智能应用得好、把握得好,才能确保人工智能不被滥用,确保人工智能是天使而不是魔鬼。