APP下载

机遇或危机?算法时代ChatGPT对人机关系的重构研究

2024-04-18张柏林

新闻研究导刊 2024年5期
关键词:算法

摘要:近年来,人工智能技术不断发展,生成式人工智能愈发成熟。2023年3月,OpenAI发布可接受文本和图像输入的多模态模型——GPT-4,GPT-4能更为准确地回答多种专业的学科问题,甚至通过美国医学执照考试和模拟律师考试;同年7月,OpenAI在美国申请了GPT-5的商标。市场上也涌现出一批人工智能应用,如谷歌的Bard、百度的文心一言等。凭借强大的生成能力,生成式人工智能被应用于内容生产、数据分析、工业设计等众多场景。纵观人工智能和AI算法的发展历程,围绕人机关系这一议题,学界对以ChatGPT为代表的生成式人工智能所带来的影响存在多种观点,可大致分为技术工具论和技术控制论两种流派。

文章以ChatGPT为例,探讨算法对人机关系的重构。现代的人机关系,既有算法对人的异化威胁,也有人积极寻求应对方式,争取合作共生的协作关系。一方面,面对算法超越性的数据收集分析和内容产出能力,人的自主性面临史无前例的挑战;另一方面,算法展露的智能性进一步推动人机之间的交互对接,为平等的人机合作提供前所未有的可能性。如何在正确认识ChatGPT的基础上,认识新的人机关系,是急需解决的问题。

关键词:ChatGPT;算法;人机关系;生成式人工智能;OpenAI

中图分类号:TP18 文献标志码:A 文章编号:1674-8883(2024)05-0001-04

一、问题的提出

2019年,美国Netflix公司上线动画短片合集《爱、死亡和机器人》,第14集《齐马蓝》因逼真的预言和展现算法人工智能对人文艺术的探索以及人类社会秩序的重构,而获得极佳的口碑。仅四年后,以ChatGPT为代表的生成式人工智能崛起,四年前电影中的科幻场景悄然成为现实。

目前,生成式人工智能已带来诸多影响。据报道,ChatGPT上线仅两个月,用户就达1亿,成为史上用户人数增长最快的消费者应用。庞大的用户基础放大了ChatGPT的现实影响。海量的资料库存、先进的学习能力和强大的分析技能,让生成式人工智能有高质量产出。《卫报》报道,人工智能已经可以分析法律证据与道德问题,进而预测审判结果。在79%的案子里,人工智能提出的判决与当时的法庭判决一致。剑桥大学打造的AI律师与伦敦百位律师针对法律问题展开比赛,最终以86.6%的准确率遥遥领先。

ChatGPT因其卓越的内容生成能力,已被成规模地滥用。据福布斯网调查,超过89%的受访者承认使用过ChatGPT辅助完成作业,53%的学生使用它写论文。ChatGPT的高质量产出迫使以巴黎政治学院为代表的高校实施一系列限制措施。此外,生成式人工智能还存在真实性问题、社会伦理问题、算法歧视问题等诸多问题。

在AI发展过程中,对人机关系这一议题,学界存在多种观点的分野。

以邱泽奇为代表的技术工具论学者认为,生成式人工智能只是效率工具,不具备自我决策的能力[1]。使用工具所导致的后果,无关工具本身。算法优化社会服务、保障行政司法等社会治理案例屡见不鲜。算法也可能被操控利用,“编码精英”借助算法,从被边缘化或无报酬的劳动力中提取劳动所得,巩固权力,加深社会阶级分化。

以马尔库塞为代表的技术控制论学者则认为,技术具有控制公众和影响社会秩序的能力。“支配而不是压迫,它们支配着人这一工具——不仅支配他的身体,而且支配他的大脑甚至灵魂。”[2]算法时代,人类社会将面临一系列挑战。马克思主义认为,人能使用技术去建构和改造社会秩序[3]。技术发展和社会秩序建构存在两种关系:要么利用技术推动社会发展,要么技术使用失当从而颠覆原有社会秩序。不论如何,都凸显着技术对社会的强大影响。

笔者认为,技术工具论虽为如何引导公众使用算法提供了更多理论指导和方法论,但其研究路径忽略了组织和制度背后社会行动者的互动策略与实践能力;秉持技术控制论的学者,或多或少强调算法控制社会的隐蔽性和强制性,却忽略了算法的局限性与公众的实践性,对算法发挥影响的要素条件、作用结构和影响强度等复杂的互动过程并未进行具体的分析。现有文献对算法样态的描摹也多强调算法的控制性、决定性和不可避免性,轻视了人的主观能动性,实然层面分析匮乏,缺少对公众行为与心理的观察研究。

因此,如何在正确把握ChatGPT特殊性的基础上重新认识人机关系,是当下亟待解决的问题。现在的人机关系,是过去对待语音助手的工具论模式,还是人让渡自己思考创作的权利进而以机器为中心;是人作为主导者使用ChatGPT,还是变成趋于平等的人机交互模式;是人发挥主观能动性驯化技术,还是逐步被人工智能取代人在社会中的地位。传统的人工智能视角下的人机关系是否有必要调整?

算法会根据制度、消费者和设计者的变化进行调整,算法对人机关系影响的研究不能局限于算法与社会各界单线性影响关系,复杂多变的动态改变更符合实际。因此,上述问题必须基于现代化视角下的人机关系,才能予以全新诠释。

二、ChatGPT的算法对人机关系的异化

数字时代,时空的消解产生一种前所未有的异化形式,即数字异化。数字异化隐藏原有的阶级冲突,操纵更隐蔽、剥削更极致、惩罚更彻底的特点给人造成更为严重影响。从本质上看,马克思的劳动异化理论依旧适用。一方面,“工人被看作是机器的延伸,而不是机器是工人的延伸”的观点依旧有效;另一方面,算法在促进生产力、劳动分工和剩余价值方面贡献巨大,信息社会不仅是一个后工业社会,更是一种劳动资源和生产方式的延伸与发展。

在《1844年经济学哲学手稿》中,马克思深刻揭示了资本主义生产下的劳动异化问题。步入算法时代,资本借助算法对人劳动生活的操控,使数字劳动异化为与资本增殖逻辑相契合、与人的逻辑相背离的劳动活动[4]44。

(一)對人的非自我规训和劳动成果的无偿占有

劳动过程异化,指劳动者在劳动过程中身体与精神所遭受的双重负担。在数字劳动领域,这种异化现象表现为劳动者不仅失去自主性,还导致劳动加速和劳动规训[4]45。数字资本运用算法严格约束劳动行为,不断缩短单位劳动的时间跨度,提高劳动强度,从而实现劳动过程的加速。如外卖骑手等依赖算法工作的“零工”劳动者,不得不忍受平台的种种限制,面对排名、评价和安全等方面的问题。此外,数字资本为追求剩余劳动价值,延长劳动时间,缩短非劳动时间,使劳动者持续生产活动。在紧张和不间断的劳动过程中,职业病司空见惯,过度劳动时有发生。算法时代,劳动者没有实现想象中的解放,反而承受着更多负担,他们被算法规训而非工具化地使用算法,在生产生活中更多的是否定自我而非实现自我。

马克思强调,人类的劳动产品“不过是活动、生产的总结”[5]270。智能时代,数字劳动者无法占有自己的劳动成果,甚至随着劳动增加,他们所占有的劳动产品越来越少,失去劳动产品的所有权,即“凡是成为他的劳动的产品的东西,就不再是他自身的东西”[5]268。数字劳动产品因数字劳动而生,理应归劳动者所有,但资本凭借市场主导地位,通过互联网用户“自愿签订”的隐私条款,把数字产品的所有权转移给资本。同时,随着大众媒介的发展,人们在大众媒介上的注意力被普遍商品化。在这一交易过程中,注意力的生产主体被排除在外,注意力劳动的价值被传播平台免费占有。

劳动者不仅失去对数字产品的所有权,还很难获得与劳动价值相等的报酬,劳动成果被资本占有。ChatGPT由程序员基于算法设计,但ChatGPT的创造者没有其所有权。OpenAI公司最初以造福人类为宗旨,但商业化让ChatGPT最终成为资本的产物。

(二)使劳动者丧失劳动过程中的自主性

“ChatGPT等生成式人工智能的发展……问题不在于人类进化和退化的此消彼长本身,而在于对于这种进化和退化此消彼长的长远把握。人类发展越来越主要依靠科学技术的发展,而科学技术发展总是会伴随相应的人类进化和退化问题。”[6]

ChatGPT的高质量产出导致众多用户的依赖,加深唯技术论的思想,缺乏发展的进取心。OpenAI多次鼓励用户进行批判性思考和独立判断,但收效甚微。

究其原因,和ChatGPT的强大能力有关。#我们会被ChatGPT取代吗#、#ChatGPT为何爆红出圈#等话题屡次登上微博热搜。公众的情绪与面对神秘学说的态度相似,充满对未知的恐惧和对控制力的渴望。ChatGPT因其强大的生成能力,成为人们崇拜仪式下的力量核心,形成崇拜力量核心的符号资源圈层[7]18。OpenAI通过建立与ChatGPT的联系,收获更高的关注度,形成更强的影响力。

“技术延展了人的主体性,同时也呈现一种泛在的反主体力量。”[7]20倘若劳动者陷入技术崇拜,过度依赖ChatGPT的内容产出,无疑会陷入技术至上主义和人文空心主义,丢失思考判断能力和自主性,最终沦为内容的搬运工。

(三)潜移默化侵蚀和重塑用户的思想

ChatGPT本身所产生的思想侵蚀较为隐蔽,但这并不意味着可以忽视其带来的思想侵蚀的危害。

长期研究网络虚假有害信息的互联网公司新卫士认为,ChatGPT将成为互联网上最强有力的散播虚假信息的工具。AI教父辛顿更是警告:“生成式人工智能正在制造大量虚假的文本、图片和影像。”可见,ChatGPT会产出大量假数据已成行业共识。ChatGPT的高自主性及应用领域的交叉性与普及性,不仅强化了虚假信息的迷惑性,也让虚假信息传播的范围更广、频次更高。

虚假信息还会根据算法的意识形态倾向形成算法歧视。ChatGPT主要通过网络爬虫的通用资料库进行数据搜集。《卫报》调查表明,社会中的偏见言论更容易被ChatGPT吸收和学习[8],并概率性地发表歧视性言论,这种现象会加深使用者的偏見,在下次接收相似言论时提升认同感,造成歧视思维的恶性循环。ChatGPT表面中立,实际上潜移默化地塑造着用户的思想。

三、如何监管和应对ChatGPT带来的挑战

马克思认为,人与动物的区别在于,动物在世界面前是被动的,而人作为意识主体,具有主观能动性,能够能动地认识和改造世界,从而更好地服务实践。

斯蒂格勒强调,技术特别是算法具有“药理学”性质,它既是良药也是毒药。他认为,法兰克福学派只看到了技术的毒性,却忽略了它使人类如动物般生存的药性[9]。算法的价值表现为它作为工具,被人驯化以实现生产生活的创新和社会生产力跨越性的提升。

海德格尔认为,技术既是目的的手段,也是人的行为,“技术的工具性规定本身就是正确的”,“正确的东西并不意味就是真实的东西,而只有真实的东西才能真正实现人的自由发展,才能真正将人们带入一种自由的关系”[10]。他指出,技术有工具性特征,但也可能存在价值负荷的危险。不过,技术的工具性特点证明人可以充分发挥自己的主观能动性去驯化技术。

面对ChatGPT对人的自主性的挑战,人不会一味地接受被异化,而会采取相应的措施和合作方式积极应对挑战。

(一)多路径并行,加强制度监管

面对ChatGPT带来的挑战,国家发改委公布《国家以工代赈管理方法》,指出“能用人工尽量不用机械”;联合国教科文组织号召各国执行《人工智能伦理问题建议书》,旨在“提供所有必要保障”。

目前,国际社会对ChatGPT的应对方式主要有监管和防护两种路径。

监管层面,主要有轻监管和强监管两种路径。

以英美为代表的轻监管路径,强调ChatGPT的实际使用,聚焦ChatGPT的具体使用而非背后的技术产业,以保证监管方式的适用性。例如,2023年5月,英国竞争和市场管理局的首席执行官莎拉·卡德尔表示,监管机构对ChatGPT的算法模型进行研究,同时评估其带来的市场利益可能性,考虑英国政府应如何确保市场竞争的公平和消费者权益的保护;美国副总统玛拉·哈里斯计划约见有能力掌握生成式人工智能的企业,一同探讨产品的安全性。英美政府均认为,采取多元的治理措施才是发展技术的最佳方式,强势监管只会阻碍技术的创新。

以欧盟为代表的国家和组织与之相反,采取强监管方式,认为监管生成式人工智能需要像监管药物一样,成立专门机构进行严格测试和上市审批。2023年2月,欧洲议会AI伦理顾问安娜·费伦德发表文章,诠释监管生成式AI的背景和原因;7月,欧洲议会通过《人工智能法案》授权草案,这意味着已正式进入欧盟立法严格监管AI的最终谈判阶段。欧盟立法者虽然表面不认为ChatGPT存在高风险,但依旧提出了更严格的要求和更明确的义务。

防护层面,主要有内部优化和外部控制两种途径。

内部优化,指价值观纠正,减轻算法的歧视偏向。OpenAI提出三大产品优化计划。第一步是改善算法的默认行为,减少算法在响应不同问题时的偏差,拒绝特殊时期敏感问题的回答;第二步是广泛定义ChatGPT的价值观,不提供涉嫌反社会反道德的回答;第三步是对默认值和硬边界的公共输入,让ChatGPT的用户能够影响系统的规则。

外部控制,旨在通过外部建立的安全措施,弥补算法内部模型的缺陷。OpenAI采用新战略,防止AI提供虚假信息。过去,对算法的鼓励是针对结果的正确与否,但今后的鼓励条件是在单一逻辑推理环节有正确的表现,即“过程监督”。过程监督更有助于产生正确回答,鼓励ChatGPT更逻辑化地思考。同时,OpenAI表示将允许用户通过OpenAI创建AI辅助审核系统,让AI判断帖子内容。AI辅助审核系统,不仅能减少人工审核,还能实现速度更快、效率更高的反饋闭环。

(二)善加利用,建立新型协作关系

在以往的工业模式中,机器的滞后性导致工人需要自我改变,以适应机器的缺陷。马克思认为,“在工场手工业和手工业中,是工人利用工具,在工厂中,是工人服侍机器”。如今,ChatGPT的智能性改变了以往工人通过异化自我以适应机器的方式,实现了“请求—回应”的新型人机协作模式[11]。算法的进步促使人和ChatGPT有更规范的关联:人向ChatGPT输入指令,ChatGPT进行产出,由此构成人机交互的“请求—回应”关系。“请求—回应”的协作模式让人与ChatGPT之间更加平等。ChatGPT参与到脑力劳动中,实现对人的生产活动的增益。

随着ChatGPT的升级,其不仅会成为一种新的脑力劳动工具,还会成为一种新的生活方式。如优达学城使用GPT-4创建了智能虚拟导师,虚拟导师和真人导师协助,为学生提供个性化的指导;章鱼能源公司将ChatGPT纳入客户服务渠道,和人工客服一起解决客户所提出的问题,客户满意度较以往明显提高。

ChatGPT所建构的新型人机关系,强调人机合作。在“请求—回应”的关系下,工人不再需要自我异化,机器不再简单、重复地执行指令,双方互有增益。南京大学哲学系教授蓝江指出,ChatGPT等生成式人工智能的价值在于,它参与到人类的知识和经验之中,它的目的不是彻底取代人类,而是形成我们的身体经验和人工智能的神经网络经验的交互和对接,让基于人类身体的碳基伦理和基于神经网络算法的硅基伦理可以在一个共生的层面上结合起来[12]。

四、结语

想象中的未来已经到来,生成式人工智能来势汹汹介入人们的日常生活。面对ChatGPT,算法对“大脑甚至是灵魂的支配”不再只存在于哲学书中的空想。但是,人并非算法手中的提线木偶,不会放弃自主性接受异化,国家和社会正在积极应对挑战。

关于生成式人工智能的应对措施,必须牢牢把握算法社会的发展规律,在互利共生的人机关系的基础上,完善治理方式,共建规范的数字治理生态,进而实现人机合作共生。

参考文献:

[1] 邱泽奇.算法向善选择背后的权衡与博弈[J].人民论坛,2021(Z1):16-19.

[2] 赫伯特·马尔库塞.单向度的人[M].刘继,译.上海:上海译文出版社,2008:23.

[3] 周凡.后马克思主义:批判与辩护[M].北京:中央编译出版社,2007:332.

[4] 王圆圆,刘彬彬.智能时代的数字劳动异化及其消解[J].中国劳动关系学院学报,2023,37(5):43-52.

[5] 马克思,恩格斯.马克思恩格斯全集:第3卷[M]. 2版.中共中央马克思恩格斯列宁斯大林著作编译局,译.北京:人民出版社,2002:268,270.

[6] 王天恩. ChatGPT的特性、教育意义及其问题应对[J].思想理论教育,2023(4):19-25.

[7] 孙琦,陈力丹.从力量崇拜到认知晕轮:ChatGPT的传播仪式[J].传媒观察,2023(7):17-22.

[8] 斯眉.《卫报》:人工智能已出现种族和性别偏见[N].北京科技报,2017-04-24(007).

[9] 贝尔纳·斯蒂格勒,杨建国.数码是另一社会的信使[J].文化研究,2015(3):189-198.

[10] 冈特·绍伊博尔德.海德格尔分析新时代的技术[M].北京:中国社会科学出版社,1993:9,19.

[11] 唐林垚.具身伦理下ChatGPT的法律规制及中国路径[J].东方法学,2023(3):34.

[12] 蓝江.生成式人工智能与人文社会科学的历史使命:从ChatGPT智能革命谈起[J].思想理论教育,2023,528(4):12-18.

作者简介 张柏林,研究方向:中外新闻史、网络传播。

猜你喜欢

算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法