人工智能招聘中个人隐私保护:挑战、困境与出路
2024-01-01雷渊智姜向阳
摘要:随着人工智能技术在人力资源管理领域的广泛应用,以机器学习为代表的算法工具正悄然改变着传统的招聘模式。在提升招聘效率与准确性的同时,智能化招聘也引发了诸多隐私保护方面的担忧。求职者海量个人信息的过度采集与滥用、算法模型中隐藏的偏见与歧视,以及系统决策的不透明等问题,共同构成了亟待破解的隐私困局。为此,有必要在梳理国内外相关研究现状的基础上,从法律和人力资源管理的复合视角切入,结合企业的实践案例,系统剖析人工智能招聘过程中个人隐私面临的技术伦理风险、法律制度困境及企业规制不足,深入讨论求职者日益沦为“被算法控制”的无力感的社会根源,进而从立法完善、企业自律、个人赋权三个层面提出一揽子保护路径。
关键词:人工智能招聘;个人隐私;算法偏见;法律规制;多元共治
中图分类号:D63" "文献标识码:A" " 文章编号:1009-3605(2024)04-0018-10
一、问题的提出
随着大数据、机器学习等技术的日新月异,人工智能正以前所未有的速度重塑人力资源管理的诸多职能。据统计,全球超过98%的财富500强企业已在HR领域部署AI应用。[1]一项针对美国企业的调研也显示,近55%的人力资源领导者认为,人工智能将在未来五年内彻底改变招聘行业。[2]由算法驱动的智能招聘系统正在简历筛选、面试评估、录用决策等环节大显身手。它们不仅能帮助HR高效完成海量简历的初步筛查,还能通过机器视觉、自然语言处理等前沿技术对求职者进行全方位评估,进而做出更加客观、精准的雇佣决策。[3]无疑,人工智能正在为招聘流程注入“智慧因子”,开启一场变革的序曲。
然而,每一次技术进步的背后,伦理的拷问往往如影随形。智能招聘所引发的个人隐私困境,正日益成为舆论关注的焦点。一方面,训练智能招聘系统需要海量的个人数据作为支撑。求职者的教育背景、工作经历、项目成果等信息固然是必要的,但诸如社交媒体账号、浏览记录、人脸识别、情绪分析这类“涉隐私”数据的纳入,却常常超出合理与必要的边界。个人信息的过度采集与商业化利用,无疑侵蚀着求职者对数据命运的控制权。另一方面,机器学习模型并非中性客观的化身。当数据样本存在固有偏差时,偏见也随之被引入到算法当中。譬如,当历史数据显示招聘结果的性别比例严重失衡,智能系统“学习”到的往往是对女性的系统性歧视。由此,看似中立的算法招聘,却可能对特定群体产生差别对待,损害劳动者的机会平等。更值得警惕的是,AI招聘的决策逻辑往往隐藏在一个“黑箱”中,其筛选标准、评判依据对求职者而言是不透明的。这意味着,当算法作出有失公允的录用决定时,个人很难察觉并寻求救济。
可见,效率与公平、创新与伦理之间的冲突,正成为智能招聘绕不开的难题。现有的法律制度往往滞后于技术的迅猛发展,个人信息保护与就业歧视等领域的规则供给尚不完备,个人在AI面前的隐私权益处于失衡状态。对此,学界虽已有所关注,但尚未形成系统性的理论分析框架。有鉴于此,本文拟从法律和人力资源管理的复合视角切入,透过对中外文献的梳理,深入剖析人工智能在招聘领域的隐私保护困境,并从立法规制、企业自治和个人维权等层面探寻破解之道。
二、文献综述:多学科视角下的探索进路
人工智能在人力资源管理中的应用及其伦理挑战,近年来已成为学界关注的重要议题。通过对中外文献的系统梳理,可以看到不同学科领域的学者从技术、法律、伦理、社会等多个视角切入,为这一复杂议题的理解提供了丰富的分析路径。
(一)技术视角:偏见与歧视的算法根源
技术视角的研究聚焦人工智能系统内生的伦理风险。Ajunwa(2020)指出,在训练数据与算法模型中隐藏的偏见,是智能招聘系统产生歧视的根本原因。[4]Yarger等(2020)进一步将其概括为“编码偏见”(Encoded Bias),即数据样本与特征选择上的局限,导致模型对不同群体预测的系统性偏差。[5]Kim(2017)则提出“分类偏见”(Classification Bias)的概念,指基于对受保护群体的错误类型化而产生的不利影响。[6]Mann(2016)还强调,偏见不仅源于静态的数据,更与动态的人机交互过程密不可分。[7]总的来看,技术取向的研究揭示了算法偏见的复杂来源,为后续研究奠定了技术基础。但对于如何从法律和伦理的高度加以规制,则有待进一步探索。
(二)法律视角:反歧视到隐私保护的规则重构
法律视角的研究直面人工智能招聘的制度困境。Ajunwa(2020)指出,当前的反歧视法在规制算法偏见时力有不逮,亟需出台专门的算法问责制度。[4]Kim(2017)也强调,在大数据时代,反歧视法必须从个体到群体、从因果到相关性等方面重新定位。[6]Bales(2020)进一步指出,应将反歧视延伸至算法的全生命周期,纳入更多的程序性规制。[8]针对隐私保护,Ajunwa(2020)提出“算法正当程序”原则,强调信息的合理利用与当事人知情同意。[4]Bodie等(2017)则主张重构雇佣关系中的隐私保护规则,赋予劳动者更多的数据主权。[9]总的来看,现有研究已经开始反思传统法律规则的局限,并试图重塑规制路径。但总体上看,对不同法律领域协同联动的制度设计还有所欠缺。
(三)伦理视角:以人为本的价值追求
伦理视角的研究直指人工智能的价值取向。侯玲玲等(2021)指出,智能招聘应以伦理为引领,将求职者作为独立的道德主体予以尊重。[10]胡萧力(2023)提出,应在智能招聘系统中嵌入透明、问责、公平、非歧视等伦理要求。[11]汤晓莹(2021)强调以人为本,在效率与公平之间寻求平衡,切实维护劳动者的尊严。[12]郭钟泽(2022)主张构建“双向奔赴”的就业伦理,重视企业的社会责任。[13]总的来看,伦理视角的研究从人的视角审视智能招聘的道德合法性,为其他视角研究注入价值基础。但对伦理原则如何指导法律完善和技术开发,有待进一步深化。
(四)社会视角:多元利益相关者的博弈困境
社会视角的研究从更宏观的角度审视智能招聘的社会影响。赵一骏等(2024)指出,算法偏见对就业市场公平性的侵蚀,将加剧不同群体间的数字鸿沟。[14]程建华(2022)强调,智能招聘引发的伦理风险,是技术、资本与权力角力的结果,需在社会结构中寻根溯源。[15]张晶等(2022)提出,智能招聘的治理需构建多元利益相关者参与机制,在协商中实现共赢。[16]这些研究超越了单一的技术视角,揭示了问题的深层社会根源,但对于推动利益相关者合作治理的路径,还有待进一步探索。
综合以上分析可以看到,智能招聘中的伦理问题已成为跨学科研究的重要切入点。相关研究在揭示技术风险的同时,也开始反思传统法律规则的不足,进而寻求伦理价值引领下的制度重构之路。但目前的研究大多停留在问题与对策的初步探讨阶段,尚未形成系统性的理论分析框架。本研究拟在前人的基础上,以法律与人力资源管理的复合视角切入,对智能招聘中的隐私保护困境进行更加全面、系统地剖析,并在此基础上提出一揽子治理对策,以推进相关理论向纵深拓展,为实践变革提供更具针对性的路径指引。
三、人工智能招聘的隐私困局解析
人工智能时代的到来,正在深刻重塑人力资源管理的方方面面。在招聘这一环节,从初步筛选到面试评估,从背景审查到录用决策,算法的参与度越来越高,个人隐私面临的风险也与日俱增。究其根源,既有技术的伦理缺失,也有法律的滞后怠惰;既有企业规制的力有不逮,更有个人维权的势单力薄。对此,有必要对这一困局的成因与表征作出深入剖析,方能对症施策,探寻破解良方。
(一)技术维度:算法模型中的偏见与歧视
海量的个人信息,是智能招聘系统的重要“数据燃料”。从求职者递交的简历信息到社交媒体上的言行表现,从面试过程中的神态举止到对职业价值观的心理测评,各种明示或暗示的数据会被整合到系统中,成为算法决策的基础。然而,数据的客观中立从来都只是一厢情愿。当原始数据存在固有偏差时,偏见也会随之内嵌于模型之中。尤其是,当历史数据反映的是人类社会长期存在的系统性歧视时,这种歧视也会被“放大”和“强化”。正如亚马逊公司曾尝试开发的AI招聘系统,由于训练数据中女性的比例过低,导致模型“学习”到对女性候选人的系统性歧视。可见,看似中立的算法,实则可能正在复制着人类的偏见。
即便训练数据相对“客观”,算法模型仍可能带来新的偏见。机器学习算法往往需要量化个体特征,因而倾向于对求职者进行“标准化”处理。这意味着,许多细微的、情境化的个体差异可能被忽略,进而影响评判的准确性。同时,相关性并不等同于因果性。当模型发现某些变量与预测结果高度相关时,很可能将其作为重要的决策依据,而忽视了其他的影响因素。譬如,当历史数据显示拥有名校背景的求职者在过去的绩效表现更优异,模型可能会过度看重教育背景,而忽视诸如工作态度、团队协作等软实力。由此,一些条件不占优势但品行优秀的求职者,反而可能在算法决策下“失声”。
另一个值得警惕的问题是,由于机器学习算法具有自我强化的特性,一旦偏见“入侵”系统,往往会随着时间推移而不断“固化”,进而影响决策的公正性。例如,当招聘结果呈现出对特定群体的偏好时,这种偏好可能进一步指导样本的选择,加剧模型的偏差。久而久之,系统不仅无法纠正先前的偏见,反而会将其视为“真理”,形成恶性循环。更糟的是,算法模型的决策过程对求职者而言往往是一个“黑箱”,个人难以知晓自身被“异化”的原因,更遑论对歧视性决定提出质疑。
综上所述,算法模型中的偏见已然成为智能招聘的伦理“死穴”。个人特征的过度量化、相关性与因果性的混淆、偏见的自我强化,共同构筑了一道“玻璃天花板”,无形中侵蚀着求职者的机会公平。对此,无论是算法的设计者还是使用者,都必须以高度的伦理敏感审慎对待,积极采取技术和管理上的应对之策,唯有如此方能最大限度规避模型偏见,确保录用决策的公平公正。
(二)法律维度:个人信息保护制度的失灵
法律的精神,在于划定个人权利的边界,维系社会的公平正义。然而,面对智能招聘所引发的隐私挑战,我国现行的个人信息保护制度却显得捉襟见肘、力有不逮。尽管现行的《网络安全法》《个人信息保护法》为隐私保护提供了基本遵循,但对于人工智能应用的诸多场景,尤其是算法自动决策所引发的信息权益冲突,仍存在不少模糊地带。
首先,在个人信息收集环节,现行立法虽确立了“合法、正当、必要”原则,但对于何种信息属于招聘所必需,并无明确的判断标准。对企业应告知的义务内容、告知方式、个人如何行使权利等,缺乏可操作的规范。这为企业过度收集求职者信息留下了空间。实际上,不少企业以提高招聘匹配度为由,在求职者不知情或未完全知情的情况下,就从多个渠道采集其个人信息,并据此进行大数据分析。求职者对信息的真实流向及后果难以一一知晓,遑论实现有效控制。其次,针对个人信息的使用,我国现行法律规定相对原则,尚未形成可操作的行为规范。这使得企业对求职者信息的二次利用、共享传输乃至商业化“变现”的边界模糊不清,个人信息自决权沦为一纸空文。
事实上,真正触及智能招聘核心的算法规制,至今仍是一片空白。从业机构对其所使用的智能系统,缺乏必要的透明度,求职者无从获知决策可能存在的偏见与风险。而一旦求职者的隐私权益受到损害,现有的法律救济渠道也存在诸多障碍。传统的民事诉讼办法在应对算法歧视时常常捉襟见肘,求职者往往难以举证系统偏见的存在,维权成本高昂。而我国现有的《就业促进法》《劳动法》等对于智能招聘实践的针对性也有欠缺,尚未形成有效的规制,难以形成有效震慑。可见,法律的滞后已成为隐私保护的掣肘所在。
更值得警惕的是,法律的缺位不仅造成了个人隐私的“无防御能力”,更可能引发一系列社会问题。数据权力的不平等正在加剧劳资双方的结构性失衡。平台垄断下日益庞大的信息不对称,使求职者在就业市场的议价能力进一步削弱。而算法歧视所引发的就业不公,从长远来看也会侵蚀社会的公平正义,加剧不同群体间的数字鸿沟。由此可见,对智能招聘加强法律规制,不仅关乎隐私权这一具体人格利益的保护,更关系到整个就业市场的健康运行,乃至社会文明的进步。对此,立法者应以更前瞻的眼光审视这一问题,积极回应时代需求,加快相关领域的法治供给,用法治之力为科技向善保驾护航。
(三)企业维度:伦理操守的缺失与规制乏力
在智能招聘的生态体系中,企业无疑占据着核心位置。一方面,企业是智能招聘系统的设计者与使用者,算法模型及其决策结果直接影响求职者的切身利益。另一方面,企业掌握着海量的个人数据资源,其数据治理能力的高下直接关乎隐私保护的成败。然而,纵观当下智能招聘实践,不少企业却在伦理操守与自律意识上存在显著缺失,未能有效履行起个人信息保护的主体责任。
追本溯源,企业伦理意识的淡漠与经济逻辑的内在驱动密不可分。在市场竞争的压力下,部分企业片面追求招聘效率的最大化,忽视了对候选人隐私权益的保护。一些企业为了不断优化算法模型,提高招聘的“匹配度”,不惜高价从第三方数据中介购买求职者的消费、位置等海量信息,进行“大数据画像”,而对其必要性与合理性则考虑不足。而出于降低系统开发成本的考虑,有的企业又急于将“参数化”的模型付诸应用,却忽视了对其公平性、稳定性的验证,更遑论对偏见风险的审慎评估。在这种急功近利的心态驱使下,求职者的隐私权益往往沦为企业逐利的“牺牲品”。
与此同时,企业自身的隐私保护能力建设也相对滞后。一些企业在求职者不知情的情况下,利用爬虫软件搜集其社交媒体信息,对其政治倾向、生活方式等敏感信息进行分析。这些行为已经逾越了合理与必要的边界,侵蚀了个人对信息的控制权。不少企业尚未建立健全的数据安全管理制度,对员工的隐私保护意识培养不足,缺乏必要的技术与管理措施以防范数据泄露、非授权访问等风险。而在人工智能系统的开发与应用中,考虑伦理因素、设置人文关怀的做法更是凤毛麟角。许多企业将智能招聘系统视为单纯的“效率工具”,忽视了对其社会效果的评估,更遑论将隐私保护、公平责任融入到技术设计的始终。
在法律缺位的背景下,企业自律的怠惰使个人隐私保护更加“群龙无首”。面对高度分散的行业格局,企业普遍缺乏履行社会责任的内生动力,更鲜有通过自我约束、抱团发展来共同维护行业生态。在缺乏外部监管和内部制衡的双重真空下,企业利用信息优势对劳动者形成“算法控制”,已是潜在的趋势。由此,理性的技术应用让位于短视的逐利冲动,伦理的缺失与规制的乏力交织成智能招聘的隐私保护困局。
(四)个人维度:隐私意识淡薄与自我保护乏力
个人是隐私权的主体,其隐私保护意识和自我保护能力,从根本上决定了相关权益的实现程度。然而,在智能招聘语境下,求职者的主体意识往往异常淡薄,处于一种失语的“弱势”地位。这种乏力感一方面源于个人对人工智能的认知局限,另一方面则根植于就业市场的结构性权力失衡。
客观而言,对于智能招聘系统的运行机制,许多求职者知之甚少,因而难以判断企业信息收集行为的边界。在经济下行、就业压力加大的背景下,求职者更倾向于“用隐私换机会”,对平台的过度索权缺乏抵制的动力。即便是对隐私权益有所顾虑,许多求职者也难以对强势的平台方提出“不同意”。毕竟,一个人孤立的抗争很难撼动行业格局,反而可能错失宝贵的就业机会。于是,在就业市场“用脚投票”的选择空间被压缩,隐私保护意识也随之退居次要位置。
与此同时,面对智能化技术的日新月异,个人自我保护的能力也显得捉襟见肘。受制于“信息茧房”效应,许多求职者往往难以全面了解企业的数据处理活动,更遑论对自身信息的去向进行掌控。而一旦隐私权益受到侵害,诉诸法律手段维权的成本高昂,举证难度不小,这使得许多人只能“忍气吞声”,无力问责。更有甚者,一些缺乏独立思考的求职者还可能完全信赖算法决策,对简历筛选、面试评估的结果照单全收,殊不知在看似中立的指标背后,偏见与歧视或许正暗流涌动。
可以说,个人隐私意识的淡漠已成为智能招聘时代隐私保护的软肋所在。面对算法黑箱与信息茧房的双重威胁,个人对自身权益的认知严重滞后,自我保护的意识和能力亟待提升。而这种局面的形成,既有社会观念滞后、法律供给不足的深层根源,更离不开企业主导下“算法控制”的直接导向。个人的隐私权,终究还是嵌套在整个数字生态的权力结构之中。智能招聘工具又常以“用户协议”的方式免除责任,个人往往在不知情或未完全知情的情况下“被默许”。这种看似“自愿”实则“被迫”的选择,反映的是就业市场上技术与资本的结构性权力。对此,要从根本上唤醒个体对隐私的觉醒,塑造其自我保护的主体意识,此外还需推动法律、企业、社会等多方协同发力,为个人权利的实现创造良性的制度环境。
综上所述,人工智能招聘所引发的个人隐私保护困局,既源于技术迭代中伦理“反射”的缺失,更根植于法律滞后与规则供给不足的现实窘境;既有企业逐利冲动下社会责任的失位,更缘于个人主体意识淡薄下权利话语的式微。可以说,这是一个多维度、系统性的难题,单一视角下的对策设计都可能治标不治本。对此,破解之道应立足更加开阔的格局,从法律完善、企业自治、个人赋权等多个层面系统施策,以期在创新与规制、效率与公平间达致动态均衡,开创个人隐私保护与人工智能健康发展共生共荣的新局面。
四、路径选择:以多元共治重塑隐私保护图景
个人隐私保护从来都不是一道单选题,更无法由单一主体“包打天下”。在人工智能时代,面对智能招聘所引发的种种隐私困境,法律、企业、个人唯有形成合力,多管齐下、标本兼治,方能在激励创新和维护公平间找准平衡,在效率提升与隐私安全间架起沟通的桥梁。
(一)立法引领:个人信息保护的制度化回应
法律是维护公平正义的压舱石,个人隐私保护的有效实现,离不开立法的及时跟进和制度化供给。对此,应着眼于人工智能时代个人信息保护的新特点,加快相关领域的专门立法,为智能招聘活动划定基本的行为边界。
首先,应完善个人信息保护专门立法,为隐私保护提供基本遵循。一方面,要进一步明确企业收集使用求职者个人信息的法定边界,将面部识别、心理测评等敏感信息纳入重点监管对象,为过度采集和滥用划定“红线”。另一方面,要强化求职者对个人信息的知情权、访问权、更正权等,赋予其对信息处理活动的实质控制权,而非仅停留于形式化的“告知—同意”。
其次,针对智能招聘领域,要进一步细化算法规制的行为规范。要明确规定企业应对其所使用的智能系统承担必要的解释义务,就其逻辑、标准等向求职者作基本说明。同时,针对算法的潜在风险,应当引入事前的伦理审查制度。由独立的第三方机构对智能招聘工具进行全面评估,重点审查其匹配性、稳定性和偏见风险,并据此决定其是否适合投入使用。
再次,要进一步健全反就业歧视法,将算法偏见导致的系统性歧视纳入规制范畴。应明确禁止智能招聘工具基于性别、年龄等敏感因素设置差别化标准。同时,针对算法歧视的特点完善举证责任制度,降低劳动者的举证难度。只要求职者初步证明受到差别对待,即应推定企业负有合理解释的责任。
最后,要为隐私权益受损者提供多元、便捷的救济渠道。可考虑设立专门的数据仲裁庭,由熟悉人工智能和法律的专业人士对相关纠纷进行裁断。同时,要提高隐私侵权的违法成本,加大对违法企业的惩罚力度。对于情节严重、性质恶劣的违法行为,还可探索适用惩罚性赔偿制度,以形成强有力的威慑。此外,鼓励行业协会、消费者组织提起公益诉讼,借由社会力量的介入倒逼企业提升合规意识。
可以说,个人信息保护立法的完善,既是对问题症结的回应,更蕴含着价值引领的意义。通过制度设计为企业行为划定红线,为个人权利救济提供坦途,法律将推动形成科技向善、伦理内生的制度环境,进而引导智能招聘实现自我革新、自我规约,最终成为造福劳动者、造福社会的善治工具。
(二)企业自治:负责任的伦理实践探索
在智能招聘生态中,企业无疑是隐私保护的关键角色。个人信息的收集与处理、智能系统的开发与应用,无不依仗其能动作为。因此,塑造企业负责任的行为模式,将隐私保护内化为企业运作的“基因”,是破解隐私困局的关键一环。
对此,企业应率先强化伦理意识,将隐私保护作为基本的价值追求,融入到智能招聘的全流程之中。要摒弃机械的“算法崇拜”,时刻保持对系统潜在风险的警惕,谨防效率与公平的失衡。要加强人工智能伦理原则的宣传,提高全员的数据保护意识,并设立首席隐私官等专职岗位,明确相关部门的权责边界。
在系统开发与应用的各环节,企业要率先做到对个人信息的最小化采集与必要性处理。避免从非必要渠道过度获取求职者信息,杜绝未经授权的二次利用。要着力加强算法模型的去偏见化设计,完善样本选择、特征工程等环节,尽可能消除系统性歧视。在实际应用中,还应嵌入人工参与环节,对算法决策进行必要干预,防止片面依赖智能系统。
与此同时,企业还应做好个人信息的全流程管理,完善数据安全制度,加大技术投入,全面防范信息泄露等安全风险。当隐私事件发生时,要及时采取补救措施,主动向主管部门报告,尽最大努力降低对个人权益的损害。
更进一步,企业应主动承担社会责任,在行业自律、伦理共识的形塑中发挥表率作用。可牵头制定智能招聘领域的行业公约,倡导负责任的数据伦理实践。定期发布透明度报告,主动接受社会监督。积极参与相关政策、标准的制定,贡献企业的智慧和经验。如此,方能推动形成良性健康的行业生态,实现企业发展与隐私保护的双赢。
总的来看,将隐私保护融入企业的血脉,关键在于摆正技术应用的价值导向。企业要立足更加长远的视角,将隐私保护视为践行社会责任、赢得公众信任的必由之路,而非单纯的成本负担。唯有如此,方能真正树立以人为本的理念,在市场竞争中赢得先机、赢得尊重。而这,既是企业自身高质量发展的需要,更是智能时代企业公民应尽的道义担当。
(三)个人赋能:隐私保护意识的觉醒
隐私保护的落脚点在于个人权利的实现,这离不开求职者主体意识的觉醒和自我保护能力的提升。从更深层次看,个人的隐私意识和企业伦理操守、社会文明进步息息相关。对此,要多管齐下,推动形成个人、企业、社会的协同联动,为个人隐私筑牢“防火墙”。
首先,个人要主动强化隐私保护意识,提高对自身信息的掌控能力。面对平台采集个人信息的要求,要学会甄别其正当性,对超范围索取说“不”。对于自身信息的流向、用途等,要主动行使知情权,而不是被动接受“不可协商”的隐私政策。同时,个人要加强对人工智能的科学认知,既要善用其便利,又要理性看待其局限,避免盲从算法决策。
其次,要通过普法宣传等多种形式,营造个人隐私保护的社会氛围。利用新媒体平台加强隐私保护知识的科普,提高公众对自身权益的认知水平。鼓励消费者组织等开展形式多样的宣传教育活动,推动个人信息保护意识融入社会肌理。
再次,完善隐私权益救济机制,切实保障个人权利。畅通个人投诉、举报渠道,强化执法部门对相关案件的办理力度。降低隐私维权的制度成本,为个人通过诉讼、仲裁等方式维护权益提供必要的法律援助和技术支持。此外,还可发挥行业协会作用,搭建个人隐私维权的沟通平台,便于个人表达诉求、解决纠纷。
可以说,提升个人隐私意识绝非一蹴而就,更非单打独斗。它需要教育的熏陶,需要法律的保障,更需要社会文明进步的持续滋养。而个人维权的最终落脚点,还在于撬动整个数字生态的良性运转。只有个人、企业、社会形成利益共同体,在权利与义务间找到平衡,才能携手共建个人信息自主、数据利用有序、创新驱动发展的智能社会新图景。
五、结语:在创新与规制间把握“度”
回望人工智能在招聘领域的应用历程,效率提升与伦理挑战可谓相伴相生。在这场悄然而至的变革中,技术创新重塑了组织“选才”的路径,颠覆了个人就业的想象。然而,每一次技术进步的背后,伦理的拷问从未停歇。算法的泛化与决策的不透明,个人信息的过度采集与滥用,无一不警示我们审慎对待技术的边界与“度”。隐私保护的意义,不仅在于捍卫个人尊严不受侵犯,更在于为人工智能的健康发展设置“安全阀”。
在智能时代,隐私保护不应是技术向前的“绊脚石”,也不能为逐利冲动让步。对个人而言,要学会在信息共享与隐私保留之间寻找平衡,既要抓住智能红利释放的机遇,又要筑牢自我保护的防线。对企业来说,要在自主创新与伦理自律间把握“度”,将隐私保护内化于技术迭代、融入到管理提升的始终。对立法者和监管部门而言,要立足发展和规范并重,在鼓励企业创新的同时,以必要的规则为隐私保护划定基本边界。如此,在法律的引领下,以企业为责任主体,以个人为参与主体,共同推进隐私保护事业,方能在人工智能的时代洪流中彰显人本精神,实现包容、可信的技术治理。
可以预见,随着人工智能技术的日新月异,智能招聘领域必将孕育更多的伦理难题,对隐私保护提出更高要求。对此,学界和实务界都还有很长的路要走。如何进一步优化算法模型、强化伦理审查,最大限度地规避系统性歧视?如何在跨场景数据整合应用中平衡创新与隐私的张力?面对智能招聘平台跨境数据流动的现实需求,如何协调不同法域隐私保护规则的差异与冲突?所有这些,都有待学者和实践者在未来携手探索、深入求索。毫无疑问,隐私保护将是人工智能时代进步的重要伦理坐标。对于个人而言,隐私权的实现程度,很大程度上意味着人格尊严能否在智能时代得到守护;对于企业而言,能否推动形成负责任的隐私实践,很大程度上决定了其能否在竞争中立于不败之地;对于整个社会而言,隐私保护事业的进展情况,很大程度上反映了人工智能治理体系的成熟度。可以说,隐私保护是检验人工智能创新成果能否造福人类的试金石。在这一过程中,如何在效率与公平间把握平衡,在发展与规范间择善而行,需要包括学界、产业界、立法者在内的各界群策群力、共同应对。
参考文献:
[1]Leicht-Deobald U, Busch T, Schank C, et al. The challenges of algorithm-based HR decision-making for personal integrity[M].Business and the Ethical Implications of Technology. Cham: Springer Nature Switzerland, 2022:71-86.
[2]Tambe P, Cappelli P, Yakubovich V. Artificial intelligence in human resources management: Challenges and a path forward[J]. California Management Review, 2019(4):15-42.
[3]Köchling A, Wehner M C. Discriminated by an algorithm: A systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development[J]. Business Research, 2020(3):795-848.
[4]Ajunwa I. The paradox of automation as anti-bias intervention[J]. Cardozo Law Review, 2020(5):1671-1742.
[5]Yarger L, Cobb Payton F, Neupane B. Algorithmic equity in the hiring of underrepresented IT job candidates[J]. Online Information Review, 2020(2):383-395.
[6]Kim P T. Data-driven discrimination at work[J]. William and Mary Law Review, 2017(3):857-936.
[7]Mann G, O'Neil C. Hiring algorithms are not neutral[J]. Harvard Business Review, 2016(4):2-5.
[8]Bales R A, Stone K V W. The invisible web at work: Artificial intelligence and electronic surveillance in the workplace[J]. Berkeley Journal of Employment and Labor Law, 2020(1):1-62.
[9] Bodie M T, Cherry M A, McCormick M L, et al. The law and policy of people analytics[J]. University of Colorado Law Review, 2017(6):961-1042.
[10]侯玲玲,王超.人工智能:就业歧视法律规制的新挑战及其应对[J].华南理工大学学报(社会科学版),2021(1):1-16+33.
[11]胡萧力.算法决策场景中就业性别歧视判定的挑战及应对[J].现代法学,2023(4):59-74.
[12]汤晓莹.人工智能招聘中的就业性别歧视问题研究[J].河北法学,2022(3):170-183.
[13]郭钟泽,唐子婷,杨雯佳,等.基于人工智能识别的“精准招聘”平台设计[J].中国商论,2022(14):101-103.
[14]赵一骏,许丽颖,喻丰,等.感知不透明性增加职场中的算法厌恶[J].心理学报,2024(14):497-514.
[15]程建华,刘菲菲.AI-HR招聘的算法歧视及应对[J].常州工学院学报(社科版),2022(4):123-128.
[16]张晶,吕依诺,朱喜薇,等.加强“互联网+”视域下残疾人就业信息平台建设破解残疾人就业困境[J].中国就业,2022(6):42-43.
责任编辑:周育平
收稿日期:2024-04-05
基金项目:湖南省一流课程(社会实践类)“员工招聘与管理”(项目编号:湘教通[2021]28号)
作者简介:雷渊智,男,湖南嘉禾人,湖南省市场监督管理局高级经济师,湖南省政府立法专家,主要研究方向:市场监管;姜向阳,男,湖南湘阴人,湖南工商大学管理学院副教授,主要研究方向:人力资源管理。