ChatGPT在“狂飙”,年轻人小心这些“坑”
2024-05-07先藕洁刘胤衡
先藕洁 刘胤衡
美国人工智能研究实验室OpenAI推出的大型预训练人工智能语言模型ChatGPT,正成为很多年轻人关注和热议的焦点。
华中科技大学法学院副教授滕锐在接受采访时表示,ChatGPT是大量不同的数据集群训练出来的语言模型,无法确切对其内在的算法逻辑进行分解,所以不能确保在使用ChatGPT过程中,其所输出的内容不会产生攻击伤害用户的表述。
“如果ChatGPT的回复是错误或虚假信息,会具有极大的误导性,有潜在法律风险。”在他看来,ChatGPT难免存在一些侵犯用户隐私的内容。此外,若回复中存在过度借鉴他人作品的情况,使用不当就有可能侵犯他人的著作权。
北京京师(上海)律师事务所高级合伙人李阳律师分析,ChatGPT这类的AI软件没有独立人格,不具备我国著作权法规范中“作者”的主体资格。AI软件有可能使用未经授权的作品作为素材,只要是网络上公开的数据和信息,就有可能成为被AI学习的数据。李阳认为,作者很难查清楚自己的作品是否被AI用来“学习”了,“权利人如果要进行维权,在当前法律体系下难度很大”。
滕锐指出,ChatGPT的内容本质,是基于它所拥有的数据进行表达意志的创作,不具备法律人格,不能承担相应的法律责任,如果ChatGPT侵害了他人的著作权或泄露了他人隐私,由它的权利人或使用者来承担相应的法律责任。
“推动构建人工智能治理体系,政府加强监管和研发者保持自律尤为重要。”滕锐说,要避免ChatGPT引发数据安全问题,如泄露商业秘密及违背保密义务,需从法律层面明确ChatGPT产品的应用范围,推进数据的分类分级,规定不同种类数据的保护级别和措施。
在武汉大学法学院教授孙晋看来,在人工智能大数据的时代背景下,数据隐私泄露问题愈演愈烈,ChatGPT作为数字技术的应用,开发者和使用者都是第一责任人。他提醒,由于ChatGPT的算法和算力均很强大,如果开发者或使用者滥用市场支配地位,会具有便利性和隐蔽性,会对反垄断法带来新挑战。
滕锐认为,机器人走上更高智能阶段的同时,人类利用机器人违法犯罪的现象也会出现,从刑法的角度来看,人工智能不具有刑法意义上的辨认和控制自己行为的能力,但可对机器人背后的自然人进行处罚。
目前,为了避免学生过于依赖人工智能类工具,防止作弊,多国学校已经发出禁令,禁止学生在学校内使用类似于ChatGPT的人工智能工具完成学习任务和考试。“这是警示年轻人,要明白人工智能技术是人类的辅助工具,并不能替代人类进行智力创作,如果年轻人完全依賴,会影响创新创作能力。”中国文字著作权协会总干事张洪波说。
在张洪波看来,人工智能工具可以帮助人类快速处理字数多、容量大的文本内容,但最终的智力创作成果,还是要人类自己来完成。开发者开发设计人工智能工具的目的,应该是让人类学习、生产、生活更方便、快捷、准确,而不是懒惰和消极。孙晋也提醒,年轻人要注意,网络不是法外之地,利用新技术时,不要触碰道德和法律底线。
(选自《中国青年报》2023年2月17日,有删改)
●训练
1.对上述材料的理解与分析,不正确的一项是( )
A.AI软件如果“学习”了未经授权的作品,该作品的作者想在当前法律体系下进行维权难度很大。
B.ChatGPT如果侵害了他人的著作权或泄露他人隐私,不能承担相应的法律责任,应由它的权利人或使用者来承担相应的法律责任。
C.滕锐建议,在内容保护上,要定期将算法合规纳入大数据安全体系,对其使用情况进行安全审计、评估验证等。
D.如果年轻人完全依赖人工智能技术,会变得懒惰和消极,会影响其创新创作能力。
2.结合文本,分析ChatGPT存在哪些“坑”?
答: