APP下载

别被AI炒作带偏了

2023-10-24李·温塞尔

商业评论 2023年10期
关键词:预测企业

李·温塞尔

科技泡沫可能会给商业领袖带来困扰:他们可能感到,必须尽早投资某项新技术,才能抢占竞争先机,但又不想一头栽进虚假炒作的陷阱。随着我们进入一个经济不确定性变大、各行各业纷纷裁员的时代,对于哪些成本应该削减、哪些投资应当增加,高管们正在苦苦寻觅解答。

迅猛发展的人工智能(AI)和机器学习领域,对企业决策者提出了特殊挑战。越来越多人认为稳妥可靠的做法是投资那些经过验证的预测模型,这预计将推动人工智能方面的支出从2021年的330亿美元增至2025年的640亿美元。然而,在潮头浪尖之处,生成式AI(Generative AI)正在激起大量虚假信息和投机行为。

生成式AI意指各种机器学习模型(例如,ChatGPT聊天机器人、必应智能AI、DALLE图像生成器,以及Midjourney绘画工具),这类模型在海量文本图像数据库上进行训练,从而根据提示语生成新文本和新图像。类似“不可或缺的10条ChatGPT秘技”和“你的ChatGPT用错了!如何领先99%ChatGPT用户”这样的大标题开始大行其道。与此同时,美国数字新闻网站Axios报道称,资金正在大量涌入生成式AI领域,从2022年的6.13亿美元增长至2023年的23亿美元,而资金的涌入只会助长疯狂炒作。

企业领导者如果既不愿错失大好机会,又不想在名不副实的技术上浪费时间和金钱,那就最好把有关科技泡沫的一些基本事实记在心上。首先,正如商学院教授布伦特·戈德法布(Brent Goldfarb)和戴维·基尔希(David Kirsch)在2019年出版的《泡沫与崩溃:技术创新的繁荣与萧条》(Bubbles and Crashes: The Boom and Bust of Technological Innovation)一书中所述,人们讲述的各种关于新技术会如何发展并影响社会经济的故事,正在为这种炒作推波助澜。不幸的是,围绕新技术的早期故事几乎总是谬误百出。事实上,高估新系统的前景和潜力,正是泡沫问题的核心所在。

就准确预测技术发展的未来而言,商业预言家和分析师们的过往表现非常糟糕,因为没有人能预见到,随着时间推移,人类会怎样别出心裁地选择和应用各种工具,抑或如何花样百出地使用新工具利用和支配他人。或者说,正如未来主义者罗伊·阿玛拉(Roy Amara)在后来广为人知的“阿玛拉定律”中所说的那样,“我们往往会高估一项技术的短期收益,而低估其长期影响”。

吹大各种科技泡沫的夸大故事,也已经出现在生成式AI领域。一些发烧友声称,ChatGPT距离通用人工智能只有几步之遥,有望成为认知能力堪比甚至超越人类的独立实体。作为ChatGPT开发者OpenAI公司的首席执行官,萨姆·奥尔特曼(Sam Altman)在这个领域投入甚多,他声称人工智能“会让农业革命、工业革命和互联网革命加在一起都黯然失色”。未来生命研究所(Future of Life Institute)也认为大语言模型影响深远,但其看法更加灰暗。该组织发表了一封公开信,呼吁暂停训练比GPT-4(ChatGPT-Plus背后的大语言模型)更强大的AI系统至少6个月,因为它们威胁到了整个人类。

这些支持者与批评者们虽然意见相左,却是在共同推动关于未来的狂热想象,而这些想象脱离了企业运用现有生成式AI工具有把握达成的现实。它们基本上无助于领导者理解这些技术的运作方式,以及它们可能存在的风险和局限性,更不用说帮助他们了解这些工具能否改善企业日常工作、提升企业赢利水平了。

新闻传媒本身就是一个受“错失恐惧症”(fear of missing out, FOMO)驱动的行业。这个行业更是用言过其实的惊人报道,进一步加剧了泡沫。《华尔街日报》(Wall Street Journal)最近发表了一篇题为《生成式AI已经开始改变白领工作》(Generative AI Is Already Changing White-Collar Work as We Know It)的文章,文中并未拿出白領工作发生变化的真凭实据,而只是给出了商业领袖对这项技术潜在影响的猜测。与其他给职场人士敲响警钟的报告一样,它援引了OpenAI公司和宾夕法尼亚大学(University of Pennsylvania)研究人员合作撰写的一篇论文的摘要。这篇论文试图预测有多少工作岗位会受到这些新软件系统的影响。

事实上,这类预测一直有失准确。在最近的一篇文章中,经济学教授加里·史密斯(Gary Smith)和退休教授兼技术顾问杰弗里·芬克(Jeffrey Funk)指出,与2016年牛津大学(Oxford University)和德勤(Deloitte)的研究一样,OpenAI和宾大的研究也使用了相同的美国劳工部数据库。而2016年牛津大学和德勤的研究就声称,到2030年许多工作很可能会自动消失。这两项研究都试图先计算以重复任务为主的工作占比,进而预测其中有多少工作将因技术变革而流失。既然过去七年的趋势似乎并未证实2016年研究的预测,那么现在也没有什么理由相信与此类似的预测能有多么准确。

一点提醒

既然过往预测的表现不佳,高管们就必须谨慎行事,在围绕科技未来影响的炒作面前,要冷静思考。团队需要做到“有凭有据地怀疑”:不是不假思索、否定式地怀疑,而是严谨科学地评估和推理。对于新科技功效的各种说法,要仔细考察并通过实践来检验。与其纠缠于“它会如何演变”或“它将产生怎样的影响”之类引起猜测的问题,倒不如从“我们知道什么”以及“有哪些证据”这种寻找事实依据的问题入手。对于技术的工作原理、预测的可靠性如何,以及其他输出的质量,多问一些具体的问题。

如果信息来自已知的技术炒作主体(包括咨询公司、供应商和行业分析师),企业领导们必须特别有意识地进行批判性思考。

虽然尝试使用对公众开放的生成式AI工具可能既省钱又有益,企业还是必须仔细评估使用各种新技术的潜在风险。例如,众所周知,ChatGPT会编造虚假信息,包括给正文罗列一堆根本不存在的参考文献。对这项技术的使用有必要加以严格监管,尤其是当此类生成性AI系统的输出将提供给客户,可能导致企业声誉受损时。如果是在不受监管的情况下使用这类系统,企业还面临着因此造成知识产权或敏感信息失控的风险。例如,三星公司(Samsung)的员工就将企业敏感信息输入ChatGPT(ChatGPT再使用所提交的信息,去深度训练系统中的模型),无意中造成了这些数据的外泄。我还了解到,有些艺术家、设计师和出版商会拒绝使用生成式AI,因为它可能损害自己或客户的知识产权。

考虑到这些潜在风险,打算试水生成式AI的企业,应该制定基本使用规则。显然第一步,就是要求所有在工作中使用这些技术的员工,对此做出公开声明。企业的技术使用政策也可以设定一些基本要求,例如要求生成式AI的使用不得违反现有的道德和法律规范。对于哪些类型的企业数据可以输入生成式系统,企业也应当考虑加以限定。美国人力资源管理协会(The Society for Human Resource Management, SHRM)以及其他一些团体最近发布了职场生成式AI使用指南,企业领导最好紧跟这些新思潮。

企业还应当留意其他一些风险。科技评论人士一直认为,企业部署生成式AI会导致员工生活质量的降级,使他们的人生越来越艰难。领导者最好确保这种情况不会发生,而且要通过推广使用这些技术,使员工的生活更轻松、压力更小、更加人性化。

如果能让管理者关注周围的变化,“错失恐惧症”和竞争压力也可以起到积极的作用,但管理者不应该让这类焦虑驱使自己做出非理性的轻率决策。如同尼古拉斯·卡尔(Nicholas Carr)在2004年出版的《IT不再重要》(Does IT Matter?)一书中描述的那样,围绕生成式AI的热度很可能也会像对其他数字技术的热情那样消退。数字技术的采用往往会在一个行业内产生短期优势,但随着这些技术变得司空见惯——就像文本编辑器、电子表格和客户关系管理系统那样,这些优势就会消失。

换句话说,目前并没有证据表明,谋定后动而非一头扎进生成式AI领域,会导致你们企业在战略上落后于人,甚至被彻底颠覆。既然如此,领导者最好还是聚焦于自身业务的基本目标,反问道:“这个系统能帮助我们达成目标吗?”如果有人说会,那就请他们来证明。

翻译:徐广彤

猜你喜欢

预测企业
无可预测
企业
企业
企业
选修2-2期中考试预测卷(A卷)
选修2-2期中考试预测卷(B卷)
选修2—2期中考试预测卷(A卷)
企业
企业
敢为人先的企业——超惠投不动产