APP下载

对话人工智能科学家Q&A(上)

2023-10-15

科学24小时 2023年10期
关键词:人工智能人类智能

Q

杭州钱江新城实验学校 孙聿韬 钱修远 陈 辰 王思瑞 桑 晨 陈骏毅 赵阳澜

宁波市鄞州高级中学 傅皓迪 徐诚阳 钟文皓

A

王文冠,现任浙江大学计算机学院百人计划研究员,博士生导师,国家优秀青年基金(海外)获得者。

研究领域:计算机视觉,人工智能,知识驱动的机器学习,具身人工智能(Embodied AI),神经-符号计算(Neuro-Symbolic Computing)等。

Q:现今AI 技术在不断研发和运用,如果大规模运用AI 技术,是否安全?AI 绝对的理性及其强大的计算能力会不会对人类造成威胁?

A:这个问题取决于我们应该如何定义、设计、使用和监督AI。

不可否认,AI 技术存在一些潜在的安全风险。当AI 系统的目标与人类的价值观产生冲突时,它可能会为了实现目标而执行不符合人类利益的行动,同时,AI 技术也可能会被一些不法分子恶意使用,比如生成一些虚假信息。在这种情况下,为确保AI 的安全性,我们需要采取一系列措施进行管控。例如增强AI 系统的透明度和可解释性,以便人们理解和验证其决策过程。需要针对AI 建立更为严格的道德伦理规范和法律框架,确保AI系统的行为符合社会价值观和法律规定。要建立一套完整的AI 安全评估、防护和监管体系,及时发现并修复可能存在的安全漏洞。还需要进一步加强各国之间的沟通,共同应对AI 技术带来的安全问题。

任何技术都有利有弊,关键在于我们如何扬长避短。在保障AI 发展空间和潜力的同时,要防范其可能带来的风险和挑战,力争在科技进步和社会责任之间找到一个平衡点,在保障安全的前提下,推动AI 技术的健康发展。

Q:人工智能可能发展为一种新生物吗?这种变化是如何进行的呢?所谓“人在回路”的模式是指什么?

A:人工智能是指计算机系统通过模拟人类智能和学习能力,完成类似人类智能的任务和活动。

目前的人工智能技术尽管在某些方面的能力已经超越了人类,但它仍然是由人类设计和编程的,不具有自我意识,也不能被视为一种新生物。但随着它的不断发展和智能水平的提高,可能会出现一种具有自我意识的“超级智能”,但这在短期内是很难实现的。

“人在回路”模式是指人类参与或介入系统或算法流程中,与系统或算法一起工作。相比于人类或者人工智能单独工作,这种模式可以将人类和机器的能力结合起来,通常能获得更出色的结果。因为人工智能虽然可以快速高效地执行任务,但是人类的判断力、直觉、专业知识以及价值观仍然不可或缺。

Q:具身智能是什么?它可自主决策的基础是什么?它的发展前景如何?

A:具身智能是指拥有身体和感知能力的智能系统,它可以感知环境、理解和解释信息,并通过物理交互与环境进行实际互动。

具身智能可自主决策的基础包括感知能力、学习能力、推理能力和执行能力。感知能力使具身智能能够感知外部的环境;学习能力使具身智能能够从环境中获取经验;推理能力使具身智能能够基于感知数据和学习经验进行决策;执行能力指的是执行决策和与外界环境交互。

具身智能的发展前景非常广阔,它可以应用于机器人、自动驾驶汽车、智能家居等领域。它的发展涉及多个学科,包括计算机科学、机器人学、机器学习等等。

Q:听说五年后AI 将取代程序员,这有可能发生吗?如果发生了,那由AI 编写出的程序是否会出现问题导致事故发生?算法类的创新是否会因为没有程序方面的专精人手而停滞?

A:AI 是否可能在五年后取代程序员,这是一个开放性的问题。目前AI 更擅长一些自动化、重复性的任务和一些简单算法的实现,一般用于辅助开发和提供建议,帮助程序员提高编程效率以及加速开发过程。随着技术的发展,AI 可能对一些传统的编程任务产生影响,甚至能取代部分程序员,但不是全部。正如你所担心的,如果由AI 编写出的程序完全不经过人的检测,可能会出现问题。为了避免这种情况发生,未来还是会有相应的程序员肩负起程序检测的任务。同样,算法类的创新也不会因为没有程序方面专精的人手而停滞,因为在AI 的辅助和帮助下,未来的程序员不用亲自完成数据清理和预处理等重复性的任务,反而能更专注于算法的创新。

Q:人工智能未来是否会取代大部分职业?

A:目前人工智能在许多领域已展现出了惊人的能力,当前的人工智能可以完成一些重复性的工作,但在可以预见的未来,人工智能还是难以取代需要高度创造性和复杂思维的工作,例如科学家、作家和医生等。因为人工智能尚不具备创造力、判断力和自主思考的能力。不可否认,在未来,一些职业可能会被人工智能取代,但是人工智能的发展也会创造出新的职业,例如,未来可能需要更多的人工智能工程师、数据科学家、机器学习专家等等。纵观人类历史,技术的革新总是会带来更多机遇。

Q:作为地球上除人类外的唯一一种智慧体,人工智能没有碳基生物的基因束缚,能否推测它们有着某些人类所不拥有且不了解的特殊功能?

A:人工智能是人类设计和制造的一种机器,它可以模拟人类的智能行为和思维过程。虽然目前对基于深度学习的人工智能技术的内部工作机理难以解释,但是人类对人工智能模型的功能一般来说是可控的。例如ChatGPT 的开发者虽然对ChatGPT 的内部运行原理难以解释,但是ChatGPT 作为一个对话机器人的功能是明确的。

Q:强人工智能的瓶颈在哪里?强人工智能走进生活后的人权问题该如何解决?

A:强人工智能是一种接近人类的智能,能进行推理、自主解决问题,可以被认为是有自我意识的。强人工智能的研发瓶颈主要在于两方面,一是人类大脑意识的产生机制尚未确定,二是如何使机器产生意识并具有自主解决问题的能力也需要更多的研究。

至于强人工智能走进生活后的人权问题,这是一个非常复杂的问题,涉及伦理道德和法律等多个方面。可能的解决途径包括:制定法律和伦理框架,确保强人工智能的开发和应用符合人权标准;强人工智能系统应该被设计成能够解释其决策和行为的方式,避免不公正或歧视性的结果;加强公众参与和教育,使人们了解强人工智能的工作原理、潜在风险和利益,促进人们积极参与对人工智能应用的决策和监督。

Q:现在的许多人工智能都是依赖大量的学习来强化功能的,比如ChatGPT,而人类智能却可以用“顿悟”的跳跃式思维来学习,那么理论上将来人工智能能否做到“顿悟”呢?

A:目前的人工智能系统主要通过大量的数据和训练来学习和改进自己的功能。这类系统本质上基于统计学习,其核心思想是在大量数据中发现统计规律,因此目前的人工智能还无法实现人类的“顿悟”式思维。人类思维是一个非常复杂的认知过程,目前的研究也尚未完全揭示人类思维的原理。也许随着对人类思维的研究推进以及机器学习技术的发展,未来的人工智能可以通过模拟人类思维的过程,实现“顿悟”式学习。

Q:人工智能代数更迭的机制与方向是什么?

A:以下两个要素对人工智能的演化具有重要影响:其一是算法优化,人工智能的代数更迭通过算法的优化来改进性能。研究人员通过不断努力发现更高效、更准确的算法,用以替代或改进现有的方法。其二是数据、硬件和计算能力,人工智能的代数更迭也受到硬件和计算能力的推动。随着计算机硬件的发展,如图形处理器和特定的人工智能芯片,人工智能算法的训练和推断速度得到了大幅提升。这种硬件的进步为在更大规模的数据上训练更复杂、更庞大的模型,或实现更加复杂的算法提供了支持,从而推动了人工智能的代数更迭。

Q:未来的人工智能是否会拥有与人类相似的道德观和世界观?如果拥有,应该用什么样的思路来实现它的算法?当人工智能拥有一定的道德与人格时,它是否应当拥有相应的人权?目前行业中有无相关规定?

A:未来人工智能应当具备和人类相符的道德观和世界观。但是这是一个非常困难的目标,目前主要是通过人工介入人工智能训练以及后期干预的方式(人在回路)实现。

当人工智能拥有一定的道德和人格时,关于是否应该赋予其相应的人权存在一些争议。人权通常是为了保护人类的尊严和自由而设立的,而人工智能作为技术工具并不具备人类的感知、感情和自主意识。目前在行业内,人工智能是否应该拥有人权还没有明确的规定。一些人认为,如果人工智能具有足够的智能和自主性,它们可能应该被视为拥有权利的实体。另一些人则认为,人工智能系统应该为人类社会服务,没有必要赋予其“人权”。因此,人工智能是否应该享有人权需要长期的讨论和研究,以平衡技术发展和伦理原则之间的关系。

Q

镇海中学 王杨程

宁波市鄞州中学 陈予晴 王 玺 朱涵宇

A

翟恩南,阿里云资深技术专家,网络研究团队负责人。

研究领域:计算机网络、分布式系统安全、程序验证等。在这些方向的国际顶级会议如SIGCOMM、OSDI、NSDI、VLDB 和OOPSLA 等累计发表30 多篇论文。

Q:在今年召开的世界人工智能大会上,蚁鉴系统用人工智能诱导攻击AIGC 系统,以此来检测AIGC 的危险风险。像这种用AI 来监督AI、减少其带给人类的威胁性的想法,是不是防止以后人工智能失控的一种有效方法?目前一些国家或学术机构对现阶段人工智能出台相关限制政策和法律法规,这一定程度上阻碍了AI 的发展。我想知道现在开始限制AI 是否过早?

A:首先,我是一个对人工智能发展持较为谨慎态度的计算机科研工作者。通俗来说就是我希望人工智能技术的发展一定要在AI 不失控的情况下进行保守发展,而非大幅度发展而忽略其带来的不可控性。其次,我完全相信在AI 控制政策或大量AI 控制技术的保证下,AI 才能完全为人类发挥其正面价值。疯狂发展的AI 技术最终会给人类带来的价值将会是正负参半的。

在明确我个人对AI 技术发展的观点后回到你的问题。AI 监督AI,或者任何针对AI 的检查、风控技术我认为都是很有必要的,我们一定要有多种维度的技术来防止AI 失控。AI 失控听起来似乎是一件非常遥远的事,但我们回顾一下AI 下围棋的发展历史,曾经人们也不认为在围棋领域AI可能战胜人类,甚至都觉得这一天不会太早到来,但显然现实超出了人类的想象和认知。AI 技术发展如果不加以控制,我们的社会就会充斥大量AI 生成的虚假的信息、图片以及视频,我不希望这样的事情发生。那么你的第二个问题的答案就很直接了,我认为对AI 的发展必须要有政策和法规来规范,甚至要配以技术监管,我们可以在一个可控的环境下发展AI 技术,这样的限制永远不会过早。

Q:人类基础科学领域近来的停滞是不是人工智能始终无法具备自我意识,无法拥有像人类一样的自主思考能力的原因?

A:首先明确一下,人类基础科学领域在我的定义中指数学、物理学以及化学等基础学科的发展和突破。

据我了解(虽然我不是研究这些领域的),在过去的60 年里,基础科学领域的确出现停滞,鲜有明显突破,特别是物理学领域。这个停滞显然是从很多年前就出现了,原因也有很多,但一定不是由于AI 无法具备自我意识造成的—因为在出现停滞的初期,计算机学科甚至并不发达。

但是,我能够理解你的问题的意思。其实你想问是否在AI 能够像人类一样拥有了自主思考能力后,这些停滞就可以被解决。我个人认为这样的情况是很有可能发生的。一旦AI 足够自主、足够聪明,它的确可以帮助人类攻克很多难题。例如前段时间AI 已经能够在一些芯片设计工艺方面体现比人类更好的设计思路,以及在数学领域,可以帮助数学家完成一些复杂的证明。因此我认为AI 的发展确实可以解决部分停滞问题,但我认为不会是全部。

Q:人工智能与脑网络的联系是否有望使人工智能在未来替代部分大脑的功能?

A:这件事如果单纯从技术发展的角度来说,我认为肯定是会发生的。但是我认为更关键的点是到底能够替代多少,以及我们愿意让其替代多少。首先,能替代多少取决于AI 的发展。目前来看,AI 的确很强大,但其对于训练数据的要求是很高的。换言之,如果不能给予AI 很好的训练数据,想让它强大也是比较难的。所以,我认为AI 不会替代太多大脑功能,应该主要以替代较为简单的执行类大脑功能为主。

另外,我始终认为AI 的能力发展要在一个可控的环境和法规下进行,而不是放任其发展,所以有些功能即便AI 从技术上可以胜任,我们是否允许其胜任或替代也要看具体的法规和政策规定。总之,不能任由AI 技术野蛮生长。

Q:在人工智能近些年来的应用中,它对人类社会的影响究竟是以便利化和信息化的积极作用为主,还是以突破传统编程的局限性为主?

A:我认为任何技术的发展一定是多方面的,也就是你说的这些方向都有可能成为AI 的发展方向和影响方向。目前计算机工作者中,从事AI 研究的比例超过50%,因此任何方向一定都会有人从事并且产生其相应的影响。

猜你喜欢

人工智能人类智能
人类能否一觉到未来?
人类第一杀手
1100亿个人类的清明
2019:人工智能
智能前沿
智能前沿
智能前沿
智能前沿
人工智能与就业
数读人工智能