人类历史上没有任何一项技术像生成式人工智能 (gen AI) 一样在如此短的时间内引起如此多的关注。许多领先的科技公司正在投入数十亿美元来训练大型语言模型 (LLM)。但这项技术能证明投资的合理性吗?它有可能不负众望吗?
寄予厚望
早在 2023 年春季——人工智能 (AI) 领域已经过去了很长一段时间——高盛发布了一份报告,估计生成式人工智能的出现可以每年推动全球 GDP 增长 7%(链接位于 IBM.com 之外),每年额外增加 7 万亿美元以上。
生成式人工智能如何实现这一目标?这项技术的应用范围很广,但总体而言,可以将其描述为提高人机之间的沟通效率。这种改进将导致低级任务的自动化和人类能力的增强,使工人能够以更高的熟练程度完成更多工作。
由于生成式人工智能的应用范围广泛且十分复杂,许多媒体报道可能会让读者相信这项技术几乎是万能的灵丹妙药。事实上,随着 ChatGPT 和其他工具的发布,这项技术在 2022 年成为主流,这种观点成为围绕生成式人工智能的大部分报道的特征,一些分析师预测,我们正处于一场将重塑工作未来的革命的边缘。
4次危机
不到两年,媒体对生成式人工智能的热情就略有降温。6 月,高盛发布了另一份报告(链接位于 IBM.com 外部),其评估更为慎重,质疑生成式人工智能的好处是否值得为其开发投入数万亿美元。《金融时报》(链接位于 IBM.com 外部)等媒体发表了一篇持类似怀疑态度的专栏文章。IBM Think Newsletter 团队在之前的一篇文章中总结并回应了其中一些不确定性。
随后的股市波动导致一些分析师宣称“人工智能泡沫”即将破灭,并且可能出现与 90 年代互联网泡沫破灭规模相当的市场调整。
媒体对生成式人工智能的怀疑大致可以分为开发人员面临的四个不同的危机:
- 数据危机:用于培训法学硕士的大量数据的价值正在减少。出版商和在线平台正在锁定他们的数据,我们对培训数据的需求可能很快就会耗尽。
- 计算危机:对图形处理单元(GPU)处理这些数据的需求导致芯片供应出现瓶颈。
- 电力危机:开发最大规模 LLM 的公司每年都在消耗越来越多的电力,而我们目前的能源基础设施还无法满足需求。
- 用例危机:生成式人工智能尚未在企业环境中找到其“杀手级应用”。一些特别悲观的批评者认为,未来的应用可能不会真正超越“客厅魔术”的地位。
这些都是严重的障碍,但许多人仍然乐观地认为,解决最后一个难题(用例)将有助于解决其他三个难题。好消息是,他们已经在识别和研究有意义的用例。
走出炒作周期
IBM 杰出工程师 Chris Hay 表示:“生成式人工智能对我们自己和我们的客户产生了显著、可衡量的影响,从根本上改变了我们的工作方式。这涉及所有行业和学科,从人力资源流程转型和营销转型,到品牌内容、联系中心或软件开发。” Hay 认为,我们正处于纠正阶段,这一阶段通常发生在狂热时期之后,也许最近媒体的悲观情绪可以看作是一种试图平衡早先的言论,事后看来,这些言论似乎是炒作。
“我不想成为那种分析师,”海伊说,他指的是最近对人工智能未来的一个较为悲观的预测。“我不想成为那种说‘人工智能在未来 10 年不会有任何用处’的人,因为你的余生都会被人引用。”
这些言论可能被证明是短视的,就像声称早期的互联网不会有太大发展,或者 IBM 创始人托马斯·沃森在 1943 年猜测世界不需要超过 5 台计算机一样。海伊认为,问题的部分原因在于媒体经常将新一代人工智能与法学硕士驱动的聊天机器人(如 ChatGPT)的狭义应用混为一谈,而这些聊天机器人可能确实无法解决企业面临的所有问题。
克服限制并在其中工作
如果我们开始遇到供应瓶颈——无论是在数据、计算还是电力方面——Hay 相信工程师们会发挥创造力来解决这些障碍。
“当某样东西过剩时,你就会消费它,”Hay 说。“如果你有成千上万个 GPU,你就会使用它们。但当你有限制时,你会变得更有创造力。”
例如,合成数据代表了解决数据危机的一种有前途的方法。这些数据是通过算法创建的,以模仿现实世界数据的特征,可以作为现实世界数据的替代或补充。虽然机器学习工程师必须小心不要过度使用合成数据,但混合方法可能有助于在短期内克服现实世界数据的稀缺性。例如,最近的 Microsoft PHI-3.5 模型或 Hugging Face SMOL 模型已经使用大量合成数据进行了训练,从而产生了功能强大的小型模型。
当今的 LLM 非常耗电,但没有理由相信目前的变压器是最终的架构。基于 SSM 的模型(例如 Mistral Codestral Mamba、Jamba 1.5 或 Falcon Mamba 1.5)由于其增强的上下文长度功能而越来越受欢迎。使用多种类型模型的混合架构也越来越受欢迎。除了架构之外,工程师们还在其他方法中发现价值,例如量化、专为推理设计的芯片和微调(一种涉及针对特定用例调整预训练模型的深度学习技术)。
Hay 表示:“我希望看到行业中出现更多专注于微调而非预训练的社区。预训练是整个过程中最昂贵的部分。微调要便宜得多,而且你可以从中获得更多价值。”
Hay 认为,未来我们可能会拥有比我们想象中更多的 GPU,因为我们的技术已经变得更加高效。他最近尝试将个人笔记本电脑变成能够训练模型的机器。通过重建更高效的数据管道并调整批处理,他正在想办法在限制范围内工作。他可以在昂贵的 H100 Tensor Core GPU 上自然地完成所有这些工作,但稀缺心态使他能够找到更有效的方法来实现想要的结果。需要是发明之母。
更小的思考
模型变得越来越小,功能却越来越强大。
“如果你看看今天的小型模型,你会发现它们比去年的大型模型使用了更多的 token 进行训练,”Hay 说。“人们将更多的 token 塞进小型模型中,这些模型变得更高效、更快速。”
IBM 全球技术、数据和 AI 战略主管 Brent Smolinksi 表示:“当我们考虑将 AI 应用到解决实际业务问题时,我们发现这些专业模型变得越来越重要。”这些模型包括所谓的小型语言模型和非生成模型,例如预测模型,它们需要较窄的数据集。在这种情况下,数据质量通常比数量更重要。此外,这些专业模型消耗的电量更少,更容易控制。
Smolinksi 补充道:“大量研究正在致力于开发计算效率更高的算法。”更高效的模型解决了上述所有 4 个危机:它们消耗的数据、电力和计算更少,而且速度更快,开辟了新的用例。
“法学硕士很棒,因为它们具有非常自然的对话界面,输入的数据越多,对话就越自然,”Smolinksi 说。“但在狭窄的领域或问题中,这些法学硕士容易产生幻觉,这是一个真正的问题。所以,我们的客户经常选择小型语言模型,如果界面不是完全自然的,那也没关系,因为对于某些问题来说,它不需要完全自然。”
代理工作流程
生成式人工智能可能不是万能药,但它是一个强大的工具。考虑一下代理工作流,它指的是使用 LLM 和人工智能代理执行任务的多步骤方法。这些代理具有一定程度的独立性和决策能力,与数据、系统甚至有时与人进行交互,以完成分配给他们的任务。可以设计专门的代理来处理特定任务或专业领域,带来 LLM 可能缺乏的深厚知识和经验。这些代理可以利用更专业的数据,也可以集成特定领域的算法和模型。
想象一下一家电信公司,其中由 LLM 精心策划的代理工作流程可以高效地管理客户支持查询。当客户提交请求时,LLM 会处理查询、对问题进行分类并触发特定代理来处理各种任务。例如,一个代理检索客户的帐户详细信息并验证所提供的信息,而另一个代理则诊断问题,例如在网络上运行检查或检查账单差异。
发现问题后,第三个代理会制定解决方案,无论是重置设备、退款还是安排技术人员上门。然后,LLM 会协助沟通代理生成对客户的个性化响应,帮助确保信息清晰且与公司的品牌声音一致。解决问题后,会启动反馈循环,代理会收集客户反馈以确定满意度。如果客户不满意,LLM 会审查反馈并可能触发其他后续行动,例如人工代理的电话。
LLM 虽然用途广泛,但在处理需要深厚领域专业知识或专业知识的任务时会遇到困难,尤其是当这些任务超出 LLM 的训练数据范围时。它们的速度也很慢,不适合在动态环境中做出实时决策。相比之下,代理可以使用更简单的决策算法,实时、自主、主动地运行。
与大型单片 LLM 不同,代理还可以设计为从环境中学习并适应环境。它们可以使用强化学习或反馈循环来随着时间的推移提高性能,根据先前任务的成功或失败调整策略。代理工作流本身会生成新数据,然后可用于进一步训练。
这种情况凸显了法学硕士是解决商业问题的一个有用部分,但不是整个解决方案。这是个好消息,因为法学硕士通常是价值链中最昂贵的部分。
回顾炒作
Smolinksi 认为,人们对新技术感到兴奋时往往会走向极端。我们可能认为一项新技术将改变世界,而当它未能做到这一点时,我们可能会变得过于悲观。
“我认为答案是介于两者之间的,”他说,他认为人工智能需要成为解决商业问题的更广泛战略的一部分。“通常来说,人工智能本身并不是唯一的,即使它是,也可能使用多种类型的人工智能模型来解决问题。但你需要从问题开始。如果某个人工智能应用程序可能会对你的决策能力产生重大影响,进而导致重大的财务影响,那么就专注于这些领域,然后弄清楚如何应用正确的技术和人工智能。充分利用完整的工具包,不仅仅是法学硕士,而是所有可用的工具。”
至于所谓的“用例危机”,Hay 相信会出现更多令人信服的用例来证明这些模型的成本是合理的。
“如果你等到技术完善,等到一切正常化后才进入市场,那将是一个颠覆性的方法,”他说。“我不确定我是否会冒这个险。”
立即探索 IBM® watsonx.ai™ AI 工作室
这篇文章有帮助吗?
是的不