OpenAI 最新的 o1 预览模型通过将复杂问题分解为多个步骤来解决,可能会改变行业应对挑战的方式。
这种方法被称为思维链推理,标志着与以前的人工智能模型的重大转变,以前的人工智能模型通常只给出答案而不解释其推理。这些进步可能会重塑企业和研究人员处理复杂问题解决任务的方式。
IBM 杰出工程师 Chris Hay 表示:“这些模型更擅长处理需要更多逻辑和推理的任务,因为它们会花时间思考问题。它们就像在一步步展示自己的工作成果。”
思路推理
思维链方法让用户能够看到人工智能是如何得出结论的。海伊解释了这个过程:“例如,如果你问一个孩子,25 乘以 10 加 5 等于多少,这有三个步骤。他们可能会给出模糊的答案。但你说,不,不,你需要把它分解……就像在学校里,你在展示你的工作。”
IBM AI 安全高级研究员 Nathalie Baracaldo 强调了这一进展的重要性:“主要区别在于我们如何知道模型是如何做出决策的。我们对代理的行为有解释,这对于理解某件事发生的原因非常有用。”
这种透明度水平可能对各个行业产生深远影响。例如,在软件开发中,模型显示出改进的编码能力,错误更少。Hay 指出,“它们编码更好,幻觉更少”,指的是人工智能产生合理但不正确的信息的情况。
新模型还在训练过程中融入了强化学习。Hay 解释说:“他们还改变了基础模型的训练方式。他们谈到了如何使用强化学习……来教授和训练这些模型。”
人机协作
这些先进人工智能模型的最有效利用可能涉及人类专业知识与机器能力之间的合作。“人类将始终需要提供意见、同意规划并验证这些事情,”Hay 说。
Hay 告诫不要高估模型的能力:“我认为你可以得到很好的输出。我认为当人们听到 AGI 这个词时,他们会想到云层中这个巨大的脉动脑袋……实际上,如果我考虑一下,这些模型,凭借它们的下一个标记预测、良好的训练数据和规划等,它们做得相当不错——在很多任务上都比人类做得好。”
这些模型的发展引发了人们对人工智能的本质及其与人类认知的比较的质疑。新模型在某些领域表现出了非凡的能力——在律师资格考试和 SAT 等标准化考试中的表现优于人类。但它们在大多数人类认为直观的任务上仍然举步维艰。
海伊指出,这些模型在处理人类认为简单的任务时会遇到困难:“该模型擅长特定的单个任务。然而,它目前很难区分对话的不同部分。这导致其同时处理多个概念的能力出现混乱。该模型过分强调上下文,在处理请求时经常考虑太多不相关的信息。”
Baracaldo 还提醒道:“尽管这个模型非常令人印象深刻,但有时也会出错。如果你读过技术报告,你会发现有时它给出的解决方案在真正的专家(人类)看来是不可行的,但模型并不知道所有的假设。”
这些进步的影响不仅限于科技行业。在研究和学术领域,它们可能通过协助复杂的数据分析和假设生成来加快发现的速度。在医学和法律等领域,它们可以作为增强人类专业知识的工具,从而可能带来更准确的诊断或更全面的法律分析。
Hay 总结了新模型对企业的实用价值:“他们的编码能力比以前好多了。”
电子书:如何选择正确的基础模型
这篇文章有帮助吗?
是的不