近年来,人工智能的采用率显著上升,企业也加倍投入。根据 IBM® 全球人工智能采用指数,接受调查的企业规模公司(超过 1,000 名员工)中约有 42% 表示已在其业务中积极部署人工智能。 59% 的受访公司表示,他们已经加快了 AI 技术的推广或投资。然而,在这种浪潮中,如何应对 AI 实施的复杂性、可扩展性问题以及验证 AI 的可靠性仍然是公司面临的重大挑战。
强大且可扩展的环境对于加速客户采用 AI 至关重要。它必须能够将雄心勃勃的 AI 用例转化为现实,同时能够以可信和透明的方式生成实时 AI 洞察。
什么是 IBM z/OS 的机器学习?
IBM® z/OS® 机器学习是专为 IBM z/OS 环境量身定制的 AI 平台。它将数据和交易引力与 AI 注入相结合,以信任和透明的方式加速大规模洞察。它帮助客户管理其完整的 AI 模型生命周期,实现快速部署,与 IBM Z 上的任务关键型应用程序共置,无需数据移动,应用程序更改最少。功能包括可解释性、漂移检测、随处训练功能和开发人员友好的 API。有关更多详细信息,请访问 IBM Machine Learning for z/OS 产品页面。
IBM z/OS 机器学习用例
IBM z/OS 机器学习可以满足 IBM z/OS 上的各种事务用例。主要用例包括:
- 信用卡和支付中的实时欺诈检测:大型金融机构因欺诈而遭受的损失越来越多。使用平台外解决方案,他们只能筛选一小部分交易。为了支持此用例,IBM z16™ 系统每秒可处理多达 228,000 笔 z/OS CICS 信用卡交易,响应时间为 6 毫秒,每笔交易都使用深度学习模型进行交易内欺诈检测推理操作。
性能结果是根据 IBM 内部测试推断得出的,该测试在 IBM z16 上运行 CICS 信用卡交易工作负载并执行推理操作。使用配置了 6 个 CP 和 256 GB 内存的 z/OS V2R4 逻辑分区 (LPAR)。推理是使用在 Websphere Application Server Liberty 21.0.0.12 上运行的 IBM z/OS 机器学习进行的,使用合成信用卡欺诈检测模型和 IBM Integrated Accelerator for AI。在 IBM z/OS 机器学习上启用了服务器端批处理,大小为 8 个推理操作。基准测试使用 48 个执行推理操作的线程运行。结果代表完全配置的 IBM z16,具有 200 个 CP 和 40 TB 存储。结果可能会有所不同。
- 清算与结算:一家信用卡处理商尝试使用 AI 帮助确定哪些交易在结算前具有高风险,以减少责任、退款和昂贵的调查。为了支持这一用例,IBM 已验证 IBM z16 配备适用于 IBM z/OS 的机器学习,旨在大规模评估业务交易,提供每天处理多达 3000 亿次深度推理请求的能力,延迟仅为 1 毫秒。
性能结果是根据 IBM 内部测试推断出来的,该测试在 Ubuntu 20.04(SMT 模式)上具有 48 个 IFL 和 128 GB 内存的 IBM z16 LPAR 中运行本地推理操作,使用利用集成 AI 加速器的合成信用卡欺诈检测模型。基准测试以 8 个并行线程运行,每个线程固定到不同芯片的第一个核心。lscpu 命令用于识别核心芯片拓扑。使用 128 个推理操作的批处理大小。还使用 IBM z16 上具有 24 个 CP 和 256 GB 内存的 z/OS V2R4 LPAR 重现了结果。使用了相同的信用卡欺诈检测模型。基准测试使用执行推理操作的单个线程运行。使用 128 个推理操作的批处理大小。结果可能会有所不同。
- 反洗钱: 一家银行正在探索如何将反洗钱筛查引入其即时支付运营流程。由于法规越来越严格,他们目前的日终反洗钱筛查已不再足够。为了支持这一用例,IBM 已证明,与将相同的推理请求发送到同一数据中心内平均网络延迟为 60 毫秒的 x86 服务器相比,搭载 z/OS 的 IBM z16 在共置应用程序和推理请求时可将响应时间缩短 20 倍,并将吞吐量提高 19 倍。
性能结果基于 IBM 内部测试,使用具有交易内欺诈检测功能的 CICS OLTP 信用卡工作负载。使用了合成信用卡欺诈检测模型。在 IBM z16 上,使用 MLz on zCX 进行推理。在比较的 x86 服务器上使用了 Tensorflow Serving。位于同一 IBM z16 上的 Linux on IBM Z LPAR 用于桥接测量的 z/OS LPAR 和 x86 服务器之间的网络连接。使用 Linux“tc-netem”命令引入了额外的网络延迟,以模拟平均延迟为 5 毫秒的网络环境。测量的改进是由于网络延迟。结果可能会有所不同。IBM z16 配置:使用 z/OS (v2R4) LPAR 和 MLz (OSCE) 和 zCX 进行测量,应用了 APAR-oa61559 和 APAR-OA62310,8 个 CP,16 个 zIIP 和 8 GB 内存。 x86 配置:Tensorflow Serving 2.4 在 Ubuntu 20.04.3 LTS 上运行,配备 8 个 Skylake Intel® Xeon® Gold CPU @ 2.30 GHz,开启超线程,1.5 TB 内存,RAID5 本地 SSD 存储。
IBM Z 的 IBM z/OS 机器学习还可用作以安全为重点的本地 AI 平台,适用于客户希望提高数据完整性、隐私性和应用程序可用性的其他用例。IBM z16 系统配备 GDPS®、带有 HyperSwap® 的 IBM DS8000® 系列存储并运行 Red Hat® OpenShift® 容器平台环境,旨在提供 99.99999% 的可用性。
必要组件包括 IBM z16;IBM z/VM V7.2 系统或更高版本,收集在单一系统映像中,每个系统运行 RHOCP 4.10 或更高版本;IBM Operations Manager;GDPS 4.5,用于管理跨城域距离系统和存储的数据恢复和虚拟机恢复,包括 Metro Multisite 工作负载和 GDPS Global;以及带有 IBM HyperSwap 的 IBM DS8000 系列存储。使用了 MongoDB v4.2 工作负载。必须启用必要的弹性技术,包括 z/VM 单一系统映像集群、GDPS xDR Proxy for z/VM 和 Red Hat OpenShift Data Foundation (ODF) 4.10,用于管理本地存储设备。上述测量不包括应用程序引起的中断。结果可能会有所不同。其他配置(硬件或软件)可能提供不同的可用性特征。
立即开始
IBM 和认证业务合作伙伴现在普遍提供适用于 IBM z/OS 的机器学习。
此外,IBM 还提供免费 AI on IBM Z 和 LinuxONE Discovery Workshop。这个研讨会是一个很好的起点,可以帮助您评估潜在用例并制定项目计划。这个研讨会可以帮助您利用 IBM z/OS 的机器学习加速您的 AI 之旅和采用。要了解更多信息或安排有关任何 AI 用例或产品的研讨会,请发送电子邮件至 [email protected]。
发送电子邮件了解更多信息
本文是否有帮助?
是的不