虽然大型语言模型在从海量数据中学习方面表现得异常出色,但一项与之相反的新技术却让科技公司热议不已:机器学习。
这种相对较新的方法教会法学硕士忘记或“忘记”敏感、不受信任或受版权保护的数据。它比从头开始重新训练模型更快,并且可以追溯性地删除特定的不需要的数据或行为。
因此,IBM、谷歌和微软等科技巨头都在努力让机器学习技术进入黄金时代,这并不令人意外。然而,人们对机器学习技术的关注度不断提高,也凸显了该技术的一些缺陷:模型遗忘太多,缺乏行业通用的工具来评估机器学习技术的有效性。
从学习到忘记
法学硕士通过对数 TB 的数据进行训练,无需明确编程即可“学会”做出决策和预测。随着算法模仿人类的学习方式,逐渐提高其生成内容的准确性,这一被称为机器学习的人工智能分支已迅速流行起来。
但更多的数据也意味着更多的问题。或者正如 IBM 高级研究员 Nathalie Baracaldo 所说,“无论学到什么数据——好的和坏的——它都会被记住。”
因此,规模越来越大的模型也可能产生更多有毒、仇恨的语言,并包含违反网络安全标准的敏感数据。为什么?这些模型是在互联网上非结构化和不受信任的数据上进行训练的。即使经过严格的数据过滤尝试,调整模型以定义问题 不是 回答以及提供什么答案并使用其他护栏来检查模型的输出——不良行为、恶意软件、有毒材料和受版权保护的材料仍然会蔓延。
重新训练这些模型以删除不需要的数据需要数月时间,花费数百万美元。此外,当模型开源时,基础模型中的任何漏洞都会被带到许多其他模型和应用程序中。
反学习方法旨在缓解这些问题。通过识别反学习目标(例如包含有害、不道德或受版权保护的语言或不需要的文本提示的内容等特定数据点),反学习算法可以有效地消除目标内容的影响。
忘记哈利·波特
微软的一个研究小组使用这种忘却学习方法,看看他们能否让 Meta 的 Llama2-7b 模型忘记《哈利波特》的版权材料,这些材料是它在网上接受的训练。在忘却学习之前,当研究人员输入诸如“谁是哈利波特?”之类的提示时,模型会回答:“哈利波特是 JK 罗琳系列奇幻小说中的主角。”
对模型进行微调以“忘记”受版权保护的材料后,模型对同一提示做出以下回应:“哈利波特是一位英国演员、作家和导演……”。
研究人员 Ronen Elden 和 Mark Russinovich 在一篇博文中解释道:“实际上,每当模型遇到与目标数据相关的上下文时,它就会‘忘记’原始内容。”该团队在 Hugging Face 上分享了他们的模型,以便 AI 社区可以探索遗忘并对其进行修改。
除了删除受版权保护的材料外,删除敏感材料以保护个人隐私是另一个高风险用例。由德克萨斯大学奥斯汀分校的 Radu Marculescu 领导的团队与摩根大通的人工智能专家合作,正在研究图像到图像生成模型的机器学习。在最近的一篇论文中,他们展示了他们能够消除图像中不需要的元素(“遗忘集”)而不会降低整个图像集的性能。
马库莱斯库教授表示,这种技术可能在无人机勘测房地产等场景中很有用。“如果孩子们的脸清晰可见,你可以把它们遮住以保护他们的隐私。”
相关:解决机器学习模型中的偏见
谷歌还忙于解决更广泛的开源开发者社区中的“遗忘”问题。2023 年 6 月,谷歌发起了首个机器“遗忘”挑战赛。比赛的特色是一个经过面部图像训练的年龄预测器。训练结束后,必须遗忘一部分训练图像,以保护相关个人的隐私或权利。
虽然它并不完美,但各个团队的早期成果都很有希望。例如,通过在 Llama 模型上使用机器学习,IBM 的 Baracaldo 团队能够将毒性评分从 15.4% 降低到 4.8%,而不会影响 LLM 执行的其他任务的准确性。而且,重新训练模型不需要花费数月时间,更不用说成本了,而机器学习只需要 224 秒。
减速带
那么为什么机器学习还没有被广泛应用呢?
巴拉卡尔多解释道:“忘记的方法仍处于起步阶段,而且还不能很好地扩展。”
第一个迫在眉睫的挑战是“灾难性遗忘”——这意味着模型遗忘的内容比研究人员希望的要多,因此模型不再执行其设计的关键任务。
IBM 团队开发了一个新框架来改善模型的训练后功能。他们使用一种称为“拆分-取消学习-合并”或 SPUNGE 的方法,能够取消不良行为(例如毒性)和危险知识(例如生物安全或网络安全风险),同时保留模型的一般功能。
研究人员一致表示,开发全面可靠的评估工具来衡量忘记所学知识的努力的有效性仍然是一个有待解决的问题。
机器学习的未来
尽管“忘记所学”可能仍在摸索中,但研究人员正在加倍努力,因为它在如此广泛的潜在应用、行业和地区都可能被证明是有用的。
例如,在欧洲,欧盟的《通用数据保护条例》保护个人的“被遗忘权”。如果个人选择删除其数据,机器学习可以帮助确保公司遵守该法规并删除关键数据。除了安全和隐私之外,机器学习还可以用于许可证到期或客户离开大型金融机构或医院联盟等需要添加或删除数据的任何情况。
“我喜欢忘记过去,”巴拉卡尔多说,“因为我们可以继续使用所有其他防线,比如过滤数据。但每当我们看到问题时,我们也可以‘修补’或修改模型,以删除所有不需要的内容。”
电子书:如何选择正确的基础模型
这篇文章有帮助吗?
是的不