生成式AI入门与AWS实战
上QQ阅读APP看书,第一时间看更新

2.5 通过少样本推理进行上下文学习

帮助生成式AI模型为提示生成更好的结果的一种强大的技术是在提示的上下文部分包含一些提示-补全对。这被称为少样本推理的上下文学习。

值得注意的是,上下文学习并不会以任何方式修改模型。模型使用提示提供的上下文在单次请求期间进行调整或学习。这是生成式AI模型的一个显著的特性。为了利用这一特性,人们发明了许多创新的方式。正如你在前面的人类助手示例中所看到的,我们通过在上下文中包含几个样本(称为shot)来展示这一特性。

在这种情况下,我们仅仅在上下文中加入几个示例,模型就能够更精准地只给出棒球世界大赛的获胜者,而不再像之前的示例那样附带其他冗余的细节。

把一个提示-补全对放入上下文中进行处理,这个过程被称作单样本推理。而完全不提供任何样本,直接进行推理,这个过程则被称作零样本推理。

零样本推理经常用于评估一个模型是否具备处理那些未曾接受过专门训练,或者没有处理过相关示例的任务的能力。在这种推理方式下,模型依赖其现有的知识和泛化能力来进行推理或生成适当的输出,即使面对的是模型之前从未见过的新任务或新问题。

较大的模型在理解语言(对基于图像的模型来说则是感知能力)方面表现得更为出色,并且它们在面对训练阶段未曾接触过的任务时展现出更好的泛化能力。令人惊讶的是,最大的模型在零样本推理上的表现尤为突出,它们能够准确推断并顺利完成许多它们未曾专门训练过的任务。

相反,较小的模型往往只能在少数几种任务上表现出色,这些任务多半与它们训练时所执行的任务相似。在1.3节提到的实验和选择步骤中,你可能需要尝试多个模型,以便为特定应用场景找到一个最合适的模型。值得一提的是,由于涉及的计算层数和参数减少,较小模型在进行推理时往往能够更快速地生成响应。

下面我们通过零样本推理、单样本推理和少样本推理的一些示例帮助你更好地理解它们在提示上下文和模型响应方面的不同之处。