LOADING STUFF...

斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!

AI资讯11个月前更新 shuangyan
77 0

斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!

大数据文摘出品

LLM语言模型中,上下文窗口对于理解和生成与特定上下文相关的文本至关重要。
一般而言较大的上下文窗口可以提供更丰富的语义信息、消除歧义。
由于硬件和算法的最新进步,大模型的上下文窗口的长度也越来越“卷”。
其中的卷王当属Anthropic 公司,其五月份就将 Claude 的上下文窗口从 9k token扩展到了 100k。
最近更新的Claude 2 更是让其100K的上下文能力“常驻”模型。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
有大模型“风向标”之称ChatGPT也在三月份将GPT-4模型最大上下文窗口达扩至32K;六月份将GPT-3.5-Turbo增加了16k的上下文长度(此前是4k)。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
而斯坦福大学联合加州伯克利大学以及Samaya的研究员,在一篇题为“中途迷失:语言模型的长·上下文利用之道”中提出:在多文档问题回答和键值检索,这两种都需要从输入的上下文中识别相关信息的任务中,大语言模型会随着输入上下文的长度增加,性能会显著下降。
具体而言,作者指出当相关信息出现在输入上下文的开头或结尾时,性能通常最好,但当模型需要在长篇上下文的中间获取相关信息时,性能明显降低。
换句话说:当带有答案的文字,被放在文章的中间时候,大语言模型可能无法准确识别、理解该答案。
因此,大模型目前越来越卷的上下文窗口长度,可能并不能增加模型的理解能力。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
值得一提的是,知名科技媒体网站VentureBeat也报道了这篇论文,并咨询了一些专家,表示,向量数据库可能是破局的关键。

Vector databases like Pinecone help developers increase LLM memory by searching for relevant information to pull into the context window.

这一说法也得到了上述论文的关键作者“Nelson Liu”的认可,他表示:如果将整个 PDF 放到语言模型上下文窗口中,然后询问有关该文档的问题,那么使用向量数据库搜索通常会更有效。
同时Nelson Liu也提到这篇论文并不是在说将整篇文档塞进大模型的上下文窗口,就一定表现不好。其实,结果取决于文档所包含的具体内容,大模型在区分“关系密切的内容”时,表现不佳。当各部分内容不相关(相互独立)的时候,大模型非常擅长“准确定位”。
编者注:向量数据库的核心思想是将文本转换成向量,然后将向量存储在数据库中,当用户输入问题时,将问题转换成向量,然后在数据库中搜索最相似的向量和上下文,最后将文本返回给用户。
论文细节
论文对开源和非开源的模型都进行了测验,前者包括MPT-30B-Instruct,LongChat-13B(16K);后者包括OpenAI的GPT-3.5-Turbo和Anthropic的Claude。
首先进行了多文档问题回答的实验。该任务的目标是让模型对文档进行推理,找到并使用相关信息来回答给定的问题。
在实验中,对输入上下文的大小以及输入上下文中的相关信息位置进行了有控制的调整。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
如上图所示,当改变相关信息在文档中的位置时,模型性能呈现独特的U形趋势,即当相关信息出现在输入上下文的开头或结尾时,性能通常最好;当模型需要在长篇上下文的中间获取相关信息时,性能明显最低。
甚至,在相关信息被放在输入上下文的中间位置时,GPT-3.5-Turbo在多文档问题回答任务上的表现不如别提供文档。
此外,一些号称专门处理长文本的大模型,在这方面表现也不好。
那么,语言模型有多大程度上能从输入上下文中检索信息呢?论文作者指定了一个合成的键值检索任务来探索该问题。
在这个任务中,模型需要处理一组JSON格式的键值对,并必须返回与特定键相关联的值。类似于多文档问题回答任务,键值检索任务在操作过程中,也对输入上下文的大小以及输入上下文中的相关信息位置进行了有控制的调整。
结果显示:仍然是U形性能曲线。
多文档问答
多文档问答任务在很大程度上类似于商业搜索和问答应用(例如,Bing Chat)所采用的检索增强生成模式。
在这些实验中,模型的输入是一个需要回答的问题,以及k篇文档(例如,来自维基百科的段落),其中一篇文档包含了问题的答案,而剩下的k-1篇“干扰”文档则没有。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
如上图所示,要执行多文档问答任务,模型需要在输入的上下文中获取包含答案的文档,并用它来回答问题。
具体测验中,作者利用NaturalQuestions基准测试的数据,创建了这一任务的实例。其中,使用的查询来自于NaturalQuestions-Open,并从维基百科抽取段落(即不超过100个Token的文本块)作为输入上下文中的文档。
对于所有这些查询,需要找到一份包含答案的文档,并找到k – 1份没有答案的文档作为干扰项。前者作者采用NaturalQuestions注释中含有答案的维基百科段落;后者采用了Contriever检索系统找出那些最与问题相关,但并未包含任何NaturalQuestions标注答案的k – 1个维基百科片段。
最后,将准确度作为主要的评价标准,以此来判断预测输出中是否出现了正确的答案。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
前期准备工作完毕,作者对当前几个“最能打”的大模型进行了测验。从上图可以看出,这些模型都展示出了U形性能。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
如上图所示,随着输入上下文的增长,模型的表现有明显的下滑。无论哪一个任务,随着上下文扩展,模型的功能都会表现出退化。
键值检索任务
键值检索任务能够测验大模型从输入上下文直接获取信息的能力。键值检索任务中,输入是含k对键值的JSON对象及一特定键,目标是返回该键关联的值。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
因此,每个JSON对象都包含一个关联的键值对(需要检索的值),和k-1个不相关的“干扰”键值对。上图展示了键值检索任务输入内容和其对应的预期输出。
该任务中,可通过增加或减少随机键来改变JSON键值对的数量,这样就改变了输入的长度;同时也会调整输入中相关的正確信息的位置。

斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!

含有75、140和300个键值对的测试
上图展示了键值检索的表现。结果显示虽然键值找回任务仅需找到输入上下文中的精确匹配,但并非所有模型都表现优秀。claude模型在各种长度上都接近完美,但其他模型在检索大量键值对时遇到了困难。
在键值检索和多文档问答任务中,表现出类似的U型曲线。唯一的例外是在键值检索任务中表现出色的模型(claude)。值得一提的是,LongChat-13B在140键值环境下的表现非常独特,它会生成代码来提取键值,而非直接输出值。

为什么会出现这种问题?

 
为深入洞察其原因,作者初步研究了模型构架,答案在上下文中位置,和指令调优起到的作用。
斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
在模型架构层面,论文比较了only解码器和编码-解码两类模型,结论是:相比于only解码器的语言模型,编码器-解码器结构的语言模型在上下文窗口方面较为稳健。但当模型处理超过其在训练时使用的最大序列长度时,编码器-解码器模型也会出现U形曲线。
另外,更改答案在上下文中的位置,可以完美地提高关键-值检索任务的性能,但对多文档问答任务的性能趋势影响不大。
最后,作者发现基础语言模型在没有指令调优的情况下也表现出U形曲线,这表明指令调优过程本身可能不是造成这一性能模式的原因。
换句话说,语言模型在利用中间信息上的困难,其根本原因可能不在于指令调优,这需要我们更深入地研究模型本身的结构及训练过程。
论文结论
提供更多上下文信息并非总是有益的。尽管在某些情况下,向语言模型提供更多的上下文信息可以提高其性能,但是在一定点之后,增加更多的上下文信息可能无法带来显著的性能改进。
模型优先使用开头和末尾信息。语言模型更容易处理输入信息的开头和末尾部分,所以把关键信息放在这些位置或缩短文档长度可能有助于提升性能。
模型难以利用更长的上下文。仅仅通过增加上下文长度可能无法有效提升语言模型的性能。要真正改善模型处理长上下文的能力,可能需要从模型本身进行改进,例如改进模型的架构或者训练策略。

参考文献:

https://venturebeat.com/ai/stanford-study-challenges-assumptions-about-language-models-larger-context-doesnt-mean-better-understanding/

https://arxiv.org/abs/2307.03172

https://guangzhengli.com/blog/zh/vector-database/

斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!

斯坦福大学:LLM大模型“卷”错方向了?上下文窗口越长,模型越笨!
点「在看」的人都变好看了哦!

© 版权声明

相关文章