在快速发展的人工智能世界中,大型语言模型已经取得了长足的进步,对我们周围的世界拥有令人印象深刻的知识。然而
法学硕士是能够理解和生成类人文本的计算机模型。它们是数字助理、自动更正功能甚至某些电子邮件背后的人工智能。他们对世界的了解往往是巨大的,但并不完美。就像人类一样,法学硕士可以达到他们知识的极限,但他们不会停下来,而是倾向于做出有根据的猜测或“幻觉”来完成任务。这可能会导致结果包含不准确或误导性信息。
在一个简单的世界中,答案是在需要的确切时间(即进行查询时)向模型提供相关的专有信息。但确定哪些信息是“相关的”并不总是那么简单,需要了解法学硕士被要求完成的任务。这就是 RAG 发挥作用的地方。
在人工智能的世界中,嵌入模型的作用就像翻译器。他们通过称为“文档编码”的过程将文本文档转换为大量数字。该列表代表了法学硕士对文档含义的内部“理解”。这串数字称为向量:一段数据属性的数字表示。每个数据点都表示为具有许多数值的向量,其中每个值对应于数据的特定特征或属性。
虽然一串数字对于普通人来说似乎毫无意义,但这些数字充当高维空间中的坐标。就像纬度和经度可以描述物理空间中的位置一样,这串数字描述了原文在语义空间(所有可能含义的空间)中的位置。
将这些数字视为坐标使我们能够衡量两个文档之间含义的相似性。该测量被视为语义空间中它们各自点之间的距离。较小的距离表明含义更大的相似性,而较大的距离表明内容的差异。因此,可以通过在语义空间中搜索“接近”查询的文档来发现与查询相关的信息。这就是向量相似度搜索的魔力。
RAG 是一种生成式 AI架构,它应用语义相似性来自动发现与查询相关的信息。
在 RAG 系统中,您的文档存储在矢量数据库 (DB) 中。每个文档都根据嵌入模型生成的语义向量进行索引,以便可以快速找到接近给定查询向量的文档。这本质上意味着每个文档都被分配了一个数字表示(向量),该表示表示其含义。
当查询到来时,相同的嵌入模型用于生成查询的语义向量。
然后,该模型使用向量搜索从数据库中检索相似文档,查找向量与查询向量接近的文档。
检索到相关文档后,查询以及这些文档将用于从模型生成响应。这样,模型不必仅仅依赖其内部知识,而是可以在正确的时间访问您提供的任何数据。因此,通过合并存储在提供矢量搜索功能的数据库中的专有数据,该模型能够更好地提供更准确、更适合上下文的响应。
有一些所谓的“矢量数据库”可用,包括
可以对查询编码器和结果生成器进行微调,以优化性能。微调是稍微调整模型参数以更好地适应手头的特定任务的过程。
微调为优化法学硕士提供了许多好处。但它也有一些限制。其一,它不允许动态集成新的或专有的数据。该模型的知识在训练后保持静态,导致当被问及训练集之外的数据时会产生幻觉。另一方面,RAG 动态检索并合并来自外部数据库的最新专有数据,从而减轻幻觉问题并提供更符合上下文的准确响应。 RAG 使您能够在查询时控制向模型提供的确切信息,从而允许在进行查询时针对特定用户定制提示。
RAG 比微调在计算上也更加高效和灵活。微调需要针对每次数据集更新重新训练整个模型,这是一项耗时且资源密集型的任务。相反,RAG只需要更新文档向量,从而实现更简单、更高效的信息管理。 RAG 的模块化方法还允许单独微调检索机制,从而在不改变基本语言模型的情况下适应不同的任务或领域。
RAG 增强了大型语言模型的功能和准确性,使其成为微调的有力替代方案。在实践中,企业更倾向于使用RAG而不是微调。
将 RAG 融入法学硕士不仅可以提高他们回答的准确性,还可以最大限度地发挥他们的潜力。该过程使法学硕士能够专注于他们擅长的领域,即根据提示智能生成内容。模型不再是唯一的信息来源,因为 RAG 在需要时为其提供相关专有知识,并且模型可访问的知识库可以扩展和更新,而无需昂贵的模型训练工作。
从本质上讲,RAG 充当了一座桥梁,将法学硕士与超出其内部能力的知识库连接起来。因此,它大大减少了LLM“产生幻觉”的倾向,并为用户提供了更准确、更高效的模型。
DataStax 最近宣布在 Astra DB 中全面提供矢量搜索功能。了解一下
作者:Ryan Michael,DataStax