paint-brush
AI 100 天,第 11 天:成为 Gen AI 应用程序中的微调向导经过@sindamnataraj
892 讀數
892 讀數

AI 100 天,第 11 天:成为 Gen AI 应用程序中的微调向导

经过 Nataraj4m2024/02/26
Read on Terminal Reader

太長; 讀書

微调使我们能够克服 ChatGPT 或 LLama 依赖于提供响应的基本模型的限制。以下是如何微调您的基本模型!
featured image - AI 100 天,第 11 天:成为 Gen AI 应用程序中的微调向导
Nataraj HackerNoon profile picture

嘿大家! 我是 Nataraj和您一样,我也对人工智能的最新进展着迷。意识到我需要跟上所有正在发生的发展,我决定踏上个人学习之旅,于是人工智能100天诞生了!通过这个系列,我将学习法学硕士,并通过我的博客文章分享想法、实验、观点、趋势和学习。您可以在此处的HackerNoon 或此处的我的个人网站上跟踪整个旅程。在今天的文章中,我们将寻求在 GPT-4 的帮助下构建语义内核。


如果您一直关注生成式人工智能或法学硕士领域,您可能已经听说过微调。在这篇文章中,我们尝试了解什么是微调以及它在开发新一代人工智能应用程序中的作用。

什么是微调?

微调是修改通用基础模型以使其适用于专门用例的过程。以 Open AI 的 gpt-3 模型为例。 Gpt-3 是一个基本模型,经过微调以成为聊天机器人,从而产生了人们现在所说的 chat-gpt 应用程序。另一个例子是将 GPT-4 模型修改为编码员的副驾驶,这样做是为了创建 GitHub 副驾驶。

为什么我们必须对基础模型进行微调?

微调使我们能够克服基础模型的限制。像 Open AI 的 gpt-3 或 Meta 的 Llama 这样的基础模型通常是在整个互联网的数据上进行训练的。但他们没有组织内部数据的上下文。并且通过提示提供与您的组织或专有用例相关的所有数据是不可能的。微调使我们能够容纳比即时工程更多的数据。微调还允许模型生成一致的输出、减少幻觉并针对特定用例定制模型。

微调与即时工程有何不同?

我们在之前的文章中已经看到了即时工程的强大功能。那么微调有何不同呢?微调适用于企业应用程序用例,而即时工程适用于一般用例并且不需要数据。它可以与 RAG 作为一种技术一起使用,但不能与企业用例中存在的大数据一起使用。 Finetuning允许无限的数据,使模型学习新的信息,它也可以与RAG一起使用。

微调与即时工程

比较微调响应与非微调响应

让我们举一个例子,它可能会让您更好地直观地了解微调模型与非微调模型之间的差异。我使用Lamini的库来调用微调和非微调的 Llama 模型以显示差异。为此,您需要 Lamini 的 api 密钥。 Lamini 提供了一种与开源 LLM 交互的简单方法。如果您想了解更多信息,请查看此处。

Lamini 微调响应与非微调响应

在这个例子中,我向两个模型询问了同样的问题“你对死亡有何看法?”以下是回应。

来自非微调骆驼模型的回应:

来自非微调 Llama 模型的响应

微调骆驼模型的回应:

微调骆驼模型的响应


您会注意到,第一个响应只是重复一行,而第二个响应则更加连贯。在讨论这里发生的事情之前,让我们再举一个例子,我问模型“你的名字是什么?”。这就是我得到的。

来自非微调骆驼模型的回应:

来自非微调 Llama 模型的响应

微调骆驼模型的回应:

微调骆驼模型的响应


在非微调模型响应中,响应很奇怪,因为模型只做一件事。它试图根据您的输入文本预测下一个可能的文本,但它也没有意识到您向它提出了一个问题。基于互联网数据训练的模型是文本预测机器,并尝试预测下一个最佳文本。通过微调,模型被训练为通过提供额外的数据来基础其响应,并且它学习新的行为,即充当旨在回答问题的聊天机器人。另请注意,大多数封闭模型(例如 Open AI 的 gpt-3 或 gpt-4)我们并不确切知道它们训练的数据是什么。但是有一些很酷的开放数据集可用于训练模型。稍后会详细介绍。


这就是人工智能 100 天中的第 11 天。


我写了一篇名为“高于平均水平”的时事通讯,其中讨论了大型科技领域正在发生的一切背后的二阶见解。如果您从事科技行业并且不想成为平庸的人,请订阅它


TwitterLinkedInHackerNoon上关注我,了解 AI 100 天的最新动态。如果您从事技术工作,您可能有兴趣加入我的技术专业人士社区