Большие языковые модели сегодня стали чрезвычайно мощными; они могут помочь дать ответы на некоторые из наших самых сложных вопросов. Но они также могут сбить нас с пути: они склонны к галлюцинациям, а это значит, что они дают ответы, которые кажутся правильными, но на самом деле это не так.
Здесь мы рассмотрим три метода, позволяющие не дать LLM галлюцинировать: генерация с расширенным поиском (RAG), рассуждения и итеративные запросы.
С
После получения соответствующих документов запрос вместе с этими документами используется LLM для обобщения ответа для пользователя. Таким образом, модели не придется полагаться исключительно на свои внутренние знания, она сможет получить доступ к любым данным, которые вы ей предоставите, в нужное время. В каком-то смысле это обеспечивает LLM «долговременной памятью», которой он сам по себе не обладает. Модель может обеспечить более точные и контекстуально соответствующие ответы за счет включения собственных данных, хранящихся в базе данных векторов.
Альтернативный подход RAG включает проверку фактов. LLM запрашивает ответ, который затем проверяется и сопоставляется с данными в базе данных векторов. Ответ на запрос создается из векторной базы данных, а затем LLM, в свою очередь, использует этот ответ как подсказку, чтобы определить, связан ли он с фактом.
LLM очень хороши во многих вещах. Они могут предсказать следующее слово в предложении благодаря достижениям в области «трансформеров», которые меняют то, как машины понимают человеческий язык, уделяя разную степень внимания различным частям входных данных. LLM также хорошо умеют сводить большой объем информации в очень краткий ответ, а также находить и извлекать то, что вы ищете, из большого объема текста. Удивительно, но LLMS также может планировать — они могут буквально собирать данные и планировать поездку за вас.
И, что еще более удивительно, студенты-магистры могут использовать рассуждения для получения ответа почти человеческим способом. Поскольку люди могут рассуждать, им не нужны тонны данных, чтобы сделать прогноз или решение. Рассуждение также помогает студентам-магистрам избежать галлюцинаций. Примером этого является «
Этот метод помогает моделям разбить многоэтапные задачи на промежуточные этапы. Благодаря подсказкам по цепочке мыслей студенты LLM могут решать сложные задачи рассуждения, на которые не способны стандартные методы подсказок (более подробную информацию можно найти в сообщении в блоге).
Если вы дадите LLM сложную математическую задачу, он может решить ее неправильно. Но если вы предоставите LLM проблему, а также метод ее решения, он сможет дать точный ответ и рассказать о причине ответа. База данных векторов является ключевой частью этого метода, поскольку она предоставляет примеры подобных вопросов и заполняет подсказку этими примерами.
Более того, получив вопрос и ответ, вы можете сохранить его обратно в базе данных векторов, чтобы еще больше повысить точность и полезность ваших генеративных приложений ИИ.
Существует множество других достижений в области рассуждений, о которых вы можете узнать, в том числе
Третий метод, помогающий уменьшить галлюцинации LLM, — это интерактивные запросы. В этом случае агент ИИ выступает посредником в вызовах, которые перемещаются между LLM и векторной базой данных. Это может происходить несколько раз итеративно, чтобы прийти к лучшему ответу. Пример этого перспективного поколения активного поиска, также известного как FLARE.
Вы берете вопрос, запрашиваете в своей базе знаний больше похожих вопросов. Вы получите ряд подобных вопросов. Затем вы запрашиваете векторную базу данных со всеми вопросами, суммируете ответ и проверяете, выглядит ли ответ хорошим и разумным. Если этого не происходит, повторяйте действия до тех пор, пока это не произойдет.
Другие продвинутые методы интерактивных запросов включают в себя
Существует множество инструментов, которые могут помочь вам в оркестрации агентов.
Еще одним таким инструментом является
Компания использует широкий спектр данных, как структурированных, так и неструктурированных, чтобы предоставить ИИ ответы на такие вопросы, как «Сколько жителей в настоящее время пользуются программой Medicare?» Об этом мне недавно рассказал генеральный директор SkyPoint Тиссон Мэтью. По его словам, это помогает поставщикам медицинских услуг быстро принимать обоснованные решения на основе точных данных.
Однако достижение этой точки было процессом, сказал Мэтью. Его команда начала с того, что взяла стандартный LLM и доработала его с помощью данных SkyPoint. «Это привело к катастрофическим результатам – даже к случайным словам», – сказал он. SkyPoint мог справиться с пониманием и созданием подсказок, но ему требовался стек технологий искусственного интеллекта, чтобы генерировать точные ответы в большом масштабе.
В итоге SkyPoint создала систему, которая принимала структурированные данные от операторов и поставщиков, включая, например, электронные медицинские записи и данные о заработной плате. Это хранится в столбцовой базе данных; RAG используется для его запроса. Неструктурированные данные, такие как политики и процедуры, а также государственные нормативные акты, хранятся в векторной базе данных:
В качестве примера Тиссон задал вопрос: что, если житель станет жестоким? Astra DB предоставляет ответ, основанный на государственных нормах и контексте пользователей, а также на множестве различных документов и
«Это конкретные ответы, которые должны быть правильными», — сказал Тиссон. «Это информация, на которую организация полагается, чтобы принимать обоснованные решения для своего сообщества и своего бизнеса».
SkyPoint AI иллюстрирует важность снижения риска галлюцинаций ИИ; последствия могут быть потенциально ужасными, если не будут доступны методы и инструменты для обеспечения точных ответов.
Благодаря RAG, рассуждениям и итеративным подходам к запросам, таким как FLARE, генеративный ИИ – особенно когда он подпитывается собственными данными – становится все более мощным инструментом, помогающим предприятиям эффективно и результативно обслуживать своих клиентов.
Алан Хо, DataStax
Узнайте больше о том, как DataStax поможет вам
Также опубликовано здесь .