paint-brush
Можно ли остановить галлюцинации ИИ? Взгляните на 3 способа сделать эток@datastax
3,083 чтения
3,083 чтения

Можно ли остановить галлюцинации ИИ? Взгляните на 3 способа сделать это

к DataStax6m2023/10/19
Read on Terminal Reader

Слишком долго; Читать

Исследование трех методов предотвращения галлюцинаций у LLM: генерация с расширенным поиском (RAG), рассуждение и итеративные запросы.
featured image - Можно ли остановить галлюцинации ИИ? Взгляните на 3 способа сделать это
DataStax HackerNoon profile picture


Большие языковые модели сегодня стали чрезвычайно мощными; они могут помочь дать ответы на некоторые из наших самых сложных вопросов. Но они также могут сбить нас с пути: они склонны к галлюцинациям, а это значит, что они дают ответы, которые кажутся правильными, но на самом деле это не так.


LLM галлюцинируют, когда они сталкиваются с запросами, которые не являются частью их набора обучающих данных – или когда их набор обучающих данных содержит ошибочную информацию (это может произойти, когда LLM обучаются на интернет-данных, которым, как мы все знаем, не всегда можно доверять ). У LLM также нет памяти. Наконец, «тонкую настройку» часто рассматривают как способ уменьшить галлюцинации путем переобучения модели на новых данных, но у нее есть свои недостатки.


Здесь мы рассмотрим три метода, позволяющие не дать LLM галлюцинировать: генерация с расширенным поиском (RAG), рассуждения и итеративные запросы.

Генерация с расширенным поиском

С ТРЯПКА , в базу знаний поступает запрос (который в данном случае представляет собой векторная база данных ) как семантический вектор – строка чисел. Затем модель извлекает аналогичные документы из базы данных, используя векторный поиск , ищем документы, векторы которых близки к вектору запроса.


После получения соответствующих документов запрос вместе с этими документами используется LLM для обобщения ответа для пользователя. Таким образом, модели не придется полагаться исключительно на свои внутренние знания, она сможет получить доступ к любым данным, которые вы ей предоставите, в нужное время. В каком-то смысле это обеспечивает LLM «долговременной памятью», которой он сам по себе не обладает. Модель может обеспечить более точные и контекстуально соответствующие ответы за счет включения собственных данных, хранящихся в базе данных векторов.


Генерация запросов знаний


Альтернативный подход RAG включает проверку фактов. LLM запрашивает ответ, который затем проверяется и сопоставляется с данными в базе данных векторов. Ответ на запрос создается из векторной базы данных, а затем LLM, в свою очередь, использует этот ответ как подсказку, чтобы определить, связан ли он с фактом.


Включение проверки фактов

Рассуждение

LLM очень хороши во многих вещах. Они могут предсказать следующее слово в предложении благодаря достижениям в области «трансформеров», которые меняют то, как машины понимают человеческий язык, уделяя разную степень внимания различным частям входных данных. LLM также хорошо умеют сводить большой объем информации в очень краткий ответ, а также находить и извлекать то, что вы ищете, из большого объема текста. Удивительно, но LLMS также может планировать — они могут буквально собирать данные и планировать поездку за вас.


И, что еще более удивительно, студенты-магистры могут использовать рассуждения для получения ответа почти человеческим способом. Поскольку люди могут рассуждать, им не нужны тонны данных, чтобы сделать прогноз или решение. Рассуждение также помогает студентам-магистрам избежать галлюцинаций. Примером этого является « подсказка по цепочке мыслей ».


Этот метод помогает моделям разбить многоэтапные задачи на промежуточные этапы. Благодаря подсказкам по цепочке мыслей студенты LLM могут решать сложные задачи рассуждения, на которые не способны стандартные методы подсказок (более подробную информацию можно найти в сообщении в блоге). Языковые модели выполняют рассуждения посредством цепочки мыслей из Гугла).


Если вы дадите LLM сложную математическую задачу, он может решить ее неправильно. Но если вы предоставите LLM проблему, а также метод ее решения, он сможет дать точный ответ и рассказать о причине ответа. База данных векторов является ключевой частью этого метода, поскольку она предоставляет примеры подобных вопросов и заполняет подсказку этими примерами.


Более того, получив вопрос и ответ, вы можете сохранить его обратно в базе данных векторов, чтобы еще больше повысить точность и полезность ваших генеративных приложений ИИ.


Сохранение ответа в векторной базе данных


Существует множество других достижений в области рассуждений, о которых вы можете узнать, в том числе дерево мысли , меньше всего к большинству , самосогласованность , и инструкция по настройке .

Итеративный запрос

Третий метод, помогающий уменьшить галлюцинации LLM, — это интерактивные запросы. В этом случае агент ИИ выступает посредником в вызовах, которые перемещаются между LLM и векторной базой данных. Это может происходить несколько раз итеративно, чтобы прийти к лучшему ответу. Пример этого перспективного поколения активного поиска, также известного как FLARE.


Вы берете вопрос, запрашиваете в своей базе знаний больше похожих вопросов. Вы получите ряд подобных вопросов. Затем вы запрашиваете векторную базу данных со всеми вопросами, суммируете ответ и проверяете, выглядит ли ответ хорошим и разумным. Если этого не происходит, повторяйте действия до тех пор, пока это не произойдет.


Форвардное активное поисковое поколение


Другие продвинутые методы интерактивных запросов включают в себя АвтоGPT , Майкрософт Джарвис , и Подсказка к сольному выступлению .


Существует множество инструментов, которые могут помочь вам в оркестрации агентов. Лангчейн — отличный пример, который поможет вам организовать вызовы между LLM и векторной базой данных. По сути, он автоматизирует большинство задач управления и взаимодействия с LLM, а также обеспечивает поддержку памяти, векторный поиск по сходству, расширенную абстракцию шаблонов подсказок и множество других функций. Это также помогает и поддерживает передовые методы подсказок, такие как цепочка мыслей и FLARE.


Еще одним таким инструментом является КассИО , который был разработан DataStax как абстракция поверх нашей векторной базы данных Astra DB, с идеей сделать данные и память первоклассными гражданами в генеративный ИИ . CassIO — это библиотека Python, которая обеспечивает интеграцию Cassandra с генеративным искусственным интеллектом и другими рабочими нагрузками машинного обучения, абстрагируя процесс доступа к базе данных, включая ее векторный поиск возможности и предлагает набор готовых к использованию инструментов, которые сводят к минимуму потребность в дополнительном коде.

Собираем все вместе: SkyPoint AI

СкайПойнт ИИ — поставщик SaaS, специализирующийся на данных, аналитике и услугах искусственного интеллекта для индустрии ухода за пожилыми людьми и проживания. Компания использует генеративный искусственный интеллект для обеспечения естественного и интуитивно понятного взаимодействия между пожилыми людьми, лицами, осуществляющими уход, и программными системами. Упрощая сложные приложения и оптимизируя взаимодействие с пользователем, SkyPoint AI расширяет возможности пожилых людей и лиц, осуществляющих уход получать легкий доступ к информации и ценным знаниям, что помогает повысить качество оказания медицинской помощи.


Компания использует широкий спектр данных, как структурированных, так и неструктурированных, чтобы предоставить ИИ ответы на такие вопросы, как «Сколько жителей в настоящее время пользуются программой Medicare?» Об этом мне недавно рассказал генеральный директор SkyPoint Тиссон Мэтью. По его словам, это помогает поставщикам медицинских услуг быстро принимать обоснованные решения на основе точных данных.


Однако достижение этой точки было процессом, сказал Мэтью. Его команда начала с того, что взяла стандартный LLM и доработала его с помощью данных SkyPoint. «Это привело к катастрофическим результатам – даже к случайным словам», – сказал он. SkyPoint мог справиться с пониманием и созданием подсказок, но ему требовался стек технологий искусственного интеллекта, чтобы генерировать точные ответы в большом масштабе.


В итоге SkyPoint создала систему, которая принимала структурированные данные от операторов и поставщиков, включая, например, электронные медицинские записи и данные о заработной плате. Это хранится в столбцовой базе данных; RAG используется для его запроса. Неструктурированные данные, такие как политики и процедуры, а также государственные нормативные акты, хранятся в векторной базе данных: DataStax Astra БД .


В качестве примера Тиссон задал вопрос: что, если житель станет жестоким? Astra DB предоставляет ответ, основанный на государственных нормах и контексте пользователей, а также на множестве различных документов и векторные вложения , на естественном языке, понятном пожилому работнику учреждения престарелых,


«Это конкретные ответы, которые должны быть правильными», — сказал Тиссон. «Это информация, на которую организация полагается, чтобы принимать обоснованные решения для своего сообщества и своего бизнеса».

Заключение

SkyPoint AI иллюстрирует важность снижения риска галлюцинаций ИИ; последствия могут быть потенциально ужасными, если не будут доступны методы и инструменты для обеспечения точных ответов.


Благодаря RAG, рассуждениям и итеративным подходам к запросам, таким как FLARE, генеративный ИИ – особенно когда он подпитывается собственными данными – становится все более мощным инструментом, помогающим предприятиям эффективно и результативно обслуживать своих клиентов.


Алан Хо, DataStax

Узнайте больше о том, как DataStax поможет вам создавать генеративные приложения искусственного интеллекта в реальном времени .


Также опубликовано здесь .