Долго време, ИТ специјалисти работеа без грижа во светот. Тие непречено развија, изградија и распоредија софтвер. Потоа дојде ерата на изолација, и одеднаш им здодеа (се разбира, ова е разиграна слика за вистинските настани). ИТ луѓето сакаа да создадат нешто што ќе може да се справи со нивната работа додека тие остануваат дома: да одговараат на рутински прашања, да генерираат одлични аватари и да анализираат огромни количини на податоци за неколку минути. Тие сонуваа да патуваат на фантастично место и така, погодувате, направија револуција во вештачката интелигенција.
Вештачката интелигенција сега функционира, дава одговори и ги подобрува животите. Колку и да е вешт асистент, вештачката интелигенција е навистина ефикасна само кога се користи во вистинскиот контекст.
Сведоци сме на брз напредок во апликациите за вештачка интелигенција, од генерирање слики и видео до прогнозирање на берзата и анализа на криптовалути. Сепак, вештачката интелигенција може да понуди информации што не ги бараме или да дава отворено лажни одговори. Нејзиното однесување е многу слично на она на домашните мачки - знаете, она што седи тивко, а потоа одеднаш се нафрла врз вас?
Нашите мачки, како и вештачката интелигенција, уживаат да бидат непредвидливи:
Можеби се прашувате што значат детерминизмот и стохастичноста - ајде да дознаеме.
Детерминистичкиот систем секогаш го произведува истиот резултат со истиот влез - размислете за идемотенција ако сте инженер за DevOps . Пример од реалниот свет би бил вашата мачка која јаде иста количина на храна што ја ставате во нејзината чинија секој пат - ова е детерминизам . Но, кога мачката шмрка и јаде само половина, тоа веќе не е детерминистичко.
Стохастичкиот процес вклучува елемент на случајност: со истиот влез, резултатот може да варира. На пример, моделот за машинско учење често користи стохастички алгоритми, како што е Стохастичко спуштање на градиент (SGD) , кој го обучува моделот со избирање случајни делови од податоци, наместо целата база на податоци.
Овие дефиниции не објаснуваат целосно зошто нашите ВИ понекогаш халуцинираат и се однесуваат хаотично. Постојат и други фактори кои придонесуваат, вклучувајќи ги следниве:
Ако погледнеме малку поблиску, ќе видиме други механизми кои влијаат на непредвидливото однесување на моделите со вештачка интелигенција.
Веројатно знаете дека вештачката интелигенција што сите ги користи се потпираат на различни алгоритми на невронски мрежи. Еве неколку видови на невронски мрежи:
Ни треба целиот тој контекст за да разбереме зошто најчестиот модел, ChatGPT, често халуцинира.
ChatGPT работи на архитектурата Transformer , првпат претставена во трудот од 2017 година, „Внимание е сè што ви треба“. Ова е самиот механизам што ја револуционизираше обработката на текстот. Трансформаторите работат на механизмот за само-внимание, кој им овозможува да го земат предвид глобалниот контекст наместо само најблиските зборови како постарите рекурентни невронски мрежи (LSTM и GRU). Моделот припаѓа на серијата GPT (Generative Pre-Trained Transformer), што значи:
Одговорите на ChatGPT произлегуваат од стохастички процес, а не од ригидно правило. Не меморира или репродуцира текстови, туку генерира одговори користејќи веројатен модел.
Кога ChatGPT одговара, тој не го избира единствениот точен збор, туку пресметува распределба на веројатност.
P(wi|w1, w2, ..., wi-1), каде што:
w1, w2, ..., wi-1 - претходните зборови
На пример, ако прашате: „Кој ден е денес? ChatGPT може да има различни веројатности:
Најчесто го избира зборот со најголема веројатност, но поради температурата на генерирањето (параметар што ја контролира случајноста), понекогаш може да избере помалку веројатна опција врз основа на контекстот.
ChatGPT работи со ограничен контекстен прозорец, што значи дека ги „се сеќава“ само последните НН токени. За GPT-4, контекстниот прозорец е околу 128 илјади токени (околу 300 страници текст). Доколку важните информации се надвор од овој контекст, може:
Сепак, ChatGPT често може да го поправи својот одговор откако ќе прашате дали е сигурен. Сепак, ChatGPT често може да го поправи својот одговор ако прашате дали е сигурен.
Кога ќе прашате ChatGPT, „Дали сте сигурни? тој повторно го анализира својот одговор користејќи нов контекст каде што е присутен сомнеж. Ова резултира со:
Овој процес може да се објасни со Бајесова веројатност.
P(A|B) = P(B|A)P(A) / P(B), каде што:
P(A|B) — веројатноста одговорот А да е точен, со оглед на вашето следно прашање Б.
P(B|A) - веројатноста дека би прашале дали ChatGPT првично бил во право.
P(A) - почетната веројатност за одговорот на ChatGPT.
P(B) - вкупната веројатност што би ја прашале.
Премногу информации за вас? Прегревање на мозокот? Замислете дека и вештачката интелигенција се преоптоварени со големи количини на информации.
Во обуката на ChatGPT се влеваат огромни количини текстуални податоци, вклучувајќи бучава или контрадикторни информации, како што се:
Ова се примери на моделски халуцинации, кои се јавуваат затоа што тежините на ChatGPT се обучени на веројатни асоцијации на зборови наместо строга логика.
Еве што можеме да научиме од ова. ChatGPT халуцинира затоа што:
Предвидува веројатност, а не детерминистички.
Има ограничена меморија (контекстен прозорец).
Повторно ги пресметува веројатностите кога се испрашува.
Има податоци за обука кои вклучуваат бучава и противречности.
Тоа е толку едноставно. Се надевам дека не се изморивте. Ако сте го направиле тоа, тоа е добар знак бидејќи тоа значи дека размислувате критички, што е токму она што треба да го правиме кога работиме со вештачка интелигенција.