paint-brush
Wann werden Infrastrukturunternehmen von generativer KI profitieren?von@datastax
219 Lesungen

Wann werden Infrastrukturunternehmen von generativer KI profitieren?

von DataStax7m2024/05/29
Read on Terminal Reader

Zu lang; Lesen

Angesichts des durch GenAI-Apps getriebenen Konsums beginnen Unternehmen wie Microsoft, Google und sogar Oracle, Ergebnisse aus der KI zu melden. Außerhalb des Bereichs der Hyperscaler werden wahrscheinlich auch andere KI-Infrastrukturunternehmen in ihren im Januar, Februar und März nächsten Jahres veröffentlichten Ergebnisberichten auf Steigerungen hinweisen.
featured image - Wann werden Infrastrukturunternehmen von generativer KI profitieren?
DataStax HackerNoon profile picture

Es gibt derzeit viele Fragen zum Stand der generativen KI. Wie weit sind Unternehmen mit ihren maßgeschneiderten GenAI-Bemühungen? Entwickeln Organisationen tatsächlich KI-Anwendungen mit ihren eigenen proprietären Daten, die etwas bewirken? Welche Art von Architektur ist erforderlich?


Diese Fragen sind nicht überraschend, denn es gibt eine riesige Bandbreite an Meinungen zum Thema KI, von unverhohlenem Optimismus bis hin zu abgestumpftem Zynismus, gemischt mit jeder Menge Hype.


Ich habe festgestellt, dass es hilft, den Stand der Dinge auf dem GenAI-Markt in drei Bereichen zu klären: was der Markt sehen möchte, Befürchtungen darüber, was passieren könnte, und was (und wie) im Jahr 2024 passieren wird.


Drei Faktoren, die den GenAI-Markt beeinflussen

Was wollen alle – und wovor haben sie Angst?

GenAI tauchte Ende 2022 explosionsartig auf, als OpenAI ChatGPT veröffentlichte und zeigte, wie leistungsstark und zugänglich diese Art von Technologie sein kann. Die Begeisterung über das potenzielle Potenzial von KI war allgegenwärtig. In kurzer Zeit sollte GenAI in jede Anwendung in jedem Unternehmen integriert werden. Investoren sahen eine hockeyschlägerartige Wachstumskurve für Unternehmen voraus, die die Infrastruktur zur Unterstützung von GenAI bereitstellen.


Die Skeptiker hingegen stellten sich eine dystopische KI-Zukunft vor, die eine Mischung aus „Westworld“ und „Black Mirror“ sei. Andere warnten vor einer KI-Blase. Aus Anlegersicht sagen manche, es sei wie bei Krypto – viel Aufregung und Hype und dann ein rauchender Krater.


Ich denke, beide Befürchtungen sind unbegründet. Natürlich wird es bei jeder neuen Technologiewelle auch Bösewichte geben, die GenAI aus den falschen Gründen nutzen. Und die Aufregung über die Möglichkeiten von GenAI ist allgegenwärtig; sie hat etwas „Sprudeliges“ an sich und könnte sogar noch schriller sein als der Krypto-Rummel.


Der große Unterschied zwischen GenAI und Krypto ist jedoch die Tatsache, dass es für Erstere viele, viele reale Anwendungsfälle gibt, über Organisationen und Branchen hinweg. Bei Krypto gab es einen starken Anwendungsfall: Finanztransaktionen zwischen nicht vertrauenswürdigen Parteien (auch bekannt als Geldwäsche). Das ist etwas, woran der Mainstream nicht ganz so interessiert ist.


Der aktuelle Stand der GenAI-Anwendungen erinnert mich an den E-Commerce in den späten 1990er Jahren , als Unternehmen versuchten, herauszufinden, wie man die Verwendung von Kreditkarten über das Internet sicher gestalten konnte. Es dauerte eine Weile, bis die Unternehmen herausgefunden hatten, wie man dies sicher machen konnte, aber als sie es geschafft hatten, hatte plötzlich jeder eine E-Commerce-Site.


Die Parallele, die ich derzeit bei GenAI sehe, besteht darin, sicherzustellen, dass Sprachmodelle keine ungenauen Antworten zurückgeben, indem sie halluzinieren . Die gute Nachricht? Das wurde herausgefunden (dank Retrieval-Augmented Generation oder RAG; mehr dazu weiter unten).

Wo stehen wir jetzt und wohin gehen wir?

Vieles, was wir letztes Jahr gesehen haben, waren Proof-of-Concept-GenAI-Projekte: Apps, die der Unternehmensführung zeigen, was möglich ist. Aber nur sehr wenige Unternehmen sind darüber hinausgegangen und haben Anwendungen entwickelt, die sich bereits in der Produktion befinden. Mit „Produktion“ meine ich, dass eine Organisation über eine KI-Anwendung verfügt, die von Kunden oder Mitarbeitern in einer nicht-prototypischen Weise verwendet wird.


Mit anderen Worten: Es ist als Routinebestandteil von Aktivitäten in einigen Geschäftsbereichen verfügbar. Dies kann das Front Office sein oder ein Anruf beim Kundendienst, aber es ist irgendwo in der Nähe des Mainstream-Teils des Geschäfts.


Walmart ist hierfür ein gutes frühes Beispiel. Der Einzelhändler gab im Januar bekannt , dass er seiner Shopping-App eine GenAI-gestützte Suche hinzugefügt hat. Apple testet Berichten zufolge ein GenAI-Tool, das seinen Mitarbeitern helfen soll, schnelleren technischen Support zu leisten. Bis wir mehr Beispiele dieser Art sehen, wird GenAI noch etwas länger in der frühen Phase dessen verharren, was Gartner den „ Hype-Zyklus “ nennt.


Volkswagen hat gerade die Eröffnung eines unternehmenseigenen Labors zur Entwicklung von GenAI-Apps für Navigations- und Infotainmentanwendungen für seine Autos angekündigt.



Der Hype-Zyklus


Allerdings sind wir gar nicht so weit davon entfernt, das „Plateau der Produktivität“ zu erreichen, wie manche vielleicht denken. Wie ich bereits erwähnt habe, ist das Vertrauen in die Ergebnisse von Modellen ein Hindernis für Organisationen, die sich immer noch damit auseinandersetzen, wie sie relevante und genaue Antworten auf große Sprachmodelle (LLM) erzeugen können, indem sie Halluzinationen reduzieren.


Um dieses Problem zu lösen, wird derzeit RAG eingesetzt, das Modelle in Echtzeit mit zusätzlichen Daten oder Kontext aus anderen Quellen versorgt – meist einer Datenbank, die Vektoren speichern kann. Dieser technologische Fortschritt ist ein Schlüssel zur Entwicklung domänenspezifischer, maßgeschneiderter GenAI-Anwendungen, die auf dem wertvollsten Gut von Organisationen basieren: ihren eigenen Daten.


Während sich RAG als De-facto-Methode etabliert hat, um Unternehmenskontext in GenAI-Anwendungen zu integrieren, wird oft auch Feintuning erwähnt – wenn ein vorab trainiertes Modell anhand einer Teilmenge von Daten weiter trainiert wird. Es gibt Situationen, in denen diese Methode nützlich sein kann , aber RAG ist die richtige Wahl, wenn Bedenken hinsichtlich Datenschutz, Sicherheit oder Geschwindigkeit bestehen.


Unabhängig davon, wie der Anwendung Kontext hinzugefügt wird, lautet die große Frage, die mir von den Investoren, mit denen ich gesprochen habe, oft gestellt wird: „Wann werden Unternehmen anfangen, mit GenAI-Apps Geld zu verdienen?“


Meine Antwort: Die meisten der von Ihnen verfolgten Unternehmen sind konsumorientierte Unternehmen. Viele unterstützen jetzt die Experimente, Proof of Concept (POCs) und Nischen-Apps, die ihre Kunden entwickelt haben; diese tragen jedoch nicht viel zum Konsum bei.


Aber das ändert sich langsam, wenn wichtige KI-Anwendungen vom POC in die echte Produktion übergehen. Ich gehe davon aus, dass dies bis Ende 2024 in erheblichem Maße geschehen wird. Es wird in der zweiten Hälfte des Jahres 2024 Früchte tragen und an zwei Stellen beginnen.


Erstens setzt es sich im Einzelhandel durch (siehe das zuvor erwähnte Walmart-Beispiel). Sie werden auch eine weitverbreitete Nutzung in dem Bereich sehen, den ich den „KI-Intranet“-Bereich nenne: Chat mit PDF, Wissensdatenbanken und interne Callcenter.


Angesichts des Konsums, den diese Art von Apps ankurbeln, beginnen Unternehmen wie Microsoft , Google und sogar Oracle , Ergebnisse aus der KI zu melden . Außerhalb des Bereichs der Hyperscaler werden wahrscheinlich auch andere KI-Infrastrukturunternehmen in ihren im Januar, Februar und März nächsten Jahres veröffentlichten Gewinnberichten von Leistungssteigerungen berichten.

Der Weg zur Produktion für GenAI-Anwendungen

Die Grundlagen für verbrauchsorientierte KI-Infrastrukturunternehmen sind bereits gelegt. Wir haben bereits starke kommerzielle Belege dafür gesehen, was für eine große Basis domänenspezifischer, maßgeschneiderter Anwendungen möglich ist. Von kreativen KI-Apps – beispielsweise Midjourney, Adobe Firefly und anderen Bildgeneratoren – bis hin zu Wissens-Apps wie GitHub Copilot ( über 1 Million Entwickler verwenden es ), Glean und anderen – diese Anwendungen erfreuen sich großer Beliebtheit und haben zu erheblichen Produktivitätssteigerungen geführt.


Die Entwicklung maßgeschneiderter Apps ist in Branchen und Anwendungsfällen am weitesten fortgeschritten, in denen die Wissensvermittlung bis zum Interaktionspunkt erleichtert werden muss. Das Wissen wird aus den eigenen Daten gewonnen, wobei handelsübliche Modelle (Open Source oder proprietär), RAG und der Cloud-Anbieter der eigenen Wahl zum Einsatz kommen.


Damit Unternehmen maßgeschneiderte GenAI-Apps erstellen können, die den hohen Anforderungen des Einsatzes im Produktionsmaßstab gewachsen sind, sind drei Elemente erforderlich: intelligenter Kontext, Relevanz und Skalierbarkeit.

Intelligenter Kontext

Werfen wir einen kurzen Blick darauf, wie proprietäre Daten verwendet werden, um nützliche, relevante und genaue Antworten in GenAI-Anwendungen zu generieren.

Anwendungen nehmen Benutzereingaben in Form von Daten aller Art entgegen und speisen diese in eine Einbettungs-Engine ein, die im Wesentlichen aus den Daten Bedeutung ableitet, mithilfe von RAG Informationen aus einer Vektordatenbank abruft und den „intelligenten Kontext“ erstellt, den das LLM verwenden kann, um eine kontextualisierte, halluzinationsfreie Antwort zu generieren, die dem Benutzer in Echtzeit präsentiert wird.

Relevanz

Bei Unternehmen, die operative Datenbanken entwickeln, hört man von diesem Thema nicht viel. Aber im Bereich der KI und Vektordatenbanken ist Relevanz eine Mischung aus Erinnerung und Präzision, die entscheidend ist, um nützliche, genaue und nicht-halluzinatorische Antworten zu liefern.


Im Gegensatz zu herkömmlichen Datenbankoperationen ermöglichen Vektordatenbanken eine semantische oder Ähnlichkeitssuche, die nicht deterministischer Natur ist. Aus diesem Grund können die für dieselbe Abfrage zurückgegebenen Ergebnisse je nach Kontext und Ausführung des Suchvorgangs unterschiedlich sein. Hier spielen Genauigkeit und Relevanz eine Schlüsselrolle bei der Funktionsweise der Vektordatenbank in realen Anwendungen. Natürliche Interaktion erfordert, dass die bei einer Ähnlichkeitssuche zurückgegebenen Ergebnisse genau UND für die angeforderte Abfrage relevant sind.

Skalierbarkeit

GenAI-Apps, die über POCs hinausgehen und in die Produktion gehen, erfordern einen hohen Durchsatz. Der Durchsatz ist im Wesentlichen die Datenmenge, die in einer bestimmten Zeit gespeichert, abgerufen oder abgerufen werden kann. Ein hoher Durchsatz ist entscheidend für die Bereitstellung interaktiver, datenintensiver Echtzeitfunktionen in großem Maßstab. Schreibvorgänge umfassen oft Milliarden von Vektoren aus mehreren Quellen, und GenAI-Anwendungen können enorme Mengen von Anfragen pro Sekunde generieren.

Einpacken

Wie frühere Wellen technologischer Innovationen folgt GenAI einem etablierten Muster und alle Anzeichen deuten darauf hin, dass es sich noch schneller entwickelt als frühere technologische Revolutionen. Wenn man sich von all dem positiven und negativen Hype darüber absieht, ist klar, dass Unternehmen, die daran arbeiten, ihre POC-GenAI-Apps in die Produktion zu bringen, vielversprechende Fortschritte machen.


Und Unternehmen wie mein Arbeitgeber DataStax, die die skalierbaren, leicht aufbaubaren Grundlagen für diese Apps bereitstellen, werden die Vorteile des Konsums bei ihren Kunden schneller erkennen, als manche vielleicht denken.


Von Ed Anuff, DataStax


Erfahren Sie mehr darüber, wie DataStax es Kunden ermöglicht, ihre GenAI-Apps in die Produktion zu bringen .