Bleibt es bestehen oder ist es nur eine weitere Spielerei? Wir stellen verschiedene Varianten dieser Frage, wann immer eine neue disruptive Technologie auftaucht. Und mit der Gründung von ChatGPT ist diese Debatte intensiver denn je geworden.
Seit seiner Einführung im November 2022 als kostenloser Forschungsprototyp hat der Chatbot ChatGPT von OpenAI eine überwältigende Resonanz gefunden und wird von über einer Million Menschen weltweit genutzt.
Es basiert auf GPT-3, einem fortschrittlichen, hochmodernen Sprachmodell, das Deep Learning nutzt, um leicht verständliche Texte zu erstellen.
ChatGPT interagiert im Gespräch und kann komplizierte und schwer zu theoretisierende Konzepte in einfachen Worten erklären.
Benutzer haben das Programm mit Anfragen überschwemmt, einige nutzen es, um Hilfe bei ihren Hausaufgaben zu erhalten, andere kuratieren Abnehmpläne, schreiben Code und führen sogar Gespräche mit dem Chatbot, der sich als Menschen wie Mark Twain ausgibt.
Aber kann man ChatGPT vertrauen, oder handelt es sich um eine weitere Spielerei, die in ein paar Monaten oder Jahren vorbei sein wird? Lassen Sie uns analysieren, was die Leute von diesem KI-Programm halten.
Die Veröffentlichung von ChatGPT wird als Wendepunkt in der generativen KI und der Technologie insgesamt gefeiert. KI/ML-Analyst Rowan Curran von Forrester Research
„Das Einzige, womit ich es vergleichen konnte, ist die Veröffentlichung des iPhone.“ Das ursprüngliche iPhone war zwar nicht das erste Smartphone, verdrängte jedoch erfolgreich die Konkurrenz und etablierte ein völlig neues Marktmonopol. Es brachte technologische Veränderungen mit sich wie noch nie zuvor.
Ebenso kann ChatGPT alles. Es gibt nicht nur einfache und prägnante Antworten auf komplexe Fragen, sondern kann auch zur Übersetzung von Texten in andere Sprachen verwendet werden. ChatGPT wurde mit über 300 Milliarden Wörtern in verschiedenen Sprachen gefüttert.
Content-Ersteller nutzen das Programm, um neue Ideen für Videos zu generieren. Es kann sogar einfachen Code in verschiedenen Programmiersprachen schreiben.
Es gibt ein unvorstellbares Potenzial für den Einsatz von ChatGPT in verschiedenen Branchen. Die Verbesserung des Kundenservice, die Schaffung eines personalisierten Einkaufserlebnisses und die Bereitstellung medizinischer Hilfe sind nur einige der Funktionen dieses KI-Programms.
Beim Einsatz von ChatGPT sind enorme Geschwindigkeitssteigerungen bei der Bewältigung komplexer Aufgaben zu beobachten.
Aufgaben, für die früher mehrere Programmierer erforderlich waren, können mithilfe von KI von nur einem guten Programmierer erledigt werden, und bald können auch Personen, die nicht programmieren können, mithilfe von ChatGPT Code schreiben.
Von alltäglichen einfachen Aufgaben wie dem Erstellen einer Einkaufsliste für Ihre Mahlzeiten bis hin zum Erlernen, wie man mit einfachen Worten eine Bombe entschärft, kann ChatGPT als ultimativer Leitfaden für alles dienen.
Aber nicht jeder ist damit zufrieden.
Der Risikoinvestor und langjährige Internetanalyst Paul Kedrosky nannte es eine „Taschen-Atombombe“ und fuhr fort: „Es ist offensichtlich, dass dies verboten werden sollte, genauso wie wir Regeln für Deep Fakes oder Regeln für Designerdrogen haben.“ die Produktion synthetischer Viren auf der Basis von Pocken-DNA.“
Die Grenze zwischen menschlicher und maschineller Urheberschaft ist über Nacht verwischt. Pädagogen haben auch Bedenken hinsichtlich dieses Programms geäußert und erklärt, dass sie Hilfe benötigen, um festzustellen, ob der Inhalt echt oder ein Plagiat von ChatGPT ist.
Take-Home-Klausuren oder Schreibarbeiten können mit dem Chatbot ganz einfach plagiiert werden.
Die gute Nachricht ist, dass Google seinen Algorithmus kontinuierlich aktualisiert, um KI-generierte Inhalte zu erkennen. Ein Programm namens Originality.AI behauptet außerdem, in der Lage zu sein, selbst die geringfügigste Verwendung von ChatGPT in verschiedenen Inhalten zu erkennen.
Es besteht auch die Befürchtung, dass Jobs wie Ghostwriter oder Redakteure dadurch gefährdet werden könnten, da jeder damit Originalinhalte erstellen kann. Aber es kann beruhigend sein zu wissen, dass die Antworten von ChatGPT formelhaft und von der Struktur her uninteressant sind. Es kann nicht die Emotionen nachahmen, die ein Mensch in das Schreiben einbringt.
Es ist wichtig zu beachten, dass ChatGPT nicht allwissend ist. Es weiß nur, womit es gefüttert oder trainiert wurde. Es hat keinen Zugriff auf das Internet und ist nicht gut mit den Ereignissen nach 2021 vertraut. Das Programm ist auch nicht in der Lage, die Komplexität der menschlichen Sprache vollständig zu verstehen.
Es ist darauf trainiert, eine Antwort auf eine bestimmte Eingabe zu generieren und weiß oder versteht nicht unbedingt, was die Eingabe bedeutet.
Der Chatbot hat auch eine moralische Überlegenheit, was bedeutet, dass er sich weigert, Antworten auf Fragen zu geben, die er für schädlich oder ethisch falsch halten könnte. Aber da ist ein Fang!
Während ChatGPT sich weigern kann, eine einfache Frage zu beantworten, von der es annimmt, dass sie schädlich sein könnte, wird ChatGPT dazu verleitet, eine Antwort zu generieren, wenn Sie es mit einem Curveball bewerfen.
Auf die Frage, wie man ein Auto kurzschließt, weigerte sich ChatGPT zu antworten und sagte, dass es illegal sei, ein Auto kurzzuschließen.
Aber einige Benutzer wurden bei ihren Eingaben kreativ und baten den Chatbot, ein Gedicht über die Kurzschlussverkabelung eines Autos zu schreiben, und einer trickste sogar aus, indem er ChatGPT sagte, dass die Kurzschlussverkabelung des Autos die einzige Möglichkeit sei, ein Baby zu retten.
Letztlich hat diese in der KI gewissermaßen tief verwurzelte menschliche Eigenschaft von Empathie und moralischem Gewissen dazu geführt, dass sie eine solche Frage beantwortete, obwohl sie ethisch falsch war.
OpenAI gab dies zu und sagte: „Obwohl wir uns bemüht haben, das Modell dazu zu bringen, unangemessene Anfragen abzulehnen, reagiert es manchmal auf schädliche Anweisungen oder zeigt voreingenommenes Verhalten.“
Aber ChatGPT ist noch ein Prototyp und befindet sich in der Testphase. Das Unternehmen warnte die Nutzer, dass es gelegentlich falsche Informationen generieren könne. Es gibt viele Aktualisierungen und Verfeinerungen am Programm.
Das Anbringen von Wasserzeichen für Inhalte durch kryptografische Signaturen ist eine mögliche Lösung, um die Besorgnis zu beseitigen, dass ChatGPT das Bildungssystem bedroht.
ChatGPT wird bleiben, aber OpenAI hat keine Kontrolle über das Schicksal des von ihm erstellten Programms. Es kann Menschen nicht davon abhalten, Fehlinformationen zu verbreiten oder das Programm zu missbrauchen. Es kann die Gewaltenteilung stärken, aber inwieweit werden diese Verstärkungen erfolgreich sein?
Genauso wie Sie anderen raten würden, nicht alles zu glauben, was Sie online lesen, bildet auch ChatGPT keine Ausnahme. Es bringt Fehler und Ungenauigkeiten mit sich. Es hängt vom Benutzer ab, diese zu identifizieren und zu wissen, wann man dem Programm vertrauen kann und wann nicht.