Suchen Sie nach einer Möglichkeit, ein personalisiertes Anschreiben zu verfassen, das Ihnen dabei hilft, Ihren Traumjob zu finden? Wenn ja, könnten Sie daran interessiert sein, ein großes Sprachmodell (LLM) mit der PaLM-API zu verwenden, um einen Anschreiben-Builder zu erstellen.
Große Sprachmodelle (LLMs) sind künstliche Intelligenz (KI), die Texte generieren, Sprachen übersetzen, verschiedene kreative Textformate schreiben und Ihre Fragen informell beantworten kann. Sie sind so leistungsstark, dass sie sogar zur Erstellung neuer Tools und Anwendungen genutzt werden können.
Ein solches Tool ist die PaLM API, die Entwicklern den Zugriff und die Nutzung von LLMs ermöglicht.
In diesem Leitfaden erfahren Sie, wie Sie mit der PaLM-API (Pre-trained and Large-scale Language Model API) einen Anschreiben-Builder erstellen. Dieses Tool kann Ihnen dabei helfen, personalisierte Anschreiben für Bewerbungen zu erstellen.
Große Sprachmodelle (LLMs) sind fortschrittliche Systeme der künstlichen Intelligenz (KI), die auf riesigen Textdatensätzen trainiert werden. Dadurch lernen sie, wie Wörter und Phrasen zusammenpassen, und können so verständliche und korrekte Sätze bilden.
LLMs sind eine Art generative KI , das heißt, sie können neue Inhalte erstellen.
LLMs werden typischerweise mithilfe einer Art neuronalem Netzwerk aufgebaut, das als Transformator bezeichnet wird. Transformatoren können weitreichende Abhängigkeiten zwischen Wörtern lernen, die für das Verständnis und die Erzeugung natürlicher Sprache unerlässlich sind. Transformatormodelle bestehen aus mehreren Schichten , von denen jede eine andere Aufgabe erfüllt.
Die Selbstaufmerksamkeitsschicht ermöglicht es dem Modell beispielsweise, die Beziehungen zwischen verschiedenen Wörtern in einem Satz zu lernen.
Ein Beispiel für ein LLM ist GPT-3, erstellt von OpenAI. GPT-3 hat aus viel Text und Code gelernt. Es kann schreiben, Sprachen übersetzen, kreative Inhalte erstellen und Fragen freundlich beantworten.
LLMs sind superleistungsfähig und könnten die Art und Weise verändern, wie wir Computer nutzen. Wenn es ihnen besser geht, könnten sie uns in vielerlei Hinsicht helfen:
Ein LLM funktioniert, indem er zunächst die statistischen Beziehungen zwischen Wörtern und Phrasen in einer Sprache lernt. Dies geschieht durch das Training des Modells anhand eines riesigen Datensatzes aus Text und Code. Sobald das Modell diese Beziehungen gelernt hat, kann es neuen Text generieren, der dem Text ähnelt, auf den es trainiert wurde.
Das LLM wird anhand eines riesigen Text- und Codedatensatzes trainiert. Dieser Datensatz umfasst alles von Büchern und Artikeln bis hin zu Code-Repositories und Social-Media-Beiträgen.
Der LLM lernt die statistischen Beziehungen zwischen Wörtern und Phrasen im Datensatz. Das heißt, es lernt, welche Wörter eher zusammen auftauchen und wie sich die Bedeutung eines Satzes je nach Reihenfolge der Wörter ändern kann.
Sobald der LLM diese Zusammenhänge gelernt hat, kann er neuen Text generieren. Dazu beginnt es mit einem Starttext, etwa ein paar Wörtern oder einem Satz. Anschließend nutzt es die gelernten statistischen Beziehungen, um das nächste Wort im Satz vorherzusagen. Dies wird so lange fortgesetzt, bis ein neuer Satz generiert wurde.
Hier ist ein Beispiel dafür, wie ein LLM Text generieren könnte:
`Seed text: "The cat sat on the mat." LLM prediction: "The cat sat on the mat and stared at the bird."`
In diesem Beispiel hat das LLM gelernt, dass auf die Wörter „cat“ und „sat“ oft das Wort „on“ folgt. Es hat sich auch herausgestellt, dass auf „mat“ oft ein „und“ folgt. Basierend auf diesen Beziehungen sagt das LLM voraus, dass das nächste Wort im Satz „und“ ist.
Anschließend wird das nächste Wort „gestarrt“ vorhergesagt.
Hier ist ein Diagramm, das die Funktionsweise eines LLM veranschaulicht:
Das LLM besteht aus einem neuronalen Netzwerk. Das neuronale Netzwerk ist ein komplexes mathematisches Modell, das lernen kann, Muster in Daten zu erkennen. Bei einem LLM lernt das neuronale Netzwerk, die statistischen Zusammenhänge zwischen Wörtern und Phrasen zu erkennen.
Das neuronale Netzwerk wird anhand eines riesigen Datensatzes aus Text und Code trainiert. Der Datensatz wird Wort für Wort in das neuronale Netzwerk eingespeist. Das neuronale Netzwerk versucht dann, das nächste Wort in der Sequenz vorherzusagen.
Die Genauigkeit der Vorhersagen wird gemessen und das neuronale Netzwerk wird aktualisiert, um seine Genauigkeit zu verbessern.
Dieser Vorgang wird viele Male wiederholt, bis das neuronale Netzwerk gelernt hat, das nächste Wort in der Sequenz genau vorherzusagen.
Kreatives Schreiben: LLMs können kreative Texte wie Gedichte, Kurzgeschichten oder Skripte erstellen. Mit dem LLM namens GPT-3 lassen sich beispielsweise originelle und kreative Gedichte erstellen.
Die PaLM API (Pathways Language Model API) ist eine cloudbasierte API, die Entwicklern den Zugriff auf das große Sprachmodell PaLM 2 (LLM) von Google ermöglicht. PaLM 2 ist ein leistungsstarkes LLM, das für eine Vielzahl von Aufgaben verwendet werden kann, darunter:
Textgenerierung: Die PaLM API kann auf viele Arten Texte generieren. Sie können Text- oder Chat-Dienste nutzen. Der Textdienst kann Text für viele Zwecke generieren, z. B. zum Zusammenfassen von Text, zum Verfassen kreativer Inhalte und zur hilfreichen Beantwortung Ihrer Fragen. Der Chat-Dienst kann Text für Chatbots und andere Konversations-Apps generieren.
Programmiersprachen: Die PaLM API unterstützt Node.js, Python, Android Kotlin, Swift und Java. In diesem Tutorial verwenden Sie das Node.js-Textbeispiel.
Dokumentation: Die PaLM-API ist Open Source und kann von jedem genutzt und verbessert werden. Es ist außerdem gut dokumentiert, sodass Entwickler leicht erlernen können, wie man es verwendet.
Um mit der PaLM API zu beginnen, benötigen Sie die folgenden Schritte:
1: Erstellen Sie ein Google Cloud Platform-Konto.
Sie können dies tun, indem Sie die Website der Google Cloud Platform besuchen: https://cloud.google.com/ .
2: Holen Sie sich einen API-Schlüssel. Um die API nutzen zu können, benötigen Sie einen API-Schlüssel. Sobald Sie die Warteliste abgearbeitet haben, können Sie in MakerSuite mit einem Klick einen Schlüssel erstellen. über diesen Link https://makersuite.google.com/waitlist
3: Installieren Sie die PaLM API-Clientbibliothek. Die PaLM API-Clientbibliothek ist ein Codesatz, den Sie für die Interaktion mit der PaLM API verwenden können. Sie können es installieren, indem Sie den folgenden Befehl ausführen:
npm init -y npm install google-auth-library
Als nächstes installieren Sie die Generative Language-Clientbibliothek:
npm install @google-ai/generativelanguage
4: Erforderliche Module importieren
const { TextServiceClient } = require("@google-ai/generativelanguage").v1beta2; const { GoogleAuth } = require("google-auth-library");
In diesem Schritt importiert der Code erforderliche Module mithilfe der Funktion require
. Es importiert die TextServiceClient
Klasse aus der @google-ai/generativelanguage
Bibliothek und die GoogleAuth
Klasse aus der google-auth-library
.
5: Konstanten einrichten
const MODEL_NAME = "models/text-bison-001"; const API_KEY = process.env.API_KEY;
Hier richtet der Code zwei Konstanten ein: MODEL_NAME
, die den Namen des Textgenerierungsmodells angibt, das Sie verwenden möchten, und API_KEY
, das den API-Schlüssel aus den Umgebungsvariablen abruft.
6: Erstellen einer TextServiceClient-Instanz
const client = new TextServiceClient({ authClient: new GoogleAuth().fromAPIKey(API_KEY), });
Dieser Schritt erstellt eine Instanz der TextServiceClient
Klasse. Es initialisiert den Client mit Authentifizierung mithilfe der GoogleAuth-Klasse, die mit dem aus den Umgebungsvariablen erhaltenen API-Schlüssel instanziiert wird.
7: Definieren der Eingabeaufforderung
const prompt = "Write a simple and short cover letter for a technical writer";
Hier definiert der Code eine Variable namens prompt
, die den Anfangstext enthält, der als Eingabe für die Textgenerierung verwendet wird.
8: Text generieren
client .generateText({ model: MODEL_NAME, prompt: { text: prompt, }, }) .then((result) => { console.log(JSON.stringify(result)); });
In diesem Schritt verwendet der Code die client
, um Text zu generieren. Es ruft die Methode generateText
auf der Clientinstanz auf. Es übergibt ein Objekt mit dem Modellnamen ( MODEL_NAME
) und dem Eingabeaufforderungstext ( prompt
) als Eigenschaften.
Die Methode generateText
gibt ein Promise zurück, das mit der Methode „ then
verarbeitet wird. Das generierte Ergebnis wird nach der Konvertierung in einen JSON-String in der Konsole innerhalb des Blocks protokolliert.
Führen Sie dann das Skript aus:
node index.js
Sie erhalten ein ähnliches Ergebnis:
[{"candidates":[{"safetyRatings":[{"category":"HARM_CATEGORY_DEROGATORY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_TOXICITY","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_VIOLENCE","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_SEXUAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_MEDICAL","probability":"NEGLIGIBLE"},{"category":"HARM_CATEGORY_DANGEROUS","probability":"NEGLIGIBLE"}],"output":"Dear [Hiring Manager name],\n\nI am writing to express my interest in the Technical Writer position at [Company name]. I have been working as a technical writer for the past five years, and I have a proven track record of success in developing and delivering clear, concise, and engaging technical documentation.\n\nIn my previous role at [Previous company name], I was responsible for writing a wide range of technical documentation, including user guides, API documentation, and training materials. I have a strong understanding of the technical writing process, and I am proficient in a variety of writing and editing tools.\n\nI am also an excellent communicator, and I am able to effectively translate complex technical information into language that is easy for both technical and non-technical audiences to understand. I am confident that I have the skills and experience that you are looking for in a Technical Writer.\n\nI am eager to learn more about the Technical Writer position at [Company name], and I am confident that I would be a valuable asset to your team. I am available for an interview at your earliest convenience.\n\nThank you for your time and consideration.\n\nSincerely,\n[Your name]","citationMetadata":{"citationSources":[{"startIndex":1068,"_startIndex":"startIndex","endIndex":1196,"_endIndex":"endIndex","uri":"https://www.upwork.com/resources/cover-letter-tips","_uri":"uri","license":"","_license":"license"}]},"_citationMetadata":"citationMetadata"}],"filters":[],"safetyFeedback":[]},null,null]
Abschließend hat Ihnen dieses Tutorial die Grundlagen der Verwendung großer Sprachmodelle (LLMs) mit der PaLM-API näher gebracht. Sie haben gelernt, wie man:
Dies ist nur der Anfang dessen, was Sie mit LLMs und APIs tun können. Wenn Sie diese Technologien weiter erforschen, werden Sie noch mehr Möglichkeiten entdecken, sie zur Lösung von Problemen, zur Schaffung neuer Erfahrungen und zur Gestaltung der Zukunft einzusetzen.