156 lesings Nuwe geskiedenis

AI verstaan Commonsense rede beter wanneer dit dink soos 'n programmeerder

Te lank; Om te lees

Die omskeping van redewerktaak in kode laat AI-modelle wat op programmeringsdata opgelei is, tradisionele LLM's in gemeenskaplike grafiese generasie oorskry. COCOGEN bewys dat kode-kundige modelle beter gestruktureerde redewerk verstaan.
featured image - AI verstaan Commonsense rede beter wanneer dit dink soos 'n programmeerder
The FewShot Prompting Publication  HackerNoon profile picture
0-item
die

Die skrywers:

die

(1) Aman Madaan, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

die

(2) Shuyan Zhou, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

die

(3) Uri Alon, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

die

(4) Yiming Yang, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

die

(5) Graham Neubig, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]).

die

Authors:

(1) Aman Madaan, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

(2) Shuyan Zhou, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

(3) Uri Alon, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

(4) Yiming Yang, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]);

(5) Graham Neubig, Language Technologies Institute, Carnegie Mellon Universiteit, VSA ([email protected]).

Tabel van links

Abstract en 1 Inleiding

2 COCOGEN: Verteenwoordig Commonsense strukture met kode en 2.1 Omskep (T,G) in Python kode

2.2 Vele-skot prompting vir die genereer van G

3 Beoordeling en 3.1 Eksperimentele instelling

3.2 Script generasie: PROSCRIPT

3.3 Entity state tracking: PROPARA

3.4 Argument graf generasie: verduidelikings

4 Analiseer

5 Gerelateerde werk

6 Conclusie, erkennings, beperkings en verwysings

A Few-shot modelle grootte ramings

B Dynamiese spoed skep

C Menslike evaluering

D Statistiese data

Sample uitkomste

F spoed

G Ontwerp Python-klas vir 'n gestruktureerde taak

H Impact van die model grootte

Variasies in die spoed

abstrakte

Ons spreek die algemene taak van gestruktureerde algemene rede: Gegewe 'n natuurlike taal invoer, is die doel om 'n graaf soos 'n gebeurtenis of 'n rede-graaf te genereer. Om groot taalmodelle (LM's) vir hierdie taak te gebruik, sal bestaande benaderings die uitvoergraaf as 'n plat lys van nodes en rande "serialiseer". Alhoewel dit haalbaar is, verskil hierdie geserialiseerde grafieke sterk van die natuurlike taalkorpora waarop LM's vooroplei is, wat LM's belemmer om hulle korrek te genereer. In hierdie artikel toon ons dat wanneer ons in plaas daarvan gestruktureerde gemeenskaplike rede-takke as kode-generasie-takke raam, vooropleide LM's van kode beter gestruktureHTTPS://github.com/madaan/CoCoGen in die Verenigde StateDie

1 Inleiding

Die groeiende vermoëns van groot vooraf opgeleide taalmodelle (LLM's) vir die genereer van teks het hulle suksesvol toegepas in 'n verskeidenheid take, insluitend samestelling, vertaling en vraag-answering (Wang et al., 2019; Raffel et al., 2019; Brown et al., 2020; Chowdhery et al., 2022).


Tog, terwyl die gebruik van LLM's vir natuurlike taal (NL) take is eenvoudig, is 'n groot oorblywende uitdaging is hoe om LLM's te benut vir gestruktureerde gemeenskaplike redevoering, insluitend take soos die genereer van gebeurtenis grafieke (Tandon et al., 2019), redevoering grafieke (Madaan et al., 2021a), skripte (Sakaguchi et al., 2021), en argument verduideliking grafieke (Saha et al., 2021). In teenstelling met tradisionele gemeenskaplike redevoering take soos lees begrip of vrae antwoord, gestruktureerde gemeenskaplike bedoel om gestruktureerde output te genereer gegee 'n natuurlike taal invoer. Hierdie familie van take is afhanklik van die natuurlike taal kennis geleer deur die LLM, maar dit vereis ook komplekse


Om LLM's te benut, verander bestaande gestruktureerde gemeenskaplike generasie modelle die uitvoerformaat van 'n probleem. Spesifiek, die struktuur wat gegenereer moet word (bv, 'n grafiek of 'n tabel) word omskep, of "serialiseer", in teks. Sulke omskepings sluit in die "flattening" van die grafiek in 'n lys van knooppare (Figuur 1d), of in 'n spesifikasie taal soos DOT (Figuur 1c; Gansner et al., 2006).


Terwyl die omskeping van die gestruktureerde output in teks veelbelovende resultate getoon het (Rajagopal et al., 2021; Madaan en Yang, 2021), streef LLMs om hierdie "onnatuurlike" outputs te genereer: LMs word hoofsaaklik vooroplei op vrye vormtekst, en hierdie seriale gestruktureerde outputs verskil sterk van die meerderheid van die vooropleiding data.


As gevolg hiervan vereis die gebruik van LLM's vir grafiese generasie tipies 'n groot hoeveelheid taak-spesifieke opleiding data, en hul gegenereerde uitkomste toon strukturele foute en semantiese inkonsistensies, wat verder gefixeer moet word, óf handmatig of deur gebruik te maak van 'n sekondêre downstream model (Madaan et al., 2021b).


Ten spyte van hierdie stryd, die onlangse sukses van groot-taal modelle van kode (Code-LLMs; Chen et al., 2021b; Xu et al., 2022) vir take soos kode generasie uit natuurlike taal (Austin et al., 2021; Nijkamp et al., 2022), kode voltooiing (Fried et al., 2022), en kode vertaling (Wang et al., 2021), toon dat Code-LLMs in staat is om komplekse redewerk op gestruktureerde data soos programme uit te voer.


Figure 1: An illustration of COCOGEN for the task of script generation. An input graph (1a) is typically represented using the DOT format (1c) or as a list of edges (1d), which allows modeling the graph using standard language models. These popular choices are sufficient in principle; however, these formats are loosely structured, verbose, and not common in text corpora, precluding language models from effectively generating them, In contrast, COCOGEN converts structures into Python code (1b), allowing to model them using large-scale language models of code.


So, ons primêre insig is dat groot taal modelle van kode is goeie gestruktureerde gesamentlike redevoerder. Verder, ons wys dat Code-LLMs kan selfs beter gestruktureerde redevoerder as NL-LLMs, wanneer die gewenste output grafiek omskep in 'n formaat soortgelyk aan wat waargeneem word in die kode voor-opleiding data. Ons noem ons metode COCOGEN: modelle vanCovan dieCoMonsoonGenvervaardiging, en dit word in Figuur 1 getoon.


Ons bydraes is die volgende:


    die
  1. Ons beklemtoon die insig dat Code-LLM's beter gestruktureerde gemeenskaplike redevaarders as NL-LLM's is, wanneer die gewenste grafieksvoorspelling as kode verteenwoordig word.
  2. die
  3. Ons voorstel COCOGEN: 'n metode vir die benutting van LLMs van kode vir gestruktureerde gesamentlike generasie.
  4. die
  5. Ons voer 'n omvattende evaluering uit oor drie gestruktureerde gesinsgenererende take en wys dat COCOGEN aansienlik die NL-LLM's oorskry, of dit goed aangepas of min-skot getesteer is, terwyl die aantal downstream taakvoorbeelde beheer word.
  6. die
  7. Ons voer 'n gedetailleerde ablasie studie uit, wat die rol van data-formatering, modelgrootte en die aantal paar-shoot voorbeelde toon.
  8. die
die

Hierdie artikel is beskikbaar op archiv onder CC BY 4.0 DEED lisensie.

die

Hierdie artikel is beskikbaar op archiv onder CC BY 4.0 DEED lisensie.


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks