156 測定値 新しい歴史

AIはプログラマーのように考えるときにコミンセンスの推論をよりよく理解する

長すぎる; 読むには

推論のタスクをコードに変換することで、プログラミングデータで訓練されたAIモデルは、常識グラフ生成における伝統的なLLMを上回ることができます。
featured image - AIはプログラマーのように考えるときにコミンセンスの推論をよりよく理解する
The FewShot Prompting Publication  HackerNoon profile picture
0-item

著者:

(1) Aman Madaan, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(2) Shuyan Zhou, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(3) Uri Alon, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(4) Yiming Yang, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(5) Graham Neubig, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

Authors:

(1) Aman Madaan, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(2) Shuyan Zhou, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(3) Uri Alon, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(4) Yiming Yang, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

(5) Graham Neubig, Language Technologies Institute, Carnegie Mellon University, USA ([email protected])

左のテーブル

抽象と1 Introduction

2 COCOGEN: Representing Commonsense structures with code and 2.1 Converting (T,G) into Python code コードの変換

2.2 G を生成するための数ショットプロンプトリング

3 評価と3.1 実験設定

3.2 スクリプト・ジェネレーション:PROSCRIPT

3.3 Entity state tracking: PROPARA

3.4 アルゴリズムグラフ生成: EXPLAGRAPHS

4 分析

5 関連作品

6 結論、承認、制限、参照

A Few-shot モデル サイズ 推定

B ダイナミック・スピード・クリエイション

C 人間の評価

D 統計データ

サンプル出力

F スピード

G 構造化タスクのための Python クラスの設計

h モデルサイズの影響

スピードの変動

抽象

自然言語の入力として、目標はイベントや論理グラフなどのグラフを生成することである。このタスクに大規模な言語モデル(LMs)を用いるために、既存のアプローチは、構造化された共通認識の出力グラフをノードとエッジの平らなリストとして「シリアリズム化」します。実行可能であるにもかかわらず、これらのシリアリズム化されたグラフは、LMsが事前に訓練された自然言語体から大きく異なり、LMsが正しく生成するのを妨げます。この論文では、我々が構造化された共通認識の論理タスクを生成コードタスクとして枠組みする代わりに、コードの事前訓練されたLMsは、https://github.com/マダン/ココゲンで。

1 導入

テキスト生成のための大規模な事前訓練された言語モデルの能力の増加により、概要化、翻訳、および質問回答を含むさまざまなタスクで成功した(Wang et al., 2019; Raffel et al., 2019; Brown et al., 2020; Chowdhery et al., 2022)。


それにもかかわらず、自然言語(NL)のタスクのためのLLMを雇用することは単純であるが、主要な残留課題は、イベントグラフ(Tandon et al. 2019)、推論グラフ(Madaan et al. 2021a)、スクリプト(Sakaguchi et al. 2021)、および論点説明グラフ(Saha et al. 2021)などのイベントグラフ(Tandon et al. 2019)、推論グラフ(Madaan et al. 2021a)などのタスクを含む構造化された常識推論のためのLLMをどのように活用するかである。


具体的には、生成される構造(例えば、グラフまたはテーブル)は、テキストに変換される、または「連続化」される。


構造化された出力をテキストに変換することは有望な結果を示しているが(Rajagopal et al., 2021; Madaan and Yang, 2021), LLMsはこれらの「不自然な」出力を生成するために苦労している: LMsは主にフリー形式のテキストでプレトレーニングされ、これらの連続化された構造化された出力は、プレトレーニングデータの大半とは大きく異なります。


したがって、グラフ生成のためのLLMの使用は、通常、タスク特有のトレーニングデータの大量を必要とし、それらの生成された出力は構造的なエラーとセマンティックの不一致を示し、手動または二次的な下流モデルを使用してさらに修正する必要がある(Madaan et al., 2021b)。


これらの闘いにもかかわらず、コードの大言語モデルの最近の成功(Code-LLMs; Chen et al., 2021b; Xu et al., 2022)は、自然言語からのコード生成(Austin et al., 2021; Nijkamp et al., 2022)、コード完成(Fried et al., 2022)、およびコード翻訳(Wang et al., 2021)などのタスクのために、Code-LLMsは、プログラムなどの構造化されたデータで複雑な推論を実行することができることを示しています。


Figure 1: An illustration of COCOGEN for the task of script generation. An input graph (1a) is typically represented using the DOT format (1c) or as a list of edges (1d), which allows modeling the graph using standard language models. These popular choices are sufficient in principle; however, these formats are loosely structured, verbose, and not common in text corpora, precluding language models from effectively generating them, In contrast, COCOGEN converts structures into Python code (1b), allowing to model them using large-scale language models of code.


したがって、私たちの主な洞察は、コードの大きな言語モデルが良好な構造化された常識推理であるということです。さらに、私たちは、コードLLMsは、必要な出力グラフをコードプレトレーニングデータで観察されたものに似たフォーマットに変換するときに、NL-LLMsよりもさらに良い構造化された推理者であることを示しています。CoDE FORCoムンセンスGenエレクトロニクスは、図1で示されています。


私たちの貢献は以下の通りです。


  1. We highlight the insight that Code-LLMs are better structured common sense reasoners than NL-LLMs, when representing the desired graph prediction as code. 私たちは、Code-LLMsは、コードとして望ましいグラフ予測を表すとき、NL-LLMsよりも、より良い構造化された常識推論家であるという洞察を強調します。
  2. 私たちはCOCOGENを提案します:構造化された常識の生成のためにコードのLLMを活用する方法。
  3. 我々は3つの構造化された常識生成タスクを対象に幅広い評価を実施し、下流タスクの例の数をコントロールしながら、細かい調整または少数のショットでテストされたNL-LLMsを大幅に上回ることを示しています。
  4. 私たちは、データ形式化の役割、モデルサイズ、および数少ないショットの例の数を示す徹底的な除去研究を実施します。

この論文は CC BY 4.0 DEED ライセンスの下で archiv で利用できます。

この論文は CC BY 4.0 DEED ライセンスの下で archiv で利用できます。


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks