人工知能学会全国大会論文集
Online ISSN : 2758-7347
第37回 (2023)
セッションID: 1T3-GS-6-05
会議情報

汎用言語モデル学習のためのプロンプト最適化
*磯沼 大森 純一郎坂田 一郎
著者情報
会議録・要旨集 フリー

詳細
抄録

近年、ChatGPTをはじめとした幅広いタスクに汎化できる汎用言語モデルを学習する方法として、タスクごとにプロンプトを付与しマルチタスク学習を行うinstruction tuningが注目されている。 これまで様々なプロンプトがinstruction tuningのために作成されているが、どのようなプロンプトがモデルの汎化性能向上に最適なのか明らかになっていない。 本研究では学習用プロンプトを二段階最適化により最適化するinstruction optimizationを提案し、instruction tuningに最適なプロンプトを明らかにする。 評価実験において、タスクの指示をプロンプトに用いる実験設定(zero-shot)では、二段階最適化によりプロンプトを多様化することが汎化性能向上に有効である一方、タスクの例示をプロンプトに用いる実験設定(few-shot)では、多様な種類の例示ではなく同一の例示を用いる方が有効であることが明らかになった。

著者関連情報
© 2023 人工知能学会
前の記事 次の記事
feedback
Top