東京大学大学院工学系研究科
2021 年 2021 巻 FIN-027 号 p. 05-
(EndNote、Reference Manager、ProCite、RefWorksとの互換性あり)
(BibDesk、LaTeXとの互換性あり)
BERT を始めとする事前学習言語モデルは,様々な自然言語処理のタスクにおいて成果を上げている.これらのモデルの多くはWikipedia やニュース記事などの一般的なコーパスを用いているため,専門的な単語が使用される金融分野においては十分な効果が得られない.本研究では決算短信や有価証券報告書から事前学習言語モデルを構築する.また金融ドメインのタスクによって汎用モデルとの性能を比較する.
すでにアカウントをお持ちの場合 サインインはこちら