金融ドメインにおける事前学習BERTモデルの性能検証

Author

鈴木 雅弘, 坂地 泰紀, 平野 正徳, and 和泉 潔
Conference

信学技報
Abstract

近年,BERTをはじめとした大規模コーパスによって事前学習された汎用言語モデルが盛んに用いられている.日本語においてもWikipediaによる事前学習モデルがいくつか公開されている.一方で金融分野においては専門的な言い回しが用いられるため,汎用モデルでは十分な効果が得られない可能性がある.本研究では,金融ドメインのコーパスを用いた事前学習モデルを構築し,金融ドメインのタスクにおける評価を行う.
Paper

PDF
Bibtex
@inproceedings{Suzuki-2021-nlc,
  jtitle = {{金融ドメインにおける事前学習BERTモデルの性能検証}},
  title = {{Performance Validation of Pre-Trained BERT in the Financial Domain}},
  jauthor = {鈴木, 雅弘 and 坂地, 泰紀 and 平野, 正徳 and 和泉, 潔},
  author = {Suzuki, Masahiro and Sakaji, Hiroki and Masanori, Hirano and Izumi, Kiyoshi},
  jbooktitle = {信学技報},
  booktitle = {IEICE Tech. Rep.},
  volume = {121},
  number = {178},
  year = {2021},
  pages = {30-36},
}