...

Masahiro Suzuki

日興アセットマネジメント株式会社
東京大学大学院工学系研究科
システム創成学専攻
和泉研究室 (博士課程)

Mail : msuzuki [at] g.ecc.u-tokyo.ac.jp
: 0000-0001-8519-5617
: scholar.google.com/citations?user=_-8tzX0AAAAJ
: researchmap.jp/masahiro-suzuki
: Masahiro-Suzuki-11
: github.com/retarfi
: linkedin.com/in/msuzuki7/

自己紹介

研究分野:テキストマイニング,自然言語処理

所属学会:IEEE・言語処理学会・人工知能学会

略歴

2022/10 - :   東京大学工学系研究科 システム創成学専攻 和泉研究室 (博士後期課程)

2022/04 - :   日興アセットマネジメント株式会社

2020/04 - 2022/03:   東京大学工学系研究科 システム創成学専攻 和泉研究室 (修士課程)

2019/05 - 2020/03 :   東京大学工学部 システム創成学科 和泉研究室

2018/04 - 2020/03 :   東京大学工学部 システム創成学科 システムデザイン&マネジメント(SDM)コース

2016/04 - 2020/03 :   東京大学運動会ゴルフ部

2016/04 - 2018/03 :   東京大学 教養学部 前期課程理科二類

2015/04 - 2016/03 :   慶應義塾大学 理工学部 管理工学科

2009/04 - 2015/03 :   筑波大学附属駒場中・高等学校

1996/09 :   東京生まれ

公開リソース

  • 日本語DeBERTaV2モデル (base / small)
  • 日本語大規模言語モデルプロジェクト
    日本語のデータセットやチューニングモデルが記載されたページを公開中。
    プロジェクト詳細
  • ACL anthology Japanese abstract
    ACL anthology上の論文のアブストラクトをChatGPTを用いて日本語に自動翻訳。
  • BERT・ELECTRAの日本語事前学習プログラム (github.com/retarfi/language-pretraining)
    日本語Wikipediaや金融ドメインをコーパスに用いて訓練した、BERTやELECTRAの事前学習モデル。それぞれWikipediaモデルと金融モデルが自然言語処理ライブラリのTransformersにて利用可能 (huggingface.co/izumi-lab)。
  • jptranstokenizer: Japanese Tokenzier for transformers (github.com/retarfi/jptranstokenizer)
    HuggingFaceのtransformersライブラリと互換性のあるトークナイザーライブラリ。MeCabやJuman++、sudachi、spaCy LUWがmain-wordのトークナイザーとして、またWordpieceとsentencepieceがsubwordのトークナイザーとして利用可能。Juman++とsentencepieceのような組み合わせで学習されたトークナイザーを容易に読み込める。
    PyPI

論文

審査付学術雑誌論文

  1. Constructing and analyzing domain-specific language model for financial text mining
    Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, and Kiyoshi Izumi.
    Information Processing & Management, 2023.
    Impact Factor: 8.6, Q1 Journal as of 2022
    ScienceDirectbib
  2. Forecasting Stock Price Trends by Analyzing Economic Reports With Analyst Profiles
    Masahiro Suzuki, Hiroki Sakaji, Kiyoshi Izumi, and Yasushi Ishikawa.
    Frontiers in Artificial Intelligence, 2022.
    Impact Factor: 4.0
    Frontiersbib
  3. Forecasting Net Income Estimate and Stock Price Using Text Mining from Economic Reports
    Masahiro Suzuki, Hiroki Sakaji, Kiyoshi Izumi, and Yasushi Ishikawa.
    Information, 2020.
    Selected as Cover Story. Impact Factor: 3.1
    MDPIbib

審査付国際会議

  1. JMedLoRA:Medical Domain Adaptation on Japanese Large Language Models using Instruction-tuning
    Issey Sukeda, Masahiro Suzuki, Hiroki Sakaji, and Satoshi Kodera.
    Deep Generative Models for Health Workshop NeurIPS 2023, 2023.
    Accepted
    OpenReviewarXiv
  2. From Base to Conversational: Japanese Instruction Dataset and Tuning Large Language Models
    Masahiro Suzuki, Masanori Hirano, and Hiroki Sakaji.
    2023 IEEE International Conference on Big Data (Big Data), 2023.
    IEEEarXivSSRN
  3. llm-japanese-dataset v0: Construction of Japanese Chat Dataset for Large Language Models and its Methodology
    Masanori Hirano, Masahiro Suzuki, and Hiroki Sakaji.
    The 12th International Workshop on Web Services and Social Media (WSSM-2023) in The 26th International Conference on Network-Based Information Systems (NBiS-2023), 2023.
    Springer LinkarXivSSRN
  4. Gradual Further Pre-training Architecture for Economics/Finance Domain Adaptation of Language Model
    Hiroki Sakaji, Masahiro Suzuki, Kiyoshi Izumi, and Hiroyuki Mitsugi.
    2022 IEEE International Conference on Big Data (Big Data), 2022.
    IEEEbib
  5. Constructing and analyzing domain-specific language model for financial text mining
    Masahiro Suzuki, Hiroki Sakaji, Masanori Hirano, and Kiyoshi Izumi.
    Information Processing and Management Conference, 2022.
  6. Market Trend Analysis Using Polarity Index Generated from Analyst Reports
    Rei Taguchi, Hikaru Watanabe, Masanori Hirano, Masahiro Suzuki, Hiroki Sakaji, Kiyoshi Izumi, and Kenji Hiramatsu.
    2021 IEEE International Conference on Big Data (Big Data), 2021.
    IEEEbib
  7. Stock Price Analysis Using Combination of Analyst Reports and Several Document
    Masahiro Suzuki, Toshiya Katagi, Hiroki Sakaji, Kiyoshi Izumi, and Yasushi Ishikawa.
    2019 International Conference on Data Mining Workshops (ICDMW), 2019.
    Best Paper Award
    IEEEbib

国内会議・その他

  1. JMedLoRA:Instruction-tuningによる日本語大規模モデルの医療ドメイン適用 (in Japanese)
    助田 一晟, 鈴木 雅弘, 坂地 泰紀, and 小寺 聡.
    言語処理学会第30回年次大会, 2024.
    paperdetail
  2. 複数ノードを用いた言語モデルの構築とドメイン適応 (in Japanese)
    鈴木 雅弘, and 坂地 泰紀.
    研究報告知能システム (ICS), 2024.
    IPSJ
  3. 日本語インストラクションデータを用いた対話可能な日本語大規模言語モデルのLoRAチューニング (in Japanese)
    鈴木 雅弘, 平野 正徳, and 坂地 泰紀.
    信学技報, 2023.
    IEICEJxiv
  4. llm-japanese-dataset v0: 大規模言語モデルのための日本語チャットデータセット構築 (in Japanese)
    平野 正徳, 鈴木 雅弘, and 坂地 泰紀.
    情報処理学会 第257回自然言語処理研究発表会, 2023.
    若手奨励賞(共著)
    SIG-NLbib
  5. 日本語インストラクションデータセットの構築とその適用による大規模言語モデルのチューニング (in Japanese)
    鈴木 雅弘, 平野 正徳, and 坂地 泰紀.
    NLP若手の会第18回シンポジウム (YANS), 2023.
    奨励賞・ELYZA賞(スポンサー賞)
  6. Causal Text Mining in the Era of Large Language Modeling: A Reality Check (in Japanese)
    高柳 剛弘, 小林 涼太郎, 鈴木 雅弘, 坂地 泰紀, and 和泉 潔.
    NLP若手の会第18回シンポジウム (YANS), 2023.
  7. 時系列に並んだ金融文書からの差分抽出タスクの提案 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, and 和泉 潔.
    人工知能学会全国大会論文集, 2023.
    JSTAGEbib
  8. 異なる単語分割システムによる日本語事前学習言語モデルの性能評価 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, and 和泉 潔.
    言語処理学会 第29回年次大会 (NLP2023), 2023.
    paperdetail
  9. 時系列に並んだ複数のアナリストレポートを用いた株価動向予測 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 和泉 潔, and 石川 康.
    社会システムと情報技術研究ウィーク(WSSIT2022) 人工知能学会「社会における AI」研究会 第43回研究会, 2022.
    paperdetail
  10. 事前学習と追加事前学習による金融言語モデルの構築と検証 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 平野 正徳, and 和泉 潔.
    人工知能学会 第28回金融情報学研究会 (SIG-FIN), 2022.
    paperdetail
  11. 金融文書を用いた追加事前学習言語モデルの構築と検証 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 和泉 潔, and 石川 康.
    言語処理学会 第28回年次大会 (NLP2022), 2022.
    paperdetail
  12. 金融ドメインの事前学習BERTモデルの構築に向けて (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 平野 正徳, and 和泉 潔.
    NLP若手の会第16回シンポジウム (YANS), 2021.
  13. 金融ドメインにおける事前学習BERTモデルの性能検証 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 平野 正徳, and 和泉 潔.
    信学技報, 2021.
    IEICEbib
  14. アナリストレポートから生成した極性指標を用いた市場動向分析 (in Japanese)
    田口 怜, 渡邊 光, 平野 正徳, 鈴木 雅弘, 坂地 泰紀, 和泉 潔, and 平松 賢士.
    人工知能学会 第27回金融情報学研究会 (SIG-FIN), 2021.
    paperdetail
  15. 金融文書を用いた事前学習言語モデルの構築と検証 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 平野 正徳, and 和泉 潔.
    人工知能学会 第27回金融情報学研究会 (SIG-FIN), 2021.
    paperdetail
  16. テキストマイニングによるアナリストレポートを用いた株価動向予測 (in Japanese)
    鈴木 雅弘, 堅木 聖也, 坂地 泰紀, 和泉 潔, and 石川 康.
    言語処理学会 第26回年次大会 (NLP2020), 2020.
    paperdetail
  17. テキストマイニングを用いたアナリストレポートからの純利益予測 (in Japanese)
    鈴木 雅弘, 坂地 泰紀, 和泉 潔, 松島 裕康, and 石川 康.
    人工知能学会全国大会論文集 第34回 (2020), 2020.
    JSTAGEbib

プレプリント

  1. JMedLoRA:Medical Domain Adaptation on Japanese Large Language Models using Instruction-tuning
    Issey Sukeda, Masahiro Suzuki, Hiroki Sakaji, and Satoshi Kodera.
    arXiv
  2. From Base to Conversational: Japanese Instruction Dataset and Tuning Large Language Models
    Masahiro Suzuki, Masanori Hirano, and Hiroki Sakaji.
    arXivSSRN
  3. 日本語インストラクションデータを用いた対話可能な日本語大規模言語モデルのLoRAチューニング (in Japanese)
    鈴木 雅弘, 平野 正徳, and 坂地 泰紀.
    Jxivbib
  4. llm-japanese-dataset v0: 大規模言語モデルのための日本語チャットデータセット構築 (in Japanese)
    平野 正徳, 鈴木 雅弘, and 坂地 泰紀.
    Jxivbib
  5. llm-japanese-dataset v0: Construction of Japanese Chat Dataset for Large Language Models and its Methodology
    Masanori Hirano, Masahiro Suzuki, and Hiroki Sakaji.
    arXivSSRN

奨学金・受賞

奨学金
  • 2020/04 :   トヨタ・ドワンゴ高度人工知能人材奨学金 (1年: 120万円)
  • 2020/04 :   JEES・ソフトバンクAI人材育成奨学金 (1年: 100万円)
受賞

学会活動

その他

  1. 2019年度関東学生ゴルフ連盟男子 6月月例会: 48-45=93(72T)
  2. 東京大学運動会ゴルフ部ホームページ 2018年度制作