はじめまして!Data Scientistの市川です。
今回は、先日第34回 人工知能学会 金融情報学研究会(SIG-FIN) に行ってきましたので、そのレポートをさせて頂ければと思います。
- イベントの概要
- 発表の概要
イベントの概要
人工知能学会 金融情報学研究会(SIG-FIN) は人工知能学会の第二種研究会です。
詳細は上記リンクに譲るのですが、近年より広い方々の金融市場への関心が高まっています。このような背景で、ファイナンス分野への人工知能技術の応用を促進するための研究会になります。人工知能分野の研究者や金融市場の現場の技術者が参加する、大変ユニークな研究会になっています。
最近、かなり発表量が増加傾向にあり、聴いているだけでも忙しい研究会です。例年、土曜日の1日のみの開催でしたが、発表数の増加に伴い、土日を両方使う研究会となりました。
概要は以下の通りです。 * 日時:2025年3月1日(土) および 3月2日(日) * 開催形式:会場およびオンライン(Zoom使用)のハイブリッド開催 * 会場:KPMGコンサルティング
発表の概要
こちらの研究会はありがたいことに 各発表の概要pdfが公開されています 。 以下、著者の敬称略とさせて頂きます。
SIG-FIN UFO-2024 タスク(6件)
(01) 有価証券報告書の表を対象としたUFO-2024コンペティション
木村 泰知, 佐藤 栄作 (小樽商科大学), 門脇 一真 (日本総合研究所), 乙武 北斗 (福岡大学)
UFO-2024のタスクの概要 https://sites.google.com/view/ufo-2024/
データセット https://github.com/nlp-for-japanese-securities-reports/ufo-2024/
有価証券報告書の37%が通常の機械判読では難しい複雑な表と言われている。 UFO-2024 では、TOPIX500の有報を対象とした表検索(Table Retrieval)タスクと表質問応答(Table QA)タスクがある。
このセッションでは、コンペの上位者の解法をシェアする場になっている。
(02) 表構造の理解と表項目の説明文生成に基づくTable QAタスクへの挑戦
髙砂 爽, 秋葉 友良 (豊橋技術科学大学)
アプローチの大きな特徴は、表を「見出し部分(ヘッダ)」と「データ部分」に分割し、セルをテキスト化することで自然言語処理技術(BERTやBM25など)を適用可能にしている点です。
表の前処理と正規化
   - HTML形式の有価証券報告書から表を抽出し、セルの文字列を正規化(全角・半角や日付の統一、通貨・数値の単位変換など)します。
   - 行全体・列全体・表全体にかかる単位を検出して数値をスケーリングし、セル単体の単位も検出して処理する仕組みを導入しています。
TDE(Table Discriminative Explanation)を用いた表構造解析
   - 各セルを「Metadata」「Header」「Attribute」「Data」の4種に分類するタスク(NTCIR-17 UFOのTDEサブタスク)をBERT分類器で実装し、その結果をもとにテーブルを「上側(見出し)」「左側(見出し)」「右下(データセル)」の領域に分割します。
   - 分割の際は、見出し部分をHeader/Attribute/Metadataセル、データ部分をDataセルとしてスコア(TSS)を最大化する分割位置を探索します。これにより、多くの場合は上数行×左数列が見出し、残りがデータとして認識されます。
表のテキスト化(文章生成)
   - 分割後のテーブルから、見出しセルとデータセルの組合せをテンプレート「XのYはZです。」で文章に変換します(Xは上側見出しの結合、Yは左側見出しの結合、Zはデータセルの値)。
   - たとえば「第44期」「売上高」「458140」の3セルが対応していれば「第44期の売上高は458140です。」のように文章化。これにより、テーブルの中身を自然言語の文書として扱えるようになります。
TableRetrievalタスク
   - 論文IDごとに抽出した各表をテキスト化した文書にまとめ、BM25によるベクトル検索を用いて「質問文に最も合致する表」を探す、という構造になっています。
   - 実験ではNTCIR-18 UFOデータやSIG-FIN UFO2024データを用いて検証が行われ、工夫としては「表上部にある説明文を追加する」「空セルの扱いを工夫する」などの改善により、精度を向上させています。
TableQAタスク
   - 与えられた表ID(TableRetrievalによって特定されたもの、またはタスクで指定されたもの)と質問文をもとに、「どのセルが答えか」を見つけて値を抽出します。
   - 具体的には、質問文と各セル(テキスト化した文章)をBERT分類器で2値分類(適合/不適合)し、適合と判断されたセルを回答候補とします。
   - 学習にはNTCIRやSIG-FIN UFO2024で提供されたクエリ(質問)と正解セルのデータを使い、さらに空文字セルなどは除外するといった最適化を行うことで、座標および値の正解率を向上させています。
実験結果と考察
   - TableRetrievalタスクでは正解率0.341程度、TableQAタスクではセル座標の正解率0.743、値の正解率0.701といった成果を得ています。従来のベースラインやGPT-4モデルを用いた手法と比べても、TableQAの値抽出精度が上回るなどの有望な結果が示されています。
   - 一方で、表が複雑に結合されているケースや、セル内に長文が記載されているケースなどは文章化が難しく、さらなる精度向上には「より柔軟な表分割手法」「Text-to-Text生成の活用」などが必要であるとしています。
(03) 有価証券報告書の表質問応答を対象としたSIG-FIN UFO-2024タスクにおけるUTUtLB25チームの性能評価
司 龍, 張 引, 王 小天. 宇津呂 武仁 (筑波大学)
SIG-FIN UFO-2024タスクのうち「表質問応答(Table QA)」サブタスクを対象としています。 LLMを用いて課題解決を試みています。
データセット
- 対象データ 
 EDINETから取得したTOPIX100企業の有報(HTML形式)をもとに、HTML→CSVへ変換した表データを使用し、自然言語の質問文を生成して構築。最終的に合計496文書・8,116表・13,675件の質問文(訓練・検証・テスト)に分割している。
- 質問文の生成 
 CSV形式の表に対するテンプレートを作り、ChatGPTを用いて様々な言い回しの自然言語に変換することで、多様性のある質問文を作成。
表質問応答手法
タスク設定
- 入力: 質問文、および該当する表ID(Table ID)
- 出力: 質問への解答としてセルの座標(Cell ID)またはセルの値
- 評価: 解答が正答と一致するかどうかのAccuracy(正解率)
LLMを用いた表QA
- プロンプト設計
  - システムプロンプト・ユーザープロンプトにおいて、回答フォーマットや出力を厳密に指定。
  - Temperatureを0にするなど、確率的な変動を抑えて安定した出力を得る。
- Zero/Few-shot学習
  - サンプルとして提示する質問・回答例(ショット数)を変化させ、精度がどう向上するかを調査。
実験結果
- GPT-4・Claude 3.5・Gemini・Grokなど複数LLMを用い、検証用データに対する「Cell ID」と「Value」それぞれの正解率を測定。
- 最も高精度だったのはAnthropic社の「Claude3.5-Sonnet」で、セル座標の正解率90%、値の正解率93%を達成。
- 多くのモデルでFew-shot学習によって精度が向上するものの、ショット数を増やしすぎると逆に精度が落ちる場合もあり、適切なショット数の選択が重要となる。
- 誤り分析では、ハイフンを「0」と解釈する誤りや単位のミスなどがショット数増加で減る一方、セルを取り違える誤りは残存した。
NTCIR U4タスクとの比較 - SIG-FIN UFO-2024と同様に有報の表QAを扱うNTCIR-18 U4タスクでも同手法を適用しており、ClaudeやGrokなど複数モデルで高精度を実現。詳細は別の論文で議論しているが、U4とUFO-2024を通じて、LLMが大規模な日本語表QAにおいて高い性能を発揮することを確認。
結論 LLMを用いた日本語有報の表質問応答で高精度が得られることを示し、特にFew-shot学習は精度向上に大きく貢献する。一方でセルの取り違いなど特定種の誤りはまだ残っており、追加対策の必要性が示唆される。
(04) 二値分類モデルに基づく有価証券報告書を対象とした表解析手法の提案
藤田 優希, 水島 陵太, 乙武 北斗, 吉村 賢治 (福岡大学)
それぞれに対して二値分類モデルを中心とした手法を提案しています。
Table Retrievalの場合 1つの有報内に多数存在する表の中から、与えられた質問(自然言語)に対して「答えが含まれる表」を特定するタスク。膨大な候補表へのアプローチとして、二値分類モデルを最終ステップに用いるが、データの不均衡や計算量の問題を解決するために以下の多段階処理を導入。
 ルールベースの前処理
- HTMLのtableタグ内のth/tdからテキストを抽出し、数字・一般的な語(「百万円」「合計」など)や記号の削除、日付表記の正規化などを行う。
質問文からセクションを予測して絞り込み
- 有報は第一部・第二部など複数のセクションに分かれており、質問文から「どのセクションに属するか」を多クラス分類モデル(BERT)で予測し、該当セクションの表だけに候補を絞る。
Embeddingモデル(多言語E5)によるコサイン類似度でさらに候補削減
- 質問文と表の埋め込みを取得し、コサイン類似度が高い上位100件を残す。
Rerankモデル(ruri-reranker)を適用
- 類似度上位100件をさらにスコア順に並び替え、上位最大50件を候補とする。
二値分類モデル(BERT)
- 候補となった最大50件を正例(答えを含む表) or 負例(含まない表)に分類。最終的にスコア最大の表を回答とする。
- 分類層の構造(全結合層数、質問と表の連結方法など)を比較し、一部構成を変更したモデルが最も高い精度(約0.84)を達成。
結果
- Publicスコア(Accuracy)で約0.84を得て、ベースライン(約0.21)を大きく上回る高精度を達成。
- 前処理が著者の主観に依拠しており、より客観的・体系的なルール構築が必要。
Table QA - 与えられた質問文に対して、該当する「セルの位置(Cell ID)」および「セル内の値(Cell Value)」を特定する。 - 有報の表はセル結合(rowspan, colspan)が多様で、単位や数値表記もまちまちであるため、フラットなテキスト化だけでは構造が十分に捉えられない。
表の構造解析(RCI)
- HTML表を行・列ごとに分割し、行・列それぞれが質問に対してどの程度関連するかを二値分類モデルで判定。最も関連度が高い行と列の交点をセルの位置とみなす。
- モデルとしてはDeBERTa V3を採用。
値の正規化(T5)
- 抽出したセルに含まれる数値・単位のズレを「T5」による生成タスクで正規化。
- たとえば「1,000千円」や「△302 百万円」などを共通の表現に変換する。
結果
- Cell IDの特定精度は約0.91、Cell Value(単位考慮)の正解率は約0.87を達成。
- GPT-4など大規模LLMベースラインの値予測精度(最大0.74前後)を上回る。
結論
- Table Retrieval: 一連の多段階フィルタリング+二値分類モデルで、高い正解率(約0.84)を実現。
- Table QA: 表の行・列それぞれへの二値分類モデル(RCI)でセル位置を特定し、T5で値を正規化する分割アプローチが、LLM単体を用いた方法より高精度を示す(Cell Value約0.87)。
(05) 有価証券報告書の表理解タスクに対する解法の提案
別木 智也 (MTEC)
特徴としては、有報内のヘッダタグ(h1~h6)を活用した「目次データベース」を学習データから構築し、質問文のキーワードやLLM(GPT-4o-mini)を段階的に組み合わせて候補表を絞り込む点にあります。
データセット
- 対象はTOPIX500の企業が2023年7月~2024年6月に提出した有報(HTML形式)。
- 学習データ・評価データ・テストデータに分割され、計493社・約13,673件の質問文が用意されている。
- 各HTMLには複数の<table>要素が含まれ、一意のtable-idが振られている。
提案手法の概要 著者の手法は「目次情報(h1~h6)を使った段階的な絞り込み」と「質問文のキーワード抽出」「LLMによる最終的な判定」という3ステップで構成されています。
目次データベースの作成
- 学習データ(企業と、その企業のHTML内のtableに対する正解表)を使い、各テーブル(table-id)を含むHTMLのh1~h6タグ情報(ヘッダー)と紐づけて「目次データベース」を構築。
- 例えば「S100RX3W-0101010-tab2」はh1:第一部企業情報、h2:企業の概況 …などの見出しを持つ、というようにJSON形式で保存。
目次を利用した絞り込み 1.キーワード抽出 - 質問文は「○○年度の●●決算における『▲▲、△△』は?」など画一的 - 鍵括弧内の語や「連結決算/個別決算」などをキーワードとして抽出 2.学習データから同じキーワードを含む質問を検索し、当該質問の正解table-idに対応する目次情報を取得 - 当該ヘッダー情報(h1~h6)と一致するテーブルだけを候補とする。 - 目次段階での絞り込みにより、不要なテーブルを大幅除外。
キーワードを利用した絞り込み
- 目次段階で候補が複数残った場合、それら候補テーブルのヘッダー・セルテキスト中の「キーワード出現数」がもっとも多いtable-idを選ぶ。
- 出現数が同数の場合は複数残す。
LLMを利用した絞り込み
- table-idが一意に絞れない場合に、GPT-4o-miniを用いて最終決定を行う。
- 質問文を自然な形へリライトし、各テーブルのテキストとともにLLMに投げ、最適なtable-idを構造化出力させる。
評価
- 検証データでの段階的絞り込みごとの再現率(Recall)を計測。
目次:約99.7%
キーワード:約96.3%
LLM:約75.1%(=最終Accuracy)
- LLMステップで大きく精度が落ちる理由として「経営指標等」など多義的表現が複数テーブルに該当したり、自然言語変換時に情報が省略・誤訳されるケースが挙げられる。
(06) 類似した質問と表に基づく表検索及び大規模言語モデルを用いたOne-shot表質問応答
田中 麻由梨 (JPX総研), 土井 惟成 (日本取引所グループ)
類似した質問と表を活用した検索
質問文の埋め込みと類似質問の取得
- 事前学習済みモデル(RoBERTa)を利用し、学習データ(Trainセット)の質問文をベクトル化。
- テストデータ(Testセット)の質問文を同モデルで埋め込み、Trainセットとコサイン類似度を計算して最も近い質問を選ぶ。
BLEUスコアを用いた表類似度計算
- 得られた「最も類似するTrainの質問」に紐づいている表(1つ)をテキスト化(角括弧の二重リスト形式など)し、Testセットに含まれる各表のテキスト化結果とのBLEUスコアを計算。
- 最もBLEUスコアが高い表を最終的な解答とする。
このプロセスにより、まず似た質問文を介して関連表を当たりをつけ、その上でテキスト化した表同士の類似度をBLEUで評価する多段階検索を実現している。
表質問応答タスクの提案手法
LLMを用いたOne-shotプロンプティング
- Testセットの各質問に対し、同じく「最も類似するTrainの質問」を検索し、その質問+正解セルを含む表のペアを「One-shotのサンプル」としてLLM(ChatGPT-4o)に与える。
- プロンプト中では「サンプル質問&表 → 正解セルID」を示し、同じフォーマットでTest質問に対応するセルIDを出力させるよう誘導。
- まずセルIDを抽出し、その後に値を取り出す手順を取ることで、LLMが正確なセルを指定しやすくする狙いがある。
実験
- データ: SIG-FIN UFO-2024のTrain・Testセットを使用。
- 表検索: Accuracy=0.7320。役員個人名などTrainに登場しない固有情報への対応が弱点。
- 表質問応答:
  - Zero-shot(サンプルなし): セルID正解率=0.6727、値の正解率=0.1462。
  - One-shot(サンプル提供): セルID正解率=0.7326、値の正解率=0.1776。
  - One-shotによりセルIDの精度が向上しており、適切なサンプルを提示する効果が確認された。一方、値の正解率が低いのは単位や数値の表記揺れに対処していないためと考えられる。
人工市場・投資戦略(5件)
(08) 人工市場を用いた規制を考慮したETF・原資産市場間のショック伝搬の分析
遠藤 修斗 (工学院大学), 水田 孝信 (スパークス・アセット・マネジメント), 八木 勲 (工学院大学)
ETF(上場投資信託)とその原資産市場(2つの原資産市場)を人工市場シミュレーションで構築し、そこに誤発注やファンダメンタル価格の下落といった「ショック」が発生した際に、裁定取引を通じて市場間でどのように価格下落が伝搬するかを分析しています。さらに値幅制限を代表とする規制の有無がショック伝搬の程度にどのような影響を与えるかを調査する点が特徴です。
目的と背景
   - ETFと、それを構成する複数の原資産市場との間では裁定取引が行われるため、一方の市場でショックが起こると他方へも価格変動が波及する可能性が高い。
   - リーマン・ショックやフラッシュ・クラッシュのような急激な下落を防止するために、証券取引所などでは値幅制限・サーキットブレイカーといった規制が導入される。しかし市場によって規制導入の状況は異なる。
   - 過去の実証データだけでは各規制の直接的な効果を明確に切り分けるのが難しいため、マルチエージェント・シミュレーション(人工市場)を用いて規制の影響を定性的に分析する。
主な結果
- ショック伝搬の確認: いずれの場合も、裁定取引によってショックを受けた市場の価格下落が他市場へ伝わることを確認。
- 値幅制限の影響
  - 原資産市場側にショックが起こった場合は、原資産市場への値幅制限導入で自市場やETF市場の下落幅が小さくなるケースが多い。
  - 一方でETF市場への誤発注ショックの際は、原資産市場に値幅制限があると価格差が拡大してしまい、かえってETF市場側の下落が抑えられにくい場面が見られた。
  - 原資産市場1のファンダメンタル価格下落時は、当該市場に値幅制限があれば下落が緩和される一方、ショックを受けていないもう一方の原資産市場が値幅制限を導入していると、その市場はかえって他市場から伝わる下落が大きくなる場合があった。
- 総括: 「どの市場にいつ値幅制限を導入するか」でショックの拡大・抑制効果が変わることが示唆された。特に、ある市場の下落が裁定取引を介して他市場の価格をも押し下げる過程で、規制の有無がダイナミクスを複雑化させる。
(09) LLMベースのエージェントによる人工市場シミュレーションの構築
平野 正徳 (PFN)
大規模言語モデル(LLM)を利用したエージェントを人工市場シミュレーションに導入し、伝統的な“ノイズトレーダーモデル”では再現しにくい金融市場特有の性質(いわゆるスタイライズド・ファクト)をどこまで再現可能かを検証した研究です。
背景と目的 - ChatGPTやGPT-4といったLLMの登場により、人間のようにテキストを入出力できる「思考を持ったかのような」振る舞いが一部可能になっている。これをエージェントとみなし、各種シミュレーションへの応用が期待されている。 - 既存の人工市場シミュレーションはエージェントの振る舞いを数式化する場合が多いが、それだと実際の投資家の複雑な意思決定を忠実に表現するのは難しい。そこで、言語モデルを用いたエージェントを導入することで、より人間らしく複雑な意思決定をする株式トレーダーを実装できないかを探る。
人工市場モデルの構築
- エージェントの種類
- LLMエージェント
- 大規模言語モデルにプロンプト(市場情報・過去価格・ファンダメンタル等)を与え、指値または成行の売買判断を行う。
- LLMへのプロンプト内容(ファンダメンタル・ポジション情報・プロスペクト理論の考慮など)を複数パターン用意して効果を比較。
 
- ノイズエージェント
- 買い/売り価格をランダムに決める。外部要因による取引をモデル化するためのエージェント。
 
実験設計
- 実験パラメータ - LLMエージェントの割合:0%, 10%, 20%
- LLMエージェントのプロンプト構成:ファンダメンタル、ポジション、プロスペクト理論の3要素をオン/オフ → 全8通り
- それぞれの条件下で100回のシミュレーションを行う。
 
- 評価指標: 金融市場の典型的特徴(スタイライズド・ファクト)の一部に着目 - リターンの平均がほぼ0(もしくは極めて小さい正)
- 尖度(ファットテール度合い)が大きい(>3)
- 歪度が負(下落側に厚みをもつ分布)
 
実験結果
- ノイズエージェントのみではファットテール性をはじめ多くの要素が再現困難。先行研究と同様、ランダム注文だけでは価格分布が正規分布に近くなり、尖度が小さい。
- LLM導入による改善とプロンプトの影響
  - LLMエージェントを追加すると、尖度が増大し歪度も負になる傾向が出てくる。
  - ただし「どのようなプロンプトを与えるか」が非常に重要で、些細な変更で結果が大きく変わる。
  - 実験では以下のような一般傾向が見られた:
    1. ポジション情報をプロンプトに含める: 歪度が負になるケースが多い(LLMが自分の持ち高を理解し、売りポジションを取りやすくなる)。
    2. ファンダメンタル価格を含める: 価格が大きく動いた際にファンダメンタルへ回帰する意識が働くようで、リターンの分布裾が重くなり、尖度が大きくなる。
    3. プロスペクト理論の記載を含める: リスク回避度合いが変わり、下落局面でボラティリティを増す動きが生じる場合がある。
  - 結果として、ファンダメンタル・ポジション・プロスペクトの3要素をすべて含むプロンプトを与えたLLMエージェントが存在する場合に最もスタイライズド・ファクトに近い分布になった。
(10) 重み付きTsallisエントロピー正則化に基づくリスクパリティ・ポートフォリオの一般化
中川 慧 (野村アセット/大阪公立大学), 土屋 平 (東京大学)
従来の平均分散法やリスクベースのポートフォリオ構築における課題を克服するため、重み付きTsallisエントロピーを正則化項として組み込んだ新たなポートフォリオ最適化手法を提案しています。特に、通常のリスクパリティやリスクバジェッティング・ポートフォリオは期待リターンを考慮しないため、リターン面で非効率になりやすいという問題に対し、Tsallisエントロピーを用いて銘柄分散と期待リターンの両方をバランスよく取り入れる点が本研究の特徴です。
(11) 推薦システムにおける多様性を利用したアセットアロケーション
星野 知也 (三井住友銀行)
推薦システムにおける多様性(diversity)の概念を資産配分(アセットアロケーション)に適用し、集中投資によるリターン追求と分散投資によるリスク低減を両立させる新たなポートフォリオ構築手法を提案しています。推薦システムの分野では、利用者の選好に合うアイテムを提示する一方、類似アイテムばかりを冗長に提示すると満足度を下げてしまうため、関連性(relevance)と多様性(diversity)のトレードオフが重要視されます。これを「投資家の見通し(リターン追求)と資産間の類似度(分散投資)」の問題に対応づけて、以下の2つの代表的手法を活用しています。
手法の概要
行列式点過程(Determinantal Point Process, DPP)
   - フェルミ粒子系のように「要素間に斥力(repulsion)が働く」点過程モデル。
   - 離散集合から部分集合を選択する際、要素間の類似度が高い組合せが同時に選ばれにくくなる性質をもつ。
   - 各資産への「見通し」スコア(類似度の対角成分に対応)と、資産間の相関などの類似度(非対角成分)を行列 ( L ) に組み込み、行列式を最大化することで関連性と多様性を両立できる。
周辺関連性最大化(Maximal Marginal Relevance, MMR)
   - 情報検索や推薦システムでよく使われる再ランキング手法。
   - 「利用者クエリとの関連度」と「既に選択したアイテムとの非類似性」を線形結合してスコアを定義し、アイテムを段階的に選んでいく。
   - アセットアロケーションにおいては、投資家の見通し(関連性)と資産間の類似度(非類似性を大きくして多様化)をバランスよく組合せる。
実証分析のポイント
- 対象銘柄: S&P 500構成銘柄(2015~2024年の10年データ)
- 比較対象:
- 最小分散ポートフォリオ (MV)
- 逆ボラティリティ (IV)
- 等ウェイト (EW)
- モメンタム上位銘柄 (Mom)
- ブラック-リッターマン・モデル (BL)
 
- 手法:
- DPP: 資産間の相関行列やグラフラプラシアンを用いて多様度を制御。
- MMR: 資産を1つずつ貪欲に追加し、多様性を確保。
 
まとめと意義
- 新しい視点の導入: 推薦システムで検討されている「関連性 vs. 多様性」の枠組みをアセットアロケーションに応用し、銘柄選択でリターン追求とリスク分散を同時に考慮する。
- 理論的背景: DPP・MMRは元々情報検索・機械学習の分野で研究が進んでおり、多様性に特化した優れた性質を持つ。これを資産間の相関構造や投資家の見通しに組み合わせることで、新たなポートフォリオ最適化を提案。
- 実証的評価: S&P 500銘柄を対象とした検証では、従来のリスクベースやモメンタム戦略に対し、リスク調整後のパフォーマンス向上やドローダウンの抑制といった優位性が見られた。
金融市場(6件)
(12) 人工知能学会 金融情報学研究会(SIG-FIN)の歴史 - AIと金融の技術史の一部として議論 -
水田 孝信 (スパークス・アセット・マネジメント)
人工知能学会 金融情報学研究会 (SIG-FIN) の創設から約16年余りの歴史を振り返りながら、金融とAI(人工知能)の歩みを概観したものです。2008年の研究会発足当初は参加者が少ない時期もありましたが、第3次AIブームに連動して発表件数や参加者数が急増し、さらにコロナ禍でオンライン化を経験して現在まで継続してきた経緯を整理しています。金融情報学研究会が日本におけるAIと金融の発展にどのように寄与してきたかが、時代ごとの出来事とともに記されています。
(13) 経済状況に応じてベーシックインカムがもたらす変化
高島 幸成 (白鴎大学), 八木 勲 (工学院大学)
研究の背景と目的 ベーシックインカム(BI)は、全ての人に無条件で一定の所得を給付する制度であり、貧困対策や社会保障の簡素化などの観点から近年注目を集めています。一方で、BIを全面的に導入した際の労働意欲(労働供給)が低下する懸念や、社会・経済全体に及ぼす影響が不確実とされ、従来は実証実験や限定的な理論研究に留まっていました。
本稿では、このような不確実性を解消する一手段として、相対的な所得に対する効用(他者との所得格差を意識した労働意欲の変化)を取り入れた複層的なフィードバック構造を持つエージェントベース・マクロ経済モデルを構築し、景気の好調期や低迷期など“経済状況の違い”によってBIの効果がどのように変化するかを分析しています。
(14) 経済フェルミ推定問題: 因果構造推論による推定の改善
安田 卓矢, 村山 友理, 和泉 潔 (東京大学)
経済フェルミ問題(Economic Fermi Problems: EFPs)において、複数のLLMにより回答と評価を一貫して実行する仕組みを提案し、さらに 因果構造推論(Causal Structural Reasoning) を組み込むことで推定精度を高めることを目指しています。
(15) 東京証券取引所の市場再編における売買高への影響について
丸山 博之 (拓殖大学)
東京証券取引所では、2022年に東証一部・二部・マザーズ・JASDAQ(Standard/Growth)の4区分を、プライム市場・スタンダード市場・グロース市場の3区分へ再編しました。本研究では、この市場区分の変更が個別銘柄(本稿では水産・農業関連銘柄)における売買高の変化に影響を与えた時期を特定することを目的とし、閾値自己回帰モデル(Threshold Autoregression)を用いて分析を行っています。
データ
- 日次ベースの売買高などをJPXデータクラウドから取得。
- 市場再編の実施日を基準に前後3か月(計6か月)のデータを対象。
- 水産・農業セクターの銘柄をサンプルとして使用。
閾値自己回帰モデル:
- 時系列データ x_t に対し、ある閾値 c を境にパラメータが異なる2つの回帰式を適用する。
- 本研究では y_t = t / T (t: 時点、T: 全期間) を閾値判定に用い、売買高の対数平均値についてモデルを推定。
主な結果 3つのグループいずれにおいても実際の市場区分が変更される“前”に売買高に明確な変化が確認されました。具体的な閾値(状態が変化した日)は以下の通りです。
東証一部→プライム市場: 2022年2月2日に閾値を境に状態変化
東証一部→スタンダード市場: 2022年2月16日に状態変化
JASDAQスタンダード→スタンダード市場: 2022年3月11日に状態変化
実際の市場再編が行われたのは4月4日ですが、早い銘柄では2月初旬から売買高の変化が起きていると推定されました。
- 市場再編の公式実施日より前に、投資家は区分変更を見越した売買・資金移動を行った可能性が高い。
- 東証一部からプライム市場へ移行した銘柄が最も早く状態変化が生じ、JASDAQスタンダード→スタンダード市場の銘柄はやや遅れて変化が起きている。
- これは市場区分ごとに投資家からの注目度や事前の思惑の度合いが異なることを示唆する。
(16) 資産価格のジャンプとグラフによる資産の関係性の異常検知手法の提案
中田 喜之, 吉野 貴晶, 杉江 利章 (ニッセイアセットマネジメント), 関口 海良, 劉 乃嘉, 大澤 幸生 (東京大学)
背景と目的 資産運用においては、複数資産のリターンの関係(相関)をもとに配分(ポートフォリオ構築)を行うリスクベース戦略がよく用いられます。しかし、市場環境によって資産間の関係は大きく変化するため、そうした変化をいち早く検知できないと運用パフォーマンスの低下やリスク増大を招きます。本研究は、資産価格のジャンプ(不連続な価格変動)が同時に発生する資産の集合をグラフとして表現し、そのグラフ構造と直近の関係性の差異から、資産間の関係を変化させるようなイベント(サプライズ)を早期に検知する手法を提案しています。
ジャンプ 資産価格のジャンプ(突発的な急騰・急落)は、市場に大きな影響を与えるイベントやサプライズなニュースで生じる可能性が高いと言われています。そこで以下の手順でジャンプを検知します。
- Lee and Mykland (2008)の手法を用いて、5分足データから価格変動率が異常に大きい箇所を非パラメトリックに判定。
- 有意水準を非常に厳しく設定(例: 0.01%)することで、明確なイベントに起因する大きなジャンプのみを抽出。
- 検出されたジャンプには正(上昇)・負(下落)の方向が付与される。
グラフ分析と領域間相互作用
- 直近120日間の日次リターンに基づき主成分分析を行い、主成分の符号(プラス/マイナス)が同じ資産同士を一つの“領域”として区分。
- ある5分間隔で複数の資産が同時にジャンプし、なおかつジャンプ方向が同じ資産同士をエッジで結んだグラフを構築。
- グラフが上記“領域”をまたいで接続が生じているほど、直近の相関構造(資産関係)とは異なる反応と見做し、領域間相互作用(Inter-domain linkage)という指標で定量化。
- この指標が高いほど「既存の関係性から逸脱した同時ジャンプ」が起きたと判断し、資産間関係に影響を与えるイベントが発生した可能性が高いとみなす。
検出したイベントの影響評価
- 直近120日の日次リターンで推定した共分散行列が、イベント検知後どれくらい変化するか(平均二乗誤差・対数尤度など)を観察。
- また、共分散行列を用いたリスクベース戦略(最小分散ポートフォリオ、リスクパリティなど)を組んだ場合、イベント後のパフォーマンスがどの程度悪化するかを統計的に検証。
データと設定
- 対象資産: 為替(ドル円・ユーロドル)、主要先物(米・独・日国債、米・欧・日株価指数、金、原油)計10種類。
- 5分足の気配値データ(約20年分)に対してLee & Mykland手法でジャンプを検出し、日次リターンを使って共分散行列を推定。
イベント検知
- ジャンプのうち、領域間相互作用が高いケース(既存の資産関係と異なる反応を示すジャンプ)が確認された。
- 実際にそうしたジャンプが検知された時刻を調べると、米国金融当局(FRB、FOMC)や主要経済指標の発表、または日銀やECBの政策発表など、マーケットに大きな影響を与えるイベントが多く対応。
- 逆に領域間相互作用が0に近いジャンプは、既存の相関構造に沿った動き(例: 通常のリスクオフで株と原油が下落し、債券が上昇など)に留まるケースが多い。
共分散行列とリスクベース戦略への影響
- 領域間相互作用が高いジャンプ発生後の10〜20営業日において、過去の推定共分散行列との乖離が大きく、また対数尤度が低下している(= 共分散行列が急変している)傾向を確認。
- 同期間中に、最小分散ポートフォリオ(MV)などリスクベース戦略の平均リターンが有意に低下しており、これらのイベントが資産の関係性を変え、運用パフォーマンスを悪化させるリスクを早期に示唆している。
考察
- 大枠の知見: 領域間相互作用の高い同時ジャンプは、既存の資産相関構造と異なる動きを示す可能性が高く、その後の相関変化とリスクベース戦略パフォーマンス低下に繋がり得る。
- 人間の運用判断との連携: いつ・何が原因でこうしたジャンプが起きたかを時刻ベースで把握できるので、ファンドマネージャが定性情報を参照して、迅速なポートフォリオ見直しを検討する材料になる。
(17) アート資産の分散投資効果の実証分析
森田 梨加, 町田 奈津美 (慶應義塾大学/パリ政治学院), 山本 康介 (慶應義塾大学), 中川 慧 (野村アセット/大阪公立大学), 星野 崇宏 (慶應義塾大学/理研AIP)
アート作品を「アート資産」としてとらえ、伝統的な金融資産(株式・債券・為替・コモディティなど)に組み入れることで得られるポートフォリオ分散効果を検証することを目的としています。これまでアート資産のポートフォリオ導入効果に関する研究は数多く行われていますが、アート資産特有の流動性リスクや、価格変動の非対称性・長期依存性などを同時に考慮した実証分析は限られています。
データ
アート資産
- リピートセールス回帰法を用いて算出される ArtDAI 社の月次アート指数を採用。
- アートの流動性に注目し、流動性の高・中・低の3種類に区分したアート指数を用意(High Liquidity Art, Middle Liquidity Art, Low Liquidity Art)。
伝統的資産
- 株式:S&P500、日経225、EURO STOXX
- 債券:米国10年債先物、ユーロ(ドイツ)10年債先物
- 為替:米ドル/ユーロ、米ドル/円
- コモディティ:WTI原油先物、金先物
- 期間:1998年11月〜2023年12月の月次データ
分析
(1) 各資産の月次対数収益率を用いて、まずベクトル自己回帰(VAR)モデルを推定。
(2) その残差系列に対して、非対称性や長期依存を考慮した多変量GARCHモデル(GJR-GARCHやFIGARCHと、DCCもしくはADCCを組み合わせた合計6種類)を比較し、AICやSBCなどの情報量基準が最良となる「最適モデル」を選択。
(3) ボラティリティ(変動)どうしの連動を示す「ボラティリティ波及効果」や「条件付きクロス効果」を推定。
(4) 見積もった共分散行列を用いて、ポートフォリオの最適ウェイトとヘッジ比率を算出し、アート資産の分散投資効果を評価。
結果
1. ボラティリティ波及効果・長期依存
- 低流動性アート指数において、他資産からのボラティリティの影響が大きく(正の波及効果が統計的に有意)、アート価格変動が外部ショックを受けやすいことが示唆された。
- 一方、アート資産自体のボラティリティは長期的に持続しやすい(FIGARCHモデルの係数が有意に正)。アート価格の変動が一度高まると、比較的長い期間にわたってその影響が続く特徴が確認された。
- 資産間の動的相関(条件付きクロス効果)
- 「全体」「高流動性」「低流動性」のアート指数はいずれも、DCC/ADCCモデルの推定結果でプラスの条件付きクロス効果が確認された。これは市場ショックが発生した場合、アートと他資産の相関が一定程度上昇・変動しやすいことを意味する。
- ただし、相関の“非対称性”は今回のデータでは大きくは見られず(ADCCの非対称係数が有意でなかった)。 
- ポートフォリオ最適ウェイト・ヘッジ比率 
- いずれの流動性のアート指数を組み込んでも、WTI原油先物、日経225、EURO STOXXなどがアート資産との組み合わせにおいて高いウェイトが得られやすかった。これらを組み合わせることでリスク低減が期待できる可能性が示唆された。
- 一方、債券(米国債、ユーロ債)や米ドル/円といった資産は、アートとのポートフォリオ内での最適ウェイトが相対的に小さくなる傾向が見られ、アートとの相性は低いと考えられる。
- ヘッジ比率の点では、S&P500や日経225、EURO STOXXをロングしている投資家がアートを一定量ショートする(あるいは逆の立場で保有する)ことで、リスク低減が見込める可能性が示された。
考察と意義
- 流動性の異なるアート指数を用いることで、低流動性アートほど市場ショックの影響を受けやすく、ボラティリティが高まると持続しやすいことが明確になった。
- それでも、株式やコモディティの一部とは比較的低い相関を保つため、アートを組み合わせることによる分散投資メリットを得られる可能性が示唆された。
- 一方、流動性リスクも大きいため、特に低流動性アートの組み入れには注意が必要であることが読み取れる。
テキストマイニング・LLMs(5件)
(18) 金融テキストを対象とした強弱を捉えることができるセンチメントモデル開発のためのデータセット構築方法の検討および分析
高野 海斗 (野村アセット)
目的 - 資産運用業務ではニュースやレポートなど多くのテキスト情報を分析する必要がある。これを効率化するために、テキストから市場の「センチメント(ポジティブ・ネガティブなどの感情指標)」を抽出し、投資判断に活用する取り組みが進んでいる。 - 従来の研究では「ポジティブ/ネガティブ/ニュートラル」の三値分類が中心で、より細やかな「強弱を考慮した連続的な値」を出力するモデルや、それを評価するデータセットが不足している。
データセットの構築方法
景気ウォッチャー調査の先行きコメント
- 内閣府が毎月実施する景気ウォッチャー調査の「景気の先行き」に対するコメント(2000年1月〜2024年12月)を対象とし、5段階評価が均等になるよう100件をサンプリング。
人手と大規模言語モデルを組み合わせて絶対評価(Pointwise)・相対評価(Listwise)の2種類のラベル付けを実施し、相関係数や誤差から分析した。その結果、相対評価(Listwise)の方が一貫した強弱を捉えやすいことや、GPT4系モデルは人間の平均スコアと高い相関を示す一方、スコアの水準感がずれる場合もあることが明らかになった。また「コメント内の時間軸の混在」や「ポジ・ネガ要因の併存」がアノテーションを複雑化することを示し、金融におけるセンチメント定義の難しさと、その定義を活用目的に即して厳密化する重要性を指摘している。
(19) 景気ウォッチャー調査のデータセット構築と物価センチメント分析
鈴木 雅弘 (東京大学/日興アセット), 坂地 泰紀 (北海道大学)
景気ウォッチャーのデータを作成した https://github.com/retarfi/economy-watchers-survey
データ
- 2000年1月〜2024年5月までの景気ウォッチャー調査結果(現状・先行き)
- 必要な列(地域/業種など)を整形し、最終的に現状約31万件・先行き約33万件を構築。
- 毎月公開される最新データを取り込み、GitHub Actionsを使いPull Requestで差分を管理→人手確認後マージ→Hugging Face Hubに自動アップロード。
(20) 決算短信を用いた業種ごとの年間レポートの自動生成
竹下 蒼空, 酒井 浩之 (成蹊大学)
- 投資判断を行う上で、業種別に市況動向や業績の変遷を把握できるレポートは有用である。しかし企業数・業種数が膨大であり、手作業でレポートを作成するには大きなコストがかかる。
- 決算短信中に記載される「業績要因文」を業種ごとに分類し、これらの文をもとにChatGPT-4oを用いて年別かつ業種別の自動レポート生成を試みる。
データと抽出 - 対象データ: 2022年分の決算短信9,933件。 - 抽出: 既存の研究(酒井ら)の手法を用いて、決算短信から「業績の要因が記載されている文(業績要因文)」を抜き出し、合計49,605文を得る。
業績要因文について
- 業種:日本標準産業分類(小分類530)を採用
- テキスト埋め込みモデル:OpenAIの「Text-embedding-3-small」(ベクトル次元1,536)を用いて、業績要因文および業種名をベクトル化し、意味的な類似度(コサイン類似度)を計算。
- 3種類の分類手法を比較
  1. 階層型クラスタリングのみ
     - 業績要因文49,605文をクラスタ数530に分割(Ward法・ユークリッド距離)。
     - 各クラスタの平均ベクトルと業種名の類似度により小分類業種を割り当て。重複する業種は統合し、最終的に139業種を生成。
- 階層型クラスタリング + 最近傍法の併用 - 業績要因文の中に「部門」「セグメント」など5種類の単語を含むもののみでクラスタリング。
- それを除く文はクラスタの平均ベクトルとの類似度が最も高いところへ最近傍法で割り当て。
- 重複業種を統合後、最終的に131業種。
 
- 最近傍法のみ - 小分類530業種の業種名それぞれをベクトル化し、各業績要因文が最も類似度の高い業種へ直接割り当て。
- 文数が少ない業種を中分類レベルに統合し、最終的に435業種を生成。
 
- 評価方法: 3手法のいずれでも生成された共通業種のうち5業種をランダムに選び、分類結果(業績要因文→業種)を人手で正解/不正解判定。 
- 業績要因分の結果: いずれも約85〜90%前後の精度 
- 考察:業種推定精度 - どの分類手法もおおむね高い精度(0.85〜0.87)で業種を推定可能。
- ただし業種の粒度を細かくすると、より適切な業種があり得るケースが発生するなど、厳密な正解づけが難しい。
 
- 考察:レポート生成の質
- 実際の決算短信中の業績要因文を取り込むため、「売上」や「需要」への具体的な言及が含まれやすく、記事に近い内容の文が生成される。
- 比較手法(業種名のみ)だとこうした具体的文言が出ないことも多く、結果的に類似度が下がる。
- 一方、ChatGPTへのプロンプト次第で内容が左右され、またChatGPT-4oが一部の入力文を無視する場合もあるなど、生成制御には課題が残る。
 
本研究の自動生成手法は、決算短信ベースでの詳細な業種別レポートを効率的に作成する手段として有望であることが示された。
(21) LLMを用いた情報系企業のESG評価についての一考察
島津 雛子 (青山学院大学), 濱崎 良介, 大塚 浩 (富士通), 飯島 泰裕 (青山学院大学)
- 企業のESG(環境・社会・ガバナンス)への取組みが年々重要になり、欧州では2024年から「欧州サスティナビリティ報告基準(ESRS)」に基づく情報開示が始まっている。
- 日本でも財務・非財務情報を統合した報告書(統合報告書)の発行が進み、その「トップメッセージ(CEOメッセージ)」は企業の価値創造ストーリーやESGへの姿勢を簡潔に示す重要な部分とされる。
- しかし、トップメッセージを定量的に評価する手法はまだ確立されていない。本研究ではLLM(大規模言語モデル)を用いて定量的かつ容易にESG評価する手法を探る。
ChatGPTの「MyGPT」機能を利用
   - 専門的なLLMやプログラミング知識を要しない形で、ESGに特化したLLMを準備し、企業のESG分析を行う。
評価対象: 情報系日本企業の10年分の統合報告書トップメッセージ(2013〜2024年)
評価方法:
   - トップメッセージをE(環境), S(社会), G(ガバナンス), O(その他)の4カテゴリに分類し、どのカテゴリの言及が多いかを可視化。
   - ESGのフレームワークとして、GRIスタンダードやESRS基準をChatGPTに知識として与え、「企業情報」と「ESG知識」の2つのデータベースを作成。
   - トップメッセージ中の各文を4つのカテゴリに自動分類し、その正確性と企業のESG姿勢の変遷を分析。
1年分(2023年)のテスト
   - ChatGPTの分類結果と人手で付与したラベルを突合したところ、一致率は約98.2%と高い精度を示した。
   - キーワード単純照合ではなく文脈からE/S/G/Oを判断していることが確認され、有用性が示唆された。
10年分の分析(2013〜2024年)
   - トップメッセージ各年の文章を分類し、ESG言及数の推移を可視化。
   - 分析対象企業の特徴
     - 年ごとのESG言及割合は一定の増加ではなく、経営体制の刷新やサステナビリティ戦略の導入タイミングで上下。
     - 社会(S)への言及が他のE・Gより際立って多い。これは人的資本経営や社会的課題への積極的対応を示唆し、近年のトレンドを取り込みやすい企業と推察される。
     - 一方で環境(E)への言及は少なく、同社が環境対応についてあまり言及・公表していない可能性が示唆される。
考察と意義
- 従来研究ではBERTやRAG等のLLMモデルをプログラミング込みで扱う事例が多かったが、本研究ではChatGPTのGUI機能とプロンプト設計のみで企業のESG言及を高精度に分類できることを実証。
- 投資家や企業関係者などがプログラミング不要で簡便にESG評価に活用できる可能性を示した。
(22) LLMによる大量保有報告書における担保契約等重要な契約に関する情報の構造化
高橋 明久, 戸辺 義人 (青山学院大学)
- 「5%ルール」によって上場企業の発行済株式を5%以上保有した個人・法人は、取得から5営業日以内に大量保有報告書を提出する義務がある。
- 報告書には、保有株式数や取得目的、担保契約などの重要な契約情報が記載されるが、自由記述形式のため機械的な情報抽出が困難。
- 課題 : 多種多様な自然言語記述で記載される「担保契約等重要な契約」を自動的に抽出・分類し、構造化する手法が求められている。
- 目的 : 最新の自然言語処理技術(BERTやLLM)を用いて、大量保有報告書の自由記述欄から契約種別や契約内容を抽出し、構造化するための基礎的アプローチを確立する。 
- データ: 2023年1月〜12月にEDINETで公開された大量保有報告書990件から取得。 - 担保契約等重要な契約の記載がある778件を対象にし、そこに含まれる複数の契約文章を分割・整形して合計1298文の契約データを整備。
 
- ラベル付け:契約種別の分類(貸借契約、担保契約、その他契約)、契約内容の抽出(契約相手方、契約株数、開始日、終了日)。すべて人手でアノテーションし、学習・評価データを作成。
契約種別の分類タスク
- 東北大学の日本語BERTをベースにfine-tuning。3クラス(貸借/担保/その他)分類のクロスエントロピー学習を実施。
契約情報の抽出タスク(QA形式)
- 「契約相手は?」「開始日はいつ?」「株数は?」などの質問形式を設定し、BERTの質問応答モデルを構築(SQuAD類似の枠組み)。
- 各質問に対し、文章内の該当箇所を抽出(開始位置・終了位置を予測)。
- 加えて、OpenAIのGPT-4oを使用し、上記の分類タスクを行うことも試した。 
- BERTおよびGPT-4oのいずれも、貸借契約/担保契約/その他契約の3クラス分類でAccuracy=100%の結果。 
情報抽出タスク
- 評価指標: QAタスクで一般的なExact Match(EM)とF1スコアを採用。
- BERTのQAモデル:項目によりばらつきが大きく、「契約相手方」抽出でEM=0.16と低調、「契約終了日」ではEM=0.62。F1スコアでも最大0.62程度に留まる。
- LLM(GPT-4o):全項目(契約相手方,株数,開始日,終了日)でEM=0.82〜0.92と非常に高い。表記ゆれや文章構造の違いにも柔軟に対応し、高いスコアを達成。
機械学習1(5件)
(23) 多様なテンプレートと合成データを用いた大規模言語モデルの業種区分予測における知識抽出
矢野 一樹 (東北大学), 平野 正徳, 今城 健太郎 (PFN)
- 金融業界ではLLMを活用したデータ分析や業務効率化が進んでいるが、日本特有の金融知識(例:JPXの業種区分)を適切に活用できるかが課題。
- 業種区分(JPXの33業種分類)は投資判断やポートフォリオ構築に重要な指標であり、LLMが適切に学習・活用できるかが問われる。 
- 一般的なLLMは業種区分の知識を十分に学習・活用できていない(金融特化LLMであっても予測精度が低い)。 
- ファインチューニング(微調整)による知識抽出の最適な方法が未確立。
- 既存研究では知識を多様な表現で学習させることで精度向上が可能とされるが、最適なデータセット設計についての体系的な検証が不足。
目的 - LLMが持つ金融知識(特に業種区分)をより適切に抽出・活用するためのファインチューニング手法を探る。 - テンプレートを用いた多様な表現とルールベースおよびLLMによる合成データを活用し、業種区分予測精度を向上させる。 - パープレキシティと予測精度の関係を明らかにし、効果的なデータセット設計の指針を提供。
(24) 機械学習による企業業種分類の定量評価と応用
屋嘉比 潔 (大阪公立大学), 中川 慧 (野村アセット/大阪公立大学)
- 東証33業種分類やGICS(Global Industry Classification Standard)などの従来の業種分類は、企業の多角化、M&A増加、新興産業の誕生に伴い正確性が低下するという課題を抱えている。 
- Gradient Boosting Machine(GBM)を用いた機械学習モデルで、新しい業種分類を提案。 - 従来の業種分類と比較し、企業間の類似性をより正確に評価できるか検証。
- 機械学習ベースの業種分類が投資戦略(会計発生高アノマリー戦略)に応用可能かを評価。
 
データセット - 2001年~2018年の日本の上場企業データ(NEEDS-FinancialQUEST)。 - 特徴量: 財務指標(売上高、ROA、研究開発費比率、営業利益率、総資産回転率など)、市場データ(β、時価総額、株価変動率など)
- 目的変数 : 時価簿価比率(market-to-book ratio)を対数変換したものを用いる。
- GBM(Gradient Boosting Machine)を利用し、企業間の類似度を学習。業種コードを基準とせず、財務・市場データをもとに動的に企業間の類似性を算出。
- RMSE(Root Mean Squared Error)を用いて予測精度を測定。
(25) 機械学習を用いたクロスセクション予測における株価および業績シグナルの比較分析
小田 直輝 (慶應義塾大学), 中川 慧 (野村アセット/大阪公立大学), 星野 崇宏 (慶應義塾大学/理研AIP)
- 株式市場ではクロスセクション予測(複数銘柄のリターンを同時に予測する手法)が広く用いられるが、従来の手法ではリターンの非線形な変動や相互作用を十分に捉えられない。 
- 従来の研究では、将来の株価リターンの相対順位をラベルとする「株価シグナル」が主に利用されてきたが、決算期には企業の業績情報が集中して開示され、市場の変動が大きくなるため、「業績シグナル(企業業績や成長率の相対順位)」が重要となる可能性がある。 
- 株価シグナル:将来の株価リターンの相対順位をラベルとする(過去リターンを正規化)。 
- 業績シグナル :次期の企業業績(売上高、営業利益、経常利益、純利益)およびその成長率の相対順位をラベルとする。
結論 - 業績シグナル単体は株価シグナルには劣るが、リスク抑制に有効 - 決算期以外では株価シグナルの方が優れた予測精度を示す - 決算期には株価シグナルと業績シグナルを組み合わせることで、予測精度が向上 - 最適な業績シグナルは「純利益」であり、特にリッジ回帰(RR)モデルで高パフォーマンスを示す
(26) Multi-step Utility Lossを用いた深層学習モデルよる動的ポートフォリオ最適化
久保 健治 (東京大学/松尾研究所), 中川 慧 (野村アセット/大阪公立大学)
ポートフォリオ最適化と機械学習の応用
- ポートフォリオ最適化は金融分野で重要な課題であり、従来の線形モデル(CAPMやマルチファクターモデル)では市場の非線形な特性を十分に捉えられない。
課題 - 既存の手法は「銘柄間の相関構造(クロスセクション)」と「時間方向の変動(時系列)」を別々に扱っており、両方を同時に考慮する手法は発展途上。 - 多くのポートフォリオ最適化手法は取引コストを考慮していないため、実際の運用環境ではパフォーマンスが劣化する可能性がある。
目的 - 取引コストを考慮した新たな損失関数「Multi-step CARA型損失関数(MS-CARA Loss)」を提案 - 時系列方向とクロスセクション方向を同時に考慮する「Dual Attention」モデルを導入 - S&P 500のデータを用いた実証分析で、従来手法よりも有効なポートフォリオ最適化が可能か検証
(27) ボラティリティ推定機能を持つ条件付き拡散モデルによる金融時系列生成
吉田 凌也 (東京大学), 平野 正徳, 今城 健太郎 (PFN)
- 金融市場の取引戦略の評価には金融時系列データが必要不可欠だが、過去のデータのみでは、未来の様々な市場環境を想定した戦略評価が難しい。そこで、シミュレーションデータを用いた戦略評価の重要性が高まっている。 
- これまでの金融時系列生成には主にGAN(Generative Adversarial Networks)が用いられてきた。近年は、拡散モデル(Diffusion Model)がGANよりも安定した学習と高品質なデータ生成を実現し、金融時系列の生成にも活用されている。 
- 金融時系列の生成とボラティリティの推定を同時に行う条件付き拡散モデルを提案。 
機械学習2(5件)
(28) ベイズ推定における事前分布の作成にChatGPTを用いた暴落時の日経平均株価の予測
石井 成來, 堀田 大貴 (茨城大学)
- リーマンショック(2008年)やコロナショック(2020年)などのように、金融市場では大きな下落(暴落)が突発的に発生することがある。これらの暴落下での株価予測は、投資家のリスク管理およびリターン最大化において非常に重要である。
- ChatGPTを利用してガウス過程回帰における事前分布を構築し、暴落時の日経平均株価を予測する新たなデータ分析の枠組みを提案する。
- 2024年の「植田ショック」を事例として、事前分布の生成やベイズ推定を行い、予測精度を検証する。
データ
- 植田ショック(2024年8月)の日経平均株価
  - 2024年7月31日の金利引き上げ発表後、市場が急落(3営業日で約20%下落)。
  - 予測対象期間:2024年8月2日15:00~8月5日14:00(1時間足の終値)。
(29) 深層生成モデルによる金融市場の注文板の生成
高橋 友則 (総合研究大学院大学), 水野 貴之 (国立情報学研究所)
- 研究背景 - 株式市場など金融市場の構造を再現するシミュレーション手法として、高頻度取引データから「実際らしい」注文情報を生成できるモデルが注目されている。
- 従来は価格時系列データ自体の生成(GANなど)や、注文発生を表す点過程モデル(Hawkes過程)などが研究されてきたが、より直接的に「注文板全体を構成する注文の流れ(時系列)」を生成する方法の需要が高まっている。
 
- モデルの概要 - 著者らは注文情報(新規or取消、売or買、注文形式、指値価格、数量)を文字列化(トークン化)し、自己回帰型言語モデルとして扱う手法を提案。
- 具体的には、
- Transformer ベースの GPT アーキテクチャ
- 状態空間モデル (SSM) を応用した MAMBA アーキテクチャ
 この2種類をそれぞれスクラッチから学習した。
 
- トークン化には、平仮名・片仮名・アルファベットの文字を組み合わせる独自の方式を用いている。これにより、整数値(指値価格・数量)とカテゴリ(新規/取消など)をまとめて「文字列」として符号化している。
 
- データと実験 - 学習データとしては、2021年1月の東京証券取引所のトヨタ自動車株(銘柄コード7203)前場(9:00~11:30)のザラバに発生した注文情報を使用。
- ザラバ中の売買・新規/取消・指値価格・数量などを連続するトークン系列とみなし、GPTとMAMBAを訓練。
- 生成結果として、実際の注文推移と類似した連続的な「売買注文の流れ」が再現可能であることを示している。
 
(30) 機械学習モデルを用いたシミュレーション分析:地方債市場における会計情報の寄与
原口 健太郎, 丹波 靖博 (西南学院大学), 池田 大輔, 阿部 修司, 大石 桂一 (九州大学)
日本の地方債市場を事例として、会計情報が債券金利(対東京都債のスプレッド)にどのような影響を与えているかを、機械学習モデルおよびシミュレーション的手法を用いて分析した研究です。従来の回帰分析(OLS)が非線形関係を捉えにくく、また機械学習モデル単独では「他の説明変数を固定してテスト変数を変動させる」分析が困難であるという課題を踏まえ、仮想グリッドデータとSHAPを組み合わせる新たなフレームワークを提案ています。
機械学習モデル(XGBoost)を訓練したうえで、そのモデルに仮想グリッドデータを入力することで、「一部の説明変数(テスト変数)だけを段階的に変化させ、他の説明変数(コントロール変数)を固定する」シミュレーションを可能にする手法を提案。さらに、モデルの解釈にはSHAPを用いることで、予測に対する各変数の寄与度合いを可視化する。
結果と考察
- 本研究では、「機械学習モデルで学習→仮想グリッドデータでシミュレート→SHAP で解釈」という枠組みを提案し、日本の地方債市場における会計情報の非線形かつ強力な寄与を実証した。
- 暗黙の政府保証があるとされる地方債であっても、財政状態の悪化は金利上昇に結びつくことを示唆しており、投資家が「クレジットリスク」をある程度織り込んでいる可能性がうかがえる。
- この枠組みは会計・ファイナンス以外でも「定式化が難しいが非線形関係が疑われる」現象分析に広く応用できる。機械学習モデルの評価・精度検証の際には、試行回数を増やし、平均収束を確認する手順が重要である。
(31) KANベース自己符号化器を用いた国債イールドカーブのファクターモデルの構築
水門 善之 (野村證券/東京大学), 米田 亮介 (野村證券)
国債イールドカーブを表す三因子モデル(レベル・スロープ・カーヴァチャー)を、自動符号化器(オートエンコーダ)の枠組みで構築し、さらにその中核モデルとして Kolmogorov-Arnold Network (KAN) を活用する手法を提案しています。
- 国債イールドカーブ: 短期から超長期までの国債利回りを連続的につないだもの。マクロ経済や需給要因などが複合的に影響し、日々変動する。
- 三因子モデル: イールドカーブは大きく「水準(レベル)」「傾き(スロープ)」「曲率(カーヴァチャー)」の3種類の因子(ファクター)によって概要を捉えられるという考え方が広く知られている(例:Nelson-Siegelモデル)。
- Kolmogorov-Arnold表現定理: 多変数の連続関数を一変数関数の重ね合わせで表現できるという定理。KAN は、この重ね合わせを多層化して表現力を高めたネットワーク構造。
 
自己符号化器構造
   - 入力層: 2, 5, 7, 10, 15, 20年など主要年限の国債利回り(週次データ)。
   - 中間層: 3ノード(圧縮表現によりイールドカーブを3次元空間に写像)。
   - 出力層: 元のイールドカーブ(入力と同じ次元)。
   - 学習データ: 1992年7月~2024年12月までの週次国債利回り。
三因子との対応
   - 学習を終えた中間層の3ノードを時系列で可視化すると、それぞれ「水準(2年債利回りに近い動き)」「傾き(長短金利差に近い動き)」「曲率(バタフライスプレッド等に対応)」を表していることがわかる。
   - 従来のニューラルネットワークによる自己符号化器でも同様の結果が得られるが、KAN を使うことで中間層のノードを計算する関数の構造を可視化し、その解釈をより直接的に確認できる。
KAN固有の利点: 関数形の解釈
   - KAN は「入力層 → 中間層」「中間層 → 出力層」を結ぶ近似関数をスプラインなどで明示的に定義する。
   - 実際に得られた関数形を調べると、水準ノードは全年限の金利とほぼ比例関係、傾きノードは短期と長期で符号が反転、曲率ノードは中期と超長期に対して反転、といった形が確認できる。
   - これらのパターンが「実際のイールドカーブにおける水準・傾き・曲率の変曲点」と整合しており、モデルの解釈性を高める。
まとめ
- 提案手法の有効性 - KAN を自己符号化器として用いることで、日本国債イールドカーブの動きを自動的に3ファクター(レベル・スロープ・カーヴァチャー)に分解できる。
- 従来のオートエンコーダでも同様の因子抽出は可能であったが、KAN の「関数形状を直接確認できる」という特長により、学習後の解釈がさらに明確になる。
 
- 今後の応用可能性 - イールドカーブだけでなく、他の金融時系列や複数の説明変数をもつ現象に対しても、「KANベース自己符号化器を使ってファクターを抽出し、そのファクターと入力との関数関係を可視化する」手法が適用できる可能性がある。
 
(32) 有価証券報告書と統合報告書を活用したESG投資のためのオントロジー構築と生成AIによる情報抽出
大堀遼介 (ulusage)
企業が開示するサステナビリティ関連情報(有価証券報告書、統合報告書、ニュース記事など)をもとに、環境・社会・ガバナンス(ESG)に関わる情報を一元的に活用するためのナレッジグラフと質問応答(QA)システムの構築手法を提案しています。
有価証券報告書や統合報告書などに分散するESG関連情報をナレッジグラフとして統合し、さらにGNN・LLMを活用して知識補完とQAを高度化する方法論を示しました。構築されたGraphRAGシステムにより、ESG投資のための情報を一貫して検索・推論し、根拠の明確な回答を提供できる基盤技術が確立されつつあるといえます。
雑感
上記の通り、テキスト情報の扱いが増加しています。LLMの出現以降、その流れが加速しているように思います。 この研究会の歴史をまとめた発表もありましたが、規模が大きくなり2日間の開催が定着してきましたね。注目度がより高まっていることがわかります。