今回目を通した論文はこちらの3本目。
信用リスク研究において、intensity-based モデルを用いて default contagion を表現する方法として、私個人としてはGiesecke 流の top-down 的な方法論の可能性を研究していますが、 今回紹介する論文は bottom-up の視点でモデル化しています。
CDSのプレミアムや k-th-to-default swap のプレミアムの計算が目的ですが、
computational finance の話題に重点が置かれていて、自分たちが提案している大規模行列モデルをimplement するための限界というか実務での落としどころを探っているような書き方という印象で、読んでいて面白いです。
この論文で採用しているデフォルト強度は、ポートフォリオ内の他の企業がデフォルトした時点で、そのデフォルト企業との関係で決まる量だけ強度がジャンプするというもので、Markov jump 過程の形で定式化できることを数学的に主張しています。
彼らが言う状態とは、m 個の企業のデフォルト状態を 0 or 1 を成分とする m 次元ベクトルで表すものなので、状態数は 2^m 個ということになっています(彼らは数値計算例では m = 15 までトライしている)。
結果的に、デフォルト強度はそれまでにどこの企業がデフォルトしているかだけに依存した形になっています。どういう順番でデフォルトしたかを反映させることはモデル上は可能だが、定式化が煩雑になり、実際の計算量が爆発的に増加するとコメントしています。また、Hawkes モデルのように、強度がデフォルトした時刻に依存するものは、彼らの枠組みでは扱いにくいというコメントもあります。
k番目のデフォルト時刻の分布および、k番目のデフォルト企業の確率を計算するために、大規模な行列計算を用いた分析法(matrix-analytic approach)を導入しています。そのあたりの計算ロジックはきちんと見ていませんが、R とか matlab とかでは実装しやすい感じになっていると思います。
数値実験においては、15のTelecom 企業の5年CDS スプレッドを用いて、それぞれの銘柄の初期デフォルト強度だけを (semi-)calibrate しています。 contagion に関するパラメータ(dependence matrix)は所与としており、そのせいで "semi-"calibrate と書いています。
7章で、dependence matrix を推定/calibrate するための方法についていくつか挙げています。
あと、計算上は行列のexponential の計算が避けられませんが、それについては uniformization method(randomization method) が、大規模かつ sparse な行列に対するexponential の計算には、他と比べて実装しやすいと述べていて、そのアルゴリズムを紹介しています。
最後に、20 obligors までは直接この方法が適用できるだろうとということと、より大きなポートフォリオに対しては、対称性の利用やsubportfolio への分割が考えられるとして締めくくっています。
0 件のコメント:
コメントを投稿