私が書いた金融レジリエンス情報学レポート(一部)

金融レジリエンス情報学という授業をとっていましたが、成績もでたことだし、
提出したレポートの一部を公開しようかと思います。
正確性に欠ける部分もあることは分かっていますが、なにかしら、
参考になるものを書けたんじゃないあかなぁ、って思いましたので。

() 講義回3 つの回について
() 1017 
   講義概要
金融市場おいてしばしば危機が発生し場合によっては実態経済へも打撃を与える。そのため、リスク管理手法の開発や規制や制度の導入することによって金融危機を起こさないようにすることが極めて重要である。近年に起きた金融危機の特徴を概観し、それを防ぐためのリスク管理手法、規制や制度の発展の歴史を振り返った。
そもそも金融危機とは信用収縮によって起こる。金融市場は将来の価値を現在取引する場であるが、将来価値を受け渡せない懸念が広がると取引を停止して投資や融資をやめようとする。それが連鎖的に広がると、つまり取引相手への不信が連鎖すると、経済の血液であるキャッシュが循環しなくなり金融市場の機能が低下する。それは当然、モノの交換へ影響を及ぼし実体経済へ打撃を与えることになる。
1987年におきた金融危機ブラックマンデー」では、米国の貿易赤字がファンダメンタル的な要因とされているがポートフォリオインシュアランスという取引が引き起こしたテクニカルな危機であるとも言われている。このように金融危機の直接の原因は分からない場合もしばしばある。ポートフォリオインシュアランスとは株価が下がると売却、あがると買い増しという機械的な取引で、当時はこれが普及し多くの投資家が同じような投資行動をしていたといわれる。このような多様性が失われ同調的な投資家行動が金融危機を引き起こしたといわれている。ブラックマンデーを機に、価格変動が大きい場合に市場を一時的に停止するサーキットブレーカー制度が導入された。
2007年から2008年にかけて起きた金融危機サブプライムショック」および「リーマンショック」は証券化商品へ大量の資金が流れこんでバブルが形成され、そのバブルが崩壊することで起きた危機である。証券化商品に資金が流れ込んだのは、他の資産に比べ高い利回りがあるわりに高い安定性があると錯覚したからである。その錯覚を生み出したのは格付けである。格付けとはその債券が滞りなく返済される安全性を分析したものである。しかし、証券化商品につけられた格付けは伝統的な債券の格付けと比べ主に以下の2つの問題があった。
1つ目は過去のデータに過度に依存した方法でリスクが分析されたことにある。多くの証券化商品は歴史が浅く一度も金融危機を経験していないデータを用いてリスクを計測され安全とされた。また、他の資産との価格変動の相関は低いとされたが実際の危機時には高い相関を示した。金融工学と呼ばれる分野ではこのような計算手法を用いることが多く、またこのような欠点は金融工学をよく知る人たちの間では当然のようによく知られていたが、実際に証券化商品を購入する人はほとんどこのような欠点を理解していなかった。そのため、安全であると錯覚した。2つ目は証券化商品ごとに格付けの定義が大きく異なったことである。特に証券化商品をさらに統合・再分解した再証券化商品においては、元の証券化商品の中での比較で安全、という意味で格付けがつけられた。そのため、伝統的な債券である国債につけられた最上位格付けAAAと、再証券化商品につけられたAAAは全く意味が異なったにも関わらず、多くの投資家がその意味の違いに気づかず、国債並みの安全性で高い利回りが得られると錯覚した。この教訓を元に、格付け会社への規制が強化された。
 
   考察
金融危機の原因として、利回りが高いわりに安全と錯覚された資産や手法に、資金が流入するという共通の現象が見られることが分かった。いったんこのようなものが利回りを稼ぎ出し資金流入し始めると、それらの買い注文により価格がさらに上昇し、利回りが強固なものとなると同時に、過去のデータだけを見ると安全性がますます高まったという錯覚に陥る。このようなポジティブ・フィードバックが金融危機の主たるメカニズムになっていると考えられる。このような系はマクロ現象とミクロ現象が密接に相互作用する複雑系であると考えられる。現在、金融危機を議論する際の主力とされる分析手法がこのような複雑系を扱えない、静的な統計手法を用いた金融工学や実証研究であることが大きな問題を引き起こしているかもしれない。そして、金融危機を防ぐ規制・制度の議論も、科学的な検証を行わない、非科学的な信条にもとづく議論になりがちで、規制・制度が導入・廃止を繰り返す場合があるなど、発展しているとはいえないのが現状であるとも考えられる。
 
() 1121
   講義概要
銀行の連鎖倒産による金融危機をシミュレーションで分析する研究について述べられた。銀行は企業にお金を貸す融資事業を行っているが、銀行間でもお金を融資しあっている。融資は株式投資の売り手買い手の関係とは異なりずっと関係が続く。銀行間の融資は常に、貸している・借りている関係がネットワーク状に存在する。ひとつの銀行が破綻すると必ずそこにお金を貸している銀行が存在し、そのお金が回収できないがために破綻し、さらに他の銀行が貸付を回収できない、といった連鎖が生じる可能性がある。銀行間の融資だけでなく、例えば、同一の企業へ複数の企業が融資している場合もある。また、銀行は融資以外にも資産を投じる場合があり、株式や不動産を持つ場合もある。複数の銀行が同一の株式を所有し、その株式の価格の下落によって、複数の銀行が危機に陥る場合もある。このように、銀行間のネットワークは直接融資でつながっているだけでなく、他の資産を介して間接的にもネットワークが構築されている。
しかし、この複雑なネットワークが連鎖倒産といった金融危機をどのように引き起こすか、ネットワークがどのような性質を持つかなどは殆ど理解されていない。現在まで主力の分析手法であるマクロ経済学などは、各要素をばらばらに取り扱う統計的な手法であり、ネットワークを考慮した複雑性を分析したものではない。このような手法は、平衡状態を前提としており動的な分析ができないため、ネットワーク構造上のカスケード現象やミクロ相互作用により発現するマクロ現象も扱えない。そのため、実際に、2007年から2008年にかけておきたサブプライムショックでは、想定をはるかに上回る大型連鎖倒産が発生し、最終的に世界で最大手の証券会社(投資銀行でもあった)であるリーマンブラザーズまで破綻することとなった。この例からも銀行間ネットワークがどのような性質を持つのかを分析する重要性は極めて高いことが分かる。
講義で紹介された銀行間ネットワークのシミュレーション研究は、銀行を模したエージェントは比較的シンプルなモデルで、ネットワークの形状は現実に近いものとしている。個々の銀行の詳細な性質ではなく、それらが集まったときのネットワークの性質など、複雑性に着目した研究である。
分析結果の主な示唆は以下のとおりである。各銀行の投資や融資(以下、投融資)は、均一的なほうが、平常時においては、各銀行は安全である。しかし、連鎖倒産が起きるような大きな危機時においては、投融資が均一であるほど連鎖倒産が起こりやすく危険な状態となる。この結果から、サブプライムショックのときに、似たような証券化商品に多くの銀行が飛びついたことによって、連鎖倒産が起こりやすくなってしまったと解釈できる。そして、銀行は多様な投融資を行い、各銀行が特徴をもったポートフォリオを持つことが金融危機を防ぐ優れた方法であることが示唆された。また、現在世界で議論されている規制(バーゼルⅢ)の主要な規制である自己資本規制は、あまり効果がないことも示唆された。
 
   考察
では、これらの結果を受けて、実際にどのような規制・制度を導入すればよいか、というのは大変難しい問題である。なぜなら、基本的に規制の導入は、銀行の行動を均一化するからである。多様な投融資を促進する規制というのは、少なくとも今のところ発明されていない。規制のジレンマである。
また、個々の銀行の財務基盤を強くする、という目的のために当局主導で行われた銀行同士の合併も、銀行の行動を均一化するものである。このように、個々の銀行にとっての部分最適を行うたびに、また規制の強化のたびに、多様性が失われ、かえって連鎖倒産の危険性が高まっているのが現実のようである。しかも当局の方針として、一行もつぶさないために合併をさらに勧め少数の財務基盤が強固なメガバンクに集約されようとしている。この一行もつぶさない方針が、逆にネットワーク上にひとつでも穴が開けば次々と連鎖する脆弱性を生んでしまっていることも事実のようである。

 
() 1219
   講義概要
いわいるトレーディングコストとトレーディングコストを削減するためのアルゴリズム取引技術、および高頻度取引に関して述べられた。トレーディングコストとは、注文を委託された証券会社や取引所に支払う手数料と自分自身の売買注文によって動いてしまう価格変動のことであるマーケットインパクトなどがある。マーケットインパクトは実際に取引したときにしか発生しない見えないコストであり、机上の売買をした場合では測定できないものである。そのため、机上のポートフォリオのパフォーマンスと実際のポートフォリオのパフォーマンスには大きな差ができる。その差がまさにトレーディングコストであり、机上のポートフォリオではどうしても反映できないものとしてマーケットインパクトがある。
マーケットインパクトを削減するために、アルゴリズム取引が用いられる。大量の注文を一度に出してしまうと、板上にある複数の注文と対当してしまい、それだけで価格を大きく(不利な方向に)動かしてしまう。そのため、注文を小刻みに出すことが必要となるが、取引所の注文応答時間ナノ秒単位まで高速化しているため、手作業での注文作業は難しく機械が自動的に注文を小刻みに出すこととなる。そのときのプログラムがアルゴリズムとよばれるものである。
アルゴリズム取引は、他の市場参加者に気づかれないように注文をさばくことが最も重要な役割となる。その注文量がばれてしまえば、高頻度取引の餌食になってしまう。高頻度取引はその名のとおり高頻度に注文を出し入れして単純に収益を狙うものであり、99円の買い100円の売りといった近い価格の売り買いの注文を同時に出し続けて小刻みに収益を狙うマーケットメーカー戦略がもっとも多いと予想されている。しかし、アルゴリズム取引の行動を先読みして収益をとる戦略も存在すると言われており、そのような高頻度取引の戦略の餌食となって、不利な売買を強いられて、結果マーケットインパクトが大きくなってしまうことは最も避けなければならないことである。そのため注文間隔や注文数量は乱数を使うなどして規則性を消す工夫がなされている。また、時間帯によって取引量は異なるため、時間帯ごとの取引量(ボリュームカーブ)を推定し、そのボリュームカーブを壊さないように時間ごとの注文量を調節する工夫もされている。
アルゴリズム取引に用いられるプログラムは、アクティブにトレーディングコスト削減を狙うというよりは、パッシブに、期待通りで分かりやすい結果を出せることを主眼においているようだ。これは、アルゴリズム取引自体は道具であり、他で練られた投資戦略を実現するためのツールでしかないという考え方から来ている。さらに、プログラムを開発する人と使用する人が別であることが殆どであるため、説明のしやすさ、挙動の理解のしやすさが重要であり、ブラックボックスにできない、という技術的な理由もあると考えられる。
高頻度取引にはマーケットメーカー戦略にもいろいろ存在するが、その一例としてダークプールと通常の市場との鞘取り戦略が紹介された。ダークプールは、自身で取引価格を決めるのではなく、通常の市場の最良買い注文と最良売り注文の間の値段で決める場合が多い。投資家にとっては便利な仕組みであるが、それを逆手にとってダークプールでの価格形成を操作して鞘取りを行う戦略があるのである。
 
   考察
アルゴリズム取引では作成者と使用者が異なるため説明しやすいロジックが組まれているという話があった。ボリュームカーブの推定は直近数日の過去のデータから推定される場合が殆どであることから、逆に、アルゴリズム取引が一度形成されたボリュームカーブを変化しないように形成している可能性があると考えられる。アルゴリズム取引がなければ、ボリュームカーブが日々変化するはずだったところを、アルゴリズム取引が過去のボリュームカーブにそって注文量を出すため、過去のボリュームカーブがアルゴリズム取引自身によって形成されるからである。過去のボリュームカーブで推定できる事実が定着すると、ますますこのやり方以外がうまくいかなくなり、投資家が使うボリュームカーブの推定方法がますますひとつの方法に収斂していくという、ポジティブ・フィードバックが発生すると考えられる。そのため、ボリュームカーブの推定方法は多様性を失い、均一なものになっていく可能性がある。また、説明のしやすさ・理解のしやすさと性能の高さを説明しやすいものを追及すると、やはりアルゴリズムのロジック全てが、均一になっていく可能性すらある。実際、使用されているアルゴリズム取引はVWAPとよばれるパッシブな手法が多くを占めているといわれている。このような多様性の喪失は、先の(Ⅰ)、(Ⅱ)で述べたものと同様に、平常時にはより安定で、市場混乱時はより危険なものになっていっている可能性を指摘できるだろう。
 
(イ)課題
 上で述べた(Ⅰ)、(Ⅱ)、(Ⅲ)にはある共通点がある。それは、
 (a)  平常時は既存の分析方法で、部分(個別)最適化でうまくいく
 (b)  金融危機や市場混乱時はその最適化が逆効果となって危機を助長する
 (c)  部分最適化は、投資家の多様性の消失を招き、それが危機助長の原因となる
簡単に振り返れば、()においては、多くの投資家が高い利回りでかつ安全と錯覚した商品や手法に集まり平常時はみな高い利回りを得る(a)。しかし、いったん危機が起こると皆が同じように損失をこうむり、損切による価格下落によりさらに損切を招くというポジティブ・フィードバックによる暴落が発生して金融危機となる(b)。この原因は、利回りが高い商品に投資家が飛びつく過程で買い支えにより利回りの高さが維持され、過去のデータを見る限り安全で利回りが高いという事実が作り上げられてしまう(c)
(Ⅱ)においては、銀行の平常時に有効なで安全な投融資は均一なものである(a)。加えて、一行もつぶさない当局の方針によりメガバンクへの集約化は完全に均一化を招く(a)。投融資の均一化は危機時の連鎖倒産を引き起こす(b)(c)
 (Ⅲ)においては、アルゴリズム取引は過去のデータからの単純なボリュームカーブの推定がもっとも当てはまりがよく、また、ツールとしての使いやすさ追求のため理解しやすいパッシブなものである(a)。市場が急変し取引量が急上昇すると、ボリュームカーブの当てはまりがとても悪くなり、多くのアルゴリズム取引が、一時撤退といった一様な対応をとる(b)。多様性がない一様な撤退行動により市場急変が助長され市場混乱を引き起こす(c)。といった具合である。
 実は、このような例は金融市場の多く見られ、後で2つ例をあげるが、上記の3つの例も後で述べる2つの例も、金融情報技術の普及と大きなかかわりがあると考えられる。そして、先にこれらの現象の対応の難しさと、今後必要な研究分野について述べておく。いずれの例においても、平常時にはよりよい方法・商品に飛びつく、というプロセスが存在する。情報技術の発達により、このよりよいように錯覚された手法・商品を見つけるのが高速化された。高速化のみならず、均一であったりある特定の1つのものに絞ることまでできるようになった。情報技術が発展する前ではベストの1つを見つけるのは困難で、飛びついたとしてもそこに広がりがあった。しかし、情報技術を駆使して、平常時に最適なものを深く探しに行くと、多くの投資家が同じ解にたどり着いてしまう。そして、そのベスト解に集まってくる行為自体が更にそれを良いものにしてしまう(少なくとも過去データ上は)という、ポジティブ・フィードバックが発生する。助長されてしまうのだ。
 ポジティブ・フィードバックが起こっている最中は、それが金融危機を引き起こすものとなることが気づかれないことが多い。本来であれば、発達した情報技術を用いて、エージェント・シミュレーションやビッグデータ解析を用いて、複雑系の動的なミクロ・マクロ相互作用を分析して議論すれば、それに気づくこともできるはずである。しかし、問題は、金融情報技術が平常時の部分最適化に多く使われ、危機時の複雑系の分析にはまだ多く使われていないことである。この分野の研究者、実務者が増えなければ歴史は繰り返してしまう恐れもある。
 さて、2つの例を挙げていく。1つ目は20078月に起きた。いわいるクオンツショックである(Khandani and Lo, 2007が詳しい)クオンツファンドとは、定量分析の結果を用いてポートフォリオを構築するファンドであり、ほとんどが、PBRPERなどのファクターとよばれる個々の企業の特徴的な量を用いている。説明変数をこれらファクターとし、被説明変数をリターンとして、各組み入れ企業のポートフォリオ内のウエイトを決定する。ここで、被説明変数は過去のリターンであったため、説明変数や回帰(学習)の仕方がどのようなものであっても、ポートフォリオが似てしまう(水田ら2009に詳しい)。つまり、ポートフォリオの多様性が失われ、均一になってしまう。皆が同じようなポートフォリオを組むため、平常時は、すでに保有している企業の株式を他の人も同じ企業の株式を買うため、回帰(学習)を行った際、ますます同じ企業が選ばれるよというポジティブ・フィードバックが働く。しかし、いったん、逆のことが起これば、皆が損失をこうむることなり、誰かが損切をして価格が下がると、同じような銘柄を持つ別の人も損切を迫られさらに価格が下がるという逆の循環が発生し市場が混乱する。20078月にはまさにこの逆流が発生し、クオンツファンドのみが打撃を受けるという現象が発生した。これはまさに、金融情報技術の発達により、平常時の部分最適化が進みすぎて多様性を失い、市場混乱時にポートフォリオ間でのネットワーク上で損失の連鎖が起きてしまい、この複雑性の分析を行って議論していなかったために、混乱が大きくなった。
 2つ目の例は、スウェーデンの年金基金の分割に関してである( 2007が詳しい)スウェーデンの年金基金はかつて現在の日本のGPIF(年金積立金管理運用独立行政法人)のようにひとつの巨大な基金であった。しかし、資金が大きすぎて運用しづらいこと、運用先や手法の多様性を確保できないことから、主に4つ(AP1AP4)に分割した。分割された4つの基金は、あえて、組織形態、ガバナンス、運用目標、主要人員のバックグラウンド、人事制度や給与体系などが全く異なるものとした。当然、まったく性質の異なる組織が異なる目標のもと行う資産運用であるから、運用先や手法の多様性が確保され、リターンもバラけると考えられていた。ところが、運用先はそれほどバラけることがなく、さらに驚くべきことに、リターンは4つの基金で殆ど同じものとなった。これは、金融工学の功績であるモダンポートフォリオ理論などを用いて資産の配分先を決めた場合、過去のデータを精度良く活用すればするほど、手法が多少異なったとしても結論が似てしまうことに由来すると考えられる。過去のデータからは最適なものが、金融情報技術の発達により、より精緻に求められたため、同じような結果を導いてしまった。そして、基金内での理解の得やすい手法を選考したり、または基金の上司である政府への説明のしやすさを重視する手法であればあるほど、同一の結果を導きやすい、という側面もあったであろう。
 これらの例を端的にまとめると、金融情報技術の発展は平常における安定性、効率性を飛躍的に向上させたことは間違いない。しかし、複雑性の考慮の欠如、しかし本来ならシミュレーションやビッグデータ解析などで複雑性の分析も進展すべきなのであるが、それが遅れをとっているために、市場混乱時・金融危機時の、混乱・危機の大きさはますます大きなものとなってしまっている。
 
参考文献
Khandani and Lo, 2007: “What Happened tothe Quants in August 2007?”, SSRN, < http://papers.ssrn.com/sol3/papers.cfm?abstract-id=1015987>
水田ら 2008: “精密で複雑なクオンツファンドは優れているか?”, 証券アナリストジャーナル, 200810月号
2007: “スウェーデン公的年金のガバナンス”,資本市場クォータリー, 2007年秋号 <http://www.nicmr.com/nicmr/report/repo/2007/2007aut15.pdf>