AIは資産運用の世界を変えるか


米グーグルの研究部門であるGoogle DeepMindが開発した囲碁AI(人工知能)「AlphaGo(アルファ碁)」と、韓国のプロ棋士イ・セドル氏が2016年3月9日~15日に韓国で相まみえた五番勝負は、イ・セドル氏が第四局で一矢を報いたものの、4勝1敗でAlphaGoの圧勝に終わりました。この五番勝負は、ディープラーニング(深層学習)がこれまでの想像を上回る速度で進化していることを示す事例として大きな衝撃を与えています。

1997年にチェスの世界チャンピオンがスーパーコンピュータに敗れて以来、複雑な判断を要する知的労働の分野でも人間の仕事を機械が十二分に代替できることを多くの人が感じていましたが、それにはまだ時間がかかると考えられていました。しかし今回の事例は、単純にコンピューターの計算速度が速くなったということではなく、手法の革新により一気にその速度を速めたと言えます。つまり、超高速の計算能力を生かしてしらみつぶしにあらゆる手を検討するという手法から、コンピューター自身が自己学習する能力を持つようになったことで、人間が経験によって学ぶのと似たプロセスで、直観に似た判断やあいまい微妙な判断も行えるようになってきたわけです。

AlphaGoには、囲碁のルールすら組み込まれておらず、過去の棋譜を入力する「教師あり学習」と、勝利を報酬に囲碁AI同士を対局させて鍛える「強化学習(教師なし学習)」だけで、世界最強と称されるプロ棋士を破るまでに成長しました。AlphaGoは2015年10月の時点で、3000万局もの自己対局をこなしたと言われています。この対戦数は、プロ棋士1000人が、毎日対局したとしても100年以上かかる対局数です。すでに、AlphaGoのレベルが世界のトップ10近くにはなっていると考えると、未知の定石や打ち筋といったイノベーションを生むスピードでは、コンピューターは囲碁の領域で「シンギュラリティ(技術的特異点)」に到達したといます。今後は、プロ棋士がコンピューターの生み出すイノベーションを活用し如何に自分たちの実力向上に活かすかにテーマが移ることになるでしょう。

さて、AlphaGoでも用いられているディープラーニングはプレーヤーが全情報を把握できる「完全情報ゲーム」でなくとも、適切な「入力データ」と「教師データ」「報酬データ」を用意できれば自己学習によって実力を高めることができます。それにより、これまで人間が担っていた「認識」「検知」に関わる領域、例えば画像認識、音声認識によって、サイバー攻撃の予兆検知や医療用画像の解析などで、人間を超える精度を実現しつつあります。おそらく、これまでは多くのファクターがありすぎて人間を超えることが難しい分野とされていた資産運用でも活用される場面が増えてくるでしょう。

しかし、今回の五番勝負では、ディープラーニングを資産運用で活用する上での課題も出てきました。

 大きな課題は、AIが明らかに誤りと思える判断を出力した場合にも、その原因の解析が極めて困難であるということです。イ・セドル氏が勝利した第四局では、AlphaGoは明らかな悪手を繰り返した後に敗北しましたが、その原因は当のDeepMindのメンバーにも分からなかったそうです。通常のプログラムであればコードを追跡して原因を突き止めることができますが、ディープラーニングには人間が読める論理コードはなく、各ニューラルネットの接続の強さを表すパラメーターしか存在しないため、そのアルゴリズムは人間にとってブラックボックスになっています。また、例え結果的に正しい判断であっても、人間にはまったく理解できない行動を取る場合がありその説明も困難です。AlphaGoが勝利した第二局では、プロ棋士の解説者は「なぜAlphaGoの奇妙な打ち手が勝利につながったのか、理解できない」といった言葉を繰り返しました。つまり、従来のコンピューターによる処理と異なるディープラーニングによる判断は説明能力の上で大きな課題があるということです。

ここで、年金など機関投資家の運用を考えてみましょう。90年代に入り年金を中心に機関投資家の組織運用が発展する中で、我々は常に「説明できる運用」が求められてきました。直感などによる説明できない部分を排除し可能な限り論理的に説明を行い「再現性の高い運用」が必要とされてきたわけです。この説明力はアセットマネージャー(運用会社など)とアセットオーナー(年金基金など)の間でも特に重要とされてきました。つまり明確に説明ができ再現性があると判断できるからアセットオーナーは適切にアセットマネージャーを選択することが出来るとされてきたわけです。

では、今後ディープラーニングに基づくAI運用が明らかに人間のファンドマネージャーを上回る運用パフォーマンスを上げてきたとき、なぜパフォーマンスを上げているか説明できないからそれに委託しないことが適切と言えるでしょうか。逆にAI運用が明らかにおかしな判断を繰り返した時、それに対してなんら手を打たないことが許されるでしょうか。

また、AIであれば理由を説明することなく、コンピューターの直感で判断できることが許されるのに、人間が運用を行う場合にはすべて説明することが必要とするのは合理出来でしょうか。もちろん、人間が運用を行う際に、不振が続けばその理由を説明することは必要でしょう。しかしその事と常に説明しながら運用を行うことには大きな差があります。今後人間とAIが競い合う状態となったとき、どのような縛りが適切かを真剣に考え直すことは必要になるのではないでしょうか。このことを突き詰めると資産運用におけるガバナンスの考え方を変えるきっかけにもなるのかもしれません。




 

ご意見ご感想を送信する

入力した情報が公開されることはありません。

内容をご確認の上、送信してください。