AI and Compute

参考

メモ

AI and Compute は、ムーアの法則を超えるペースで、計算量が増大していることを示すブログ。 以下にポイントを示す。

導入

2012年ころからAIの学習に用いられる計算量は3.5か月あたり2倍に増えてきた。 (ムーアの法則では18か月あたりに2倍)

学習に用いる計算量をペタフロップス/dayで表したグラフ に計算量増加のグラフが載っている。 AlexNetから始まり、AlphaGo Zeroまで。 30万倍になった。

概要

AIを進化させた3要素。

  • アルゴリズムの進化
  • データの改善
  • 計算可能量の増大

ここでは計算可能量の増大に着目。 特にひとつのモデルを学習するのに用いられる計算量に着目。 概ね10倍/年ペース。 これにはそれ用のカスタムハードウェア(GPU、TPUなど)の導入に加え、 計算リソースを並列処理で使い切る手法の改善も寄与している。

時代

  • 2012年より前
    • 機械学習向けにGPUを使っていなかった
  • 2012年〜2014年
    • 1〜8個程度のGPUを使用
    • 1〜2TFLOPS
  • 2014〜2016年
    • 10〜100GPUを使用
    • 5〜10TFLOPS
  • 2016〜2017年
    • TPUなどが登場
    • アルゴリズム上も並列度がとても高まった。

将来展望

多くのベンチャーがHWを開発。例えばFLOPSあたりの単価を下げる効果が期待される。 アルゴリズム側も進化を続けている。

一方で費用と物理制約の影響は大きい。 例えば、最も大きなモデルを学習するのに必要な計算リソースは100万ドル=1億円である。 一方で、現在の多くの企業が支払っているのは、学習よりも推論側である。したがって、バランスを考えると 学習にもっと支払えるはず。 世の中のHW購入のバジェットは1兆ドルといわれており、その数字に照らし合わせるとまだまだ拡大の余地が残っている。

付録

計算方法についての補足が載っている。 FLOPSを直接計算可能な場合にはそうしたし、そうでない場合は使用したGPU数などから算出した、とのこと。 多くのケースで著者にも確認したそうだ。

共有