2017年5月26日

 

 

 

 

 

謎の半導体メーカー?NVIDIAの台頭

 

 

 

 

 

超巨大安定企業インテルのCPUを脅かすGPU企業のパラダイムシフト

 

 

 

 

 

 

 

 5月22日のツイッターのトレンドに「謎の半導体メーカー」という文字が踊りました。何かなと思ったら、なんとNVIDIAのことでした。

 

 

 一種の炎上状態になっていましたが、ある新聞が読者を引き付けるためにそのような見出しにしたようです。IT業界やゲーム業界の中では昔から有名な会社だからです。しかし、一般的にはまだまだ知られておらず、まずどう読んでよいかわからないことがツイッター上で話題になっていました。

 

 

 NVIDIAはGPUの会社で、これはグラフィクス・プロセシング・ユニット、画像を表示するために必要な計算を行う半導体装置ということで、CPUの画像・映像演算特化バージョンといったところです。ですから、ゲームの回路には昔から使われており、ゲーマーからはなじみ深い企業名ということでした。

 

 

 それが今、猛烈な評価を受けています。日本で急に名前が挙がったのは、先日の報道にあったように、トヨタとの提携ニュースが原因だと思います。それほどにGPUは大きな事件だったのです。それはGPUこそがディープラーニングで最も進歩の著しい画像解析に威力を発揮し、これがなければディープラーニングはまだまだ試験段階から一歩も出ていなかった可能性があります。

 

 

 それがアマゾンの画像認証による店舗 Amazon Goや何よりも、グーグルが一抜けをしている自動運転車開発ではなくてはならないものとなりました。なぜなら、画像認識以前は光のレーダーである測量機器であるライダーを中心としたセンサーでのみ、自動運転車の開発が進められていたからです。

 

 

 それでもNVIDIAは何度も廃業しかけました。それが一気に形勢を逆転したのは、リーマンショック後に、研究者やヘッジファンドらが複雑な金融動向や気候モデルを自分の会社のゲーム用の回路を使ってやっていたことに気づいたからです。

 

 

 ヘッジファンドがやっていたのは、株価や為替のグラフやチャートを画像として解析していたことが先見の明だと思います。なぜなら、金融関連は、数値ですから「構造化データ」であって、今でもディープラーニングが必要な分野というわけではないからです。本来ディープラーニングはツイッターのつぶやきレベルの「非構造化データ」やライフログに威力を発揮することを期待されているからです。

 

 

 そして今やあらゆる大手のオンライン企業はNVIDIAのGPUを使っています。医療画像にも使われている点が、弊社としては非常に気になる部分です。

 

 

 この記事は、少し古めの記事ですが、今年の2月にはすでにインテルの憂慮やGPUの勢いが欧米では騒がれていました。現在の大きなテクノロジーの流れの一つですので、ぜひ頭の中に止めておいてほしいと思います。

 

 

 

 

 

 

 

 

 

 

 

 

人工知能の発達による半導体市場の多様化とインテルの苦悩

 

 

 

 

 

 

 

NVIDIAと自社の新しい半導体の成功はITアーキテクチャに急激な変化をおこしつつある。そしてインテルの苦悩も

 

 

 

 

 

 

 

The rise of artificial intelligence is creating new variety in the chip market, and trouble for Intel

 

 

 

 

 

 

The success of Nvidia and its new computing chip signals rapid change in IT architecture

 

 

 

 

 

 

 

 

 

 

 

Feb 25th 2017

The Economist

http://www.economist.com/news/business/21717430-success-nvidia-and-its-new-computing-chip-signals-rapid-change-it-architecture

 

 

 

 

 

 「我々は何度か廃業しかけた」。通常、創業者が自社の臨死体験について話すことはない。しかし、NVIDIAのトップであるジェン・スン・フアンにはそれを隠す理由はない。マイクロプロセッサおよび関連ソフトウェアを開発する彼の会社は波に乗っている。過去の四半期ではその収益は55%増加して220万ドルに達した。過去12ヶ月で同社の株価は、ほぼ倍に達している。

 

 

 NVIDIAの成功は社の半導体需要が急激に拡大したことが大きい。GPUと呼ばれるその半導体はPCを高速のゲーム機器にする装置である。(GPU グラフィクス・プロセシング・ユニット、画像処理装置、画像を表示するために必要な計算を行う半導体装置)。しかし、GPUには次に行く場所がある。特に、人工知能(AI)のプログラムが、自ら生成する膨大な量の演算能力を貪欲に飲み込むデータセンターだ。

 

 

 これらのチップの販売の伸び(チャート参照)は、情報技術の長期的変化を現在最も明確に表しています。最近まで演算処理能力がおおよそ二年ごとに二倍になることを約束していたムーアの法則とクラウドコンピューティングとAIの急速な上昇のため、コンピュータ・アーキテクチャは崩壊し始めている半導体産業とその支配的企業インテルにとってこれが意味するものは深い

 

 

(編集部注記: ムーアの法則とはインテル社の共同設立者の一人ゴードン・ムーア博士が1965年に予測した法則で、「半導体の集積度は18カ月ごとに倍になる」というもの。)

 

 

 インテルの創業者ゴードン・ムーアにちなんで名付けられたムーアの法則が好調だった時、物事は単純明快だった。「中央演算処理装置」(CPU)として知られているマイクロプロセッサの一種は、パソコン内でもサーバ内(データセンターにおける高性能コンピュータ)でも、演算処理のクラスが呼び出された際に、ほとんどの「仕事量」を処理できたインテルは最も強力なCPUを作っているので、それはPCプロセッサの市場(インテルは約80%の市場シェアを持っている)だけでなく、サーバ―市場を支配するようになり、ほぼ完全に独占している。2016年には、インテルは約600億ドルの収入があった。

 

 

 この一極化した世界が崩れ始めている。たとえば、プロセッサーは機械学習や他のAIアプリケーションを処理できるほど進歩がついていっていない。それらは膨大な量のデータを必要とするため、ほんの数年前データセンター全体が行ったよりも多くの数値演算処理能力を消費する。ビッグデータセンターの他の事業者とグーグルやマイクロソフトや他のビッグデータセンター事業者などのインテルの顧客は、他の企業から、専門化したプロセッサーを選ぶことが多くなっており、自社で設計したプロセッサーを立ち上げ始めている。

 

 

 NVIDIAのGPUは一例である。GPUは、双方向ビデオゲームで必要とされる大規模で複雑な演算を実行するために開発された。GPUにはすべてが同時に動作する専門の「コア」(プロセッサの「頭脳」)が数百あるが、CPUは連続して演算処理を行う強力なコアがほんの少しあるだけである。Nvidiaの最新のプロセッサには、3584個のコアが存在する。インテルのサーバのCPUは、最大で28個だ。

 

 

 NVIDIA社の幸運は2008~2009年の世界金融危機の際、同社が臨死体験のうちの一つを被っている真っ只中にやってきた。NVIDIAはヘッジファンドや研究機関がこのような複雑な投資や気候モデルを計算するというような、新しい目的のために自社の回路を使用していることを発見した。NVIDIAは、顧客が多様なタスクのために自社のプロセッサーをプログラムすることができるCUDAと呼ばれるコーディング言語を開発する。クラウドコンピューティングやビッグデータとAIが、数年前に勢いを得た時、NVIDIAのチップこそが必要とされたものだった。

 

 

 インターネット企業の大手はどこもNVIDIAのGPUを使用して、医療画像から人の音声に至る素材からデータのアドレス体系を取り込む機能を自社のAIサービスに与えている。同社の半導体の販売からデータセンター事業者に至る売上高は、過去の会計年度において3倍の22億9600万ドルに上っている。

 

 

 そしてGPUは、専門化したプロセッサーがそうであることが知られているように、アクセラレーターの一種でしかない。クラウドコンピューティング企業が半導体回路をうまく組み合わせて、自社の業務をより効率したり、競合企業に後れを取らないようにする際に、その範囲は拡大している。「適材適所を探し出すこと」という言葉で、柔軟性とスピードとコストの要因のバランスのとり方を説明するのは、グーグルで技術インフラを担当しているウルズ・ヘルツルである。

 

 

 範囲の一方の端にはASICがある。ASICとは「特定用途向け集積回路」の頭字語。この用語が示唆するように、ASICは一つの目的のためにハードウェアに組み込まれており、エネルギー効率が最も高く、メニュー上では最高速である。数十のスタートアップが、組み込み済みのAIアルゴリズムでこのようなチップを開発している。グーグルは音声認識のための「テンソル演算処理装置」というASICをすでに構築している。

 

 

 もう一方の端には、フィールド・プログラマブル・ゲート・アレイ(FPGA アレイ上に並んだセルと配線用素子で構成されているLSI)がある。これらは、プログラムが可能で、より柔軟性があることを意味している。

 

 

 だからこそ、マイクロソフトはたとえそれらが扱いづらかったとしても、自社のサーバー、たとえばマイクロソフトのオンライン検索サービスBingの基礎となるサーバーの多くにFPGAを追加した。「我々は今、世界のいかなる組織よりも多くのFPGAを持っている」とマイクロソフトのコンピューティング・クラウドであるAzureの最高技術責任者であるマーク・ラッシノヴィッチ氏は述べている。

 

 

 

パラノイドになる時

 

 

 ASICSやFPGAを作る代わりに、近年のインテルは自社のCPUプロセッサーをこれまでより強力にすることに集中していた従来のプロセッサーがいつでもすぐに用済みになるということは誰も望んでいない。あらゆるサーバーがインテルのCPUを必要とし、無数のアプリケーションがインテルのCPUの上で稼働するようにプログラミングされている。インテルの半導体の売り上げは依然として増加している。

 

 

 しかし、アクセラレーター増加の高まりはインテルにとっては悪い知らせのように思われるとITコンサルタント企業ガートナーのアラン・プリーストリー言う。演算処理が多くなればなるほどCPU上では演算が行われなくなるのである。

 

 

 企業を買収することで補うことが一つの解決法である。2015年インテルはFPGA製品のメーカーであるアルテラをじつに167億ドルで買収した。8月のソフトウェアからチップに至る専門化AIシステムを開発して三年目になるスタートアップ企業Nervanaの買収額は4億ドルを超える。

 

 

 インテルによれば、専門化プロセッサは自社にとって脅威ではなくチャンスであると考えている。新しい演算作業負荷は、多くの場合、専門化プロセッサーで処理され始めており、後で「CPUに引き込まれる」だけであるとインテルのデータセンター事業を運営しているダイアン・ブライアントは説明する。

 

 

 暗号化は、例えば、別々の半導体で行われるように使用するが、今では、世界的にほとんどすべてのコンピュータとサーバーを実行するインテルのCPU上で簡単な命令を下すだけである。アクセラレータ上で、AIなどの新しい種類の作業負荷を維持するとなると、余分なコストと面倒ががかかることになる。

 

 

 このような統合が発生した場合、インテルは優位に立てるようにすでに投資を行ってきた。夏には、Knights Millというコードネームの新しいプロセッサーを発売してNVIDIAに対抗する。インテルはKnights Crestというチップにも取り組んでおり、これはNervanaの技術を搭載している。インテルはある時点で、自社のCPUをアルテラのFPGAとも組み合わせるだろう。

 

 

 予想通り、競合他社は違った角度で未来をとらえている。NVIDIAはすでに独自のコンピューティング・プラットフォームを確立している。多くの企業がNVIDIAのチップ上で動作するAIアプリケーションを作っているし、NVIDIAはソフトウェア・インフラストラクチャを別の種類のプログラム、たとえば、視覚化やVRを可能にするプログラムのために開発している

 

 

 数十年来の巨大コンピューティング企業IBMもまた、インテルの苦境をより厳しいものにしようとしているIBMは2013年、オープンソースのソフトウェアを手本にして、Powerと呼ばれる自社のプロセッサアーキテクチャを「公開し」、それを一種の半導体コモンズと化した。専門化チップのメーカーは、自社の製品にPowerCPUを搭載することがいっそう容易で、彼らはプラットフォームがどのように発達するかに影響力を持っている。

 

 

 AIがどのように発達していくかに多くがかかるようになるだろうと、IDCの市場研究者マシュー・イーストウッドは述べている。AIがもし多くの人が期待している革命ではなかったことがわかり、わずか数年の変化をもたらすだけものであれば、インテルに軍配が上がるだろうと彼は語る。

 

 

 しかし、AIが10年以上のビジネスに波及し続けた場合、他の種類のプロセッサーは、ますます自己を確立しだすAI技術は広範に適用可能であることを考えると、後者である可能性が高いように思える。確かに、あらゆる作業負荷を、それがいかに膨大で複雑なものであっても処理する大型で図体のでかいCPUの時代は終わりである。

 

 

 インテルの大転落はハンプティダンプティに少し似ていたのである。そして、インテルはすべての馬と人間をもってしても会社を立て直すことはできない。

 

 

 

 

 

 

 

 

 

 

 

 

 編集部後記です。

 

 

 この文章中で最も印象に残るのは「GPUにはすべてが同時に動作する専門の「コア」(プロセッサの「頭脳」)が数百あるが、CPUは連続して演算処理を行う強力なコアがほんの少しあるだけである。Nvidiaの最新のプロセッサには、3584個のコアが存在する。インテルのサーバのCPUは、最大で28個だ」という部分です。

 

 

 パラレルな演算処理は今後、自動運転車走行中に最も稼働しなければならないものですが、GPUはCPUに対して、けた外れの多さです。この部分から見ても、GPUがいかに優れているかということがわかりますが、それでもGPUというのは画像処理、映像処理の回路です。

 

 

 音声処理や言語処理などその他の作業負荷(ワークロード)には、やはりCPUが必要で、インテルの憂慮は大企業としては非常に敏感で目覚ましいものとは言えますが、現在のNVIDIAに関する「お祭り騒ぎ」は時期早々であると思います。

 

 

 孫正義氏が買収したARMは、先進的なCPU企業で、NVIDIAのCPU版のような企業です。孫正義氏やBaiduのジャック・マー氏がこの点で非常に興味深い動きをしています。NVIDIAの動きは非常に注目すべきで、絶対に無視できないものですが、そんな中でこそARMにも注目していきたいと思います。

 

 

 NVIDIAとGPU、インテル、ARMに孫さん、マーさんに関する分析をしばらく後に掲載する予定です。

 

 

 以下は、英語原文です。

 

 

 

 

 

 

“WE ALMOST went out of business several times.” Usually founders don’t talk about their company’s near-death experiences. But Jen-Hsun Huang, the boss of Nvidia, has no reason to be coy. His firm, which develops microprocessors and related software, is on a winning streak. In the past quarter its revenues increased by 55%, reaching $2.2bn, and in the past 12 months its share price has almost quadrupled.

 

 

A big part of Nvidia’s success is because demand is growing quickly for its chips, called graphics processing units (GPUs), which turn personal computers into fast gaming devices. But the GPUs also have new destinations: notably data centres where artificial-intelligence (AI) programmes gobble up the vast quantities of computing power that they generate.

 

 

 

 

 

 

 

 

Soaring sales of these chips (see chart) are the clearest sign yet of a secular shift in information technology. The architecture of computing is fragmenting because of the slowing of Moore’s law, which until recently guaranteed that the power of computing would double roughly every two years, and because of the rapid rise of cloud computing and AI. The implications for the semiconductor industry and for Intel, its dominant company, are profound. 

 

 

Things were straightforward when Moore’s law, named after Gordon Moore, a founder of Intel, was still in full swing. Whether in PCs or in servers (souped-up computers in data centres), one kind of microprocessor, known as a “central processing unit” (CPU), could deal with most “workloads”, as classes of computing tasks are called. Because Intel made the most powerful CPUs, it came to rule not only the market for PC processors (it has a market share of about 80%) but the one for servers, where it has an almost complete monopoly. In 2016 it had revenues of nearly $60bn.

 

 

This unipolar world is starting to crumble. Processors are no longer improving quickly enough to be able to handle, for instance, machine learning and other AI applications, which require huge amounts of data and hence consume more number-crunching power than entire data centres did just a few years ago. Intel’s customers, such as Google and Microsoft together with other operators of big data centres, are opting for more and more specialised processors from other companies and are designing their own to boot.

 

 

Nvidia’s GPUs are one example. They were created to carry out the massive, complex computations required by interactive video games. GPUs have hundreds of specialised “cores” (the “brains” of a processor), all working in parallel, whereas CPUs have only a few powerful ones that tackle computing tasks sequentially. Nvidia’s latest processors boast 3,584 cores; Intel’s server CPUs have a maximum of 28.

 

 

The company’s lucky break came in the midst of one of its near-death experiences during the 2008-09 global financial crisis. It discovered that hedge funds and research institutes were using its chips for new purposes, such as calculating complex investment and climate models. It developed a coding language, called CUDA, that helps its customers program its processors for different tasks. When cloud computing, big data and AI gathered momentum a few years ago, Nvidia’s chips were just what was needed.

 

 

Every online giant uses Nvidia GPUs to give their AI services the capability to ingest reams of data from material ranging from medical images to human speech. The firm’s revenues from selling chips to data-centre operators trebled in the past financial year, to $296m.

 

 

And GPUs are only one sort of “accelerator”, as such specialised processors are known. The range is expanding as cloud-computing firms mix and match chips to make their operations more efficient and stay ahead of the competition. “Finding the right tool for the right job”, is how Urs Hölzle, in charge of technical infrastructure at Google, describes balancing the factors of flexibility, speed and cost.

 

 

At one end of the range are ASICs, an acronym for “application-specific integrated circuits”. As the term suggests, they are hard-wired for one purpose and are the fastest on the menu as well as the most energy-efficient. Dozens of startups are developing such chips with AI algorithms already built in. Google has built an ASIC called “Tensor Processing Unit” for speech recognition.

 

 

The other extreme is field-programmable gate arrays (FPGAs). These can be programmed, meaning greater flexibility, which is why even though they are tricky to handle, Microsoft has added them to many of its servers, for instance those underlying Bing, its online-search service. “We now have more FPGAs than any other organisation in the world,” says Mark Russinovich, chief technology officer at Azure, the firm’s computing cloud.

 

 

 

Time to be paranoid

 

 

Instead of making ASICS or FPGAs, Intel focused in recent years on making its CPU processors ever more powerful. Nobody expects conventional processors to lose their jobs anytime soon: every server needs them and countless applications have been written to run on them. Intel’s sales from the chips are still growing. Yet the quickening rise of accelerators appears to be bad news for the company, says Alan Priestley of Gartner, an IT consultancy. The more computing happens on them, the less is done on CPUs.

 

 

One answer is to catch up by making acquisitions. In 2015 Intel bought Altera, a maker of FPGAs, for a whopping $16.7bn. In August it paid more than $400m for Nervana, a three-year-old startup that is developing specialised AI systems ranging from software to chips. The firm says it sees specialised processors as an opportunity, not a threat. New computing workloads have often started out being handled on specialised processors, explains Diane Bryant, who runs Intel’s data-centre business, only to be “pulled into the CPU” later. Encryption, for instance, used to happen on separate semiconductors, but is now a simple instruction on the Intel CPUs which run almost all computers and servers globally. Keeping new types of workload, such as AI, on accelerators would mean extra cost and complexity.

 

 

If such integration occurs, Intel has already invested to take advantage. In the summer it will start selling a new processor, code-named Knights Mill, to compete with Nvidia. Intel is also working on another chip, Knights Crest, which will come with Nervana technology. At some point, Intel is expected also to combine its CPU’s with Altera’s FPGAs.

 

 

Predictably, competitors see the future differently. Nvidia reckons it has already established its own computing platform. Many firms have written AI applications that run on its chips, and it has created the software infrastructure for other kinds of programmes, which, for instance, enable visualisations and virtual reality. One decades-old computing giant, IBM, is also trying to make Intel’s life harder. Taking a page from open-source software, the firm in 2013 “opened” its processor architecture, which is called Power, turning it into a semiconductor commons of sorts. Makers of specialised chips can more easily combine their wares with Power CPUs, and they get a say in how the platform develops.

 

 

Much will depend on how AI develops, says Matthew Eastwood of IDC, a market researcher. If it turns out not to be the revolution that many people expect, and ushers in change for just a few years, Intel’s chances are good, he says. But if AI continues to ripple through business for a decade or more, other kinds of processor will have more of a chance to establish themselves. Given how widely AI techniques can be applied, the latter seems likely. Certainly, the age of the big, hulking CPU which handles every workload, no matter how big or complex, is over. It suffered, a bit like Humpty Dumpty, a big fall. And all of Intel’s horses and all of Intel’s men cannot put it together again.