2017年3月3日

 

 

 

人工知能ブームがなぜ急に起こったのか?

 

 

人工知能がなぜこの数年内におこったか?その歴史と深層学習の仕組み

 

 

 

 前回、前々回と、人工知能そして「ヘルステック」の記事を掲載しました。今回も人工知能の記事を掲載します。「ザ・エコノミスト」の記事です。翻訳記事はすべて当社独自で行っております。

 

 今回の記事は、人工知能がなぜこのほんの数年の間にもてはやされてきたのかという記事です。結論は「ディープラーニング」システムの確立のおかげなのですが、その仕組みと簡単な歴史を説明しています。

 

 冒頭にあるニューラルネットワークを表している図がもっとも簡潔で、よく使われるものです。上からデータを入れ(3なら3という数字の手書きの画像)、それが何層ものチェックを経て一番下の出力層から元の画像は「3」という数字だという結論をAI自らが学習してはじき出します。この図は脳のニューロンという神経細胞の連鎖そのままをイメージ化したものです。

 

 この応用を人間の顔に応用したのがセルフィ認証で、防犯から以前ご紹介したAmazon Goのような店舗、さらに自動運転車に適用し始めています。

 

 今回の元の英文記事は、文字数の多い四つの段落で構成されており、日本文に直すと非常に読みにくいため、より細かな日本文に適した段落に分けて翻訳しなおしています。元の段落との区切りには下罫線を入れています。

 

 AIが何かあまり関心のない人には特にその関心の入り口になれる記事だと思いますので、どうぞご覧になってください。

 

 

 

 

 

 

 

 

 

The Economist explains

 

 

 

 

人工知能が「ルネッサンス」を享受している理由

 

 

Why artificial intelligence is enjoying a renaissance

 

 

 

 

 

AIの現在の急速な発展は、本当に「深い学習」の進歩である。しかし、なぜそれが突然軌道に乗り始めたのだろうか?

 

 

 

The current boom in AI is really a boom in “deep learning”. But why did it suddenly take off?

 

 

 

 

 

Jul 15th 2016

The Economist

 

http://www.economist.com/blogs/economist-explains/2016/07/economist-explains-11

 

 

 

 

 

 

 

ニューラルネットワークは層で構成されています。情報は入力層に供給され、一連の「隠れ」層の人工ニューロン

は、異なる重みをレイヤーにかけて信号を結合しその結果を次の層に渡します。多くの隠れ層を持つ「深い」ネッ

ワークは、入力データのいっそう微妙になっていく特徴を検出することができます。ネットワークのトレーニングに

は、特定のインプットが提示されたときに、希望の応答を与えるように、内部の重みを調整する必要があります。

 

 

 

 

 

 「人工知能」という言葉は、初期の時代から自信と失望に結びついてきました。この言葉は1956年の研究提案で造られ、機械に「人間のために現在確保されている種類の問題を解決させる」際に大きな進展がもたらされることを思い描いたものでした。「ただしそれは、慎重に選ばれた科学者のグループが、夏の間に協力してそれに取り組むならばなのですが…。」

 

 

 

 これは予想以上に楽観的味方であるといわざるを得ませんでした。続く数十年の間、時に一気に情熱をもって先に進めたにもかかわらず、AI研究は、それが実現できないことまでも約束したために悪名が高まりました。たいていの研究者はAIという言葉を使いたがらなくなり、その代り「エキスパートシステム」や「ニューラルネットワーク」という言葉を使うようになったのです。

 

 

 

 しかし、過去数年の間に劇的な転換がありました。突然、AIシステムは様々なタスクで素晴らしい結果を残し始めたのです。人々は今度は気まずい思いをすることなく、AIという言葉を使用しています。 何が変わったのでしょう。

 

 

 

 

 

 

 

 

 現在のAIの急激な発展は、ある古い考えに基づいていますが、それは人間の脳の構造をモデルとした、いわゆる人工神経ネットワーク(ANN、アーティフィシャル・ニューラル・ネットワーク)という現代的な手段を採り入れています。生物学的な脳は、ニューロンと呼ばれる相互接続された細胞からなり、その各々は他のニューロンによって誘発され、次いで他のニューロンを次々に誘発することができます。

 

 

 

 単純なANNの場合、ネットワークにデータを入力できるニューロンの入力層、結果が出てくる出力層、および情報が処理される途中にいくつかの隠れ層があります。(ANNは現実世界で実際に配線されることはありませんが、ソフトウェアで完全にシミュレートされています)。

 

 

 

 ネットワーク内の各ニューロンは、その出力を制御する一組の「重み」と「活性化機能」を持っています。ニューラルネットワークをトレーニングするには、入力をすると希望どおりの出力を生成するようにニューロンの重みを調整します。

 

 

 

 ANNは、手書き数字の認識など、1990年代初頭にいくつかの有益な結果を残し始めました。しかし、より複雑なタスクを実行しようとする試みは問題に直面します。手本を使って学ばされるニューラルネットワークと標準的なトレーニング手法では、より多くの層を持つさらも大きい(またはより深い)ネットワークでは機能しなかったのです。興奮の嵐の後、ANNへの熱意は衰えます。再び、AIは失敗し、その分野は「AIの冬」として知られる周期的休止期間の1つに入ったように思えました。

 

 

 

 

 

 

 

 

 しかし、ここ数年で事態が3つの理由で変化しま。まず、新しいトレーニング技術により、深いネットワーク実現可能になりました。第二に、インターネットの台頭により、トレーニングのために何十億もの文書、画像、動画が利用可能になっています。しかし、それには大量の演算能力が必要で、そこにこそ3番目の要素の役割があったのです

 

 

 

 2009年頃、AI研究グループの中には、PCやビデオゲーム機で装飾グラフィックスを生成するために使用される特殊なチップであるグラフィカルプロセッシングユニット(GPU)も、ニューラルネットワークの形成に適していることが知られていました。

 

 

 

 たとえば、Andrew Ng(吳恩達、Andrew Yan-Tak Ng)が率いるスタンフォード大学のAI研究グループは、GPUが深い神経ネットワークのトレーニングを約100倍高速化できることを発見しました。Ngはその後Googleに移り、現在は中国のインターネット大手Baiduに勤務しています。

 

 

 

 AIを完全に働かせるため、より深いネットワーク、より多くのトレーニングデータ、強力な新しいハードウェアがあることで、深いニューラルネットワーク(またはディープラーニング」システムが、音声認識、画像分類、言語翻訳などの分野で突然急速に進歩しましたディープラーニングシステムは、2012年に毎年行われる画像認識コンテストで優勝し、ライバルのシステムを大幅に凌駕すると、学術コミュニティ内外の人々が強い関心を示し彼らの注目を集めました。

 

 

 

(編集部注記: この画像認証コンテストが画期的な出来事で、トロント大学のチームがディープラーニングを活用して、圧倒的勝利をおさめました。このコンテストは、画像認証エラー率の低さを競うもので、それまで36%のエリアを0ポイント1コンマ、あるいは0.0ポイントのレベルで争っていましたが、トロント大学のその時の成績はなんと25%のエラー率を達成したそうです。日本の東大チームが2位以下に数チーム上位にいましたが、すべて人力の職人芸で正確なデータをAIに学習させるという、上記記事中の「手本を使って学ばされるニューラルネットワークと標準的なトレーニング手法」だったようです。)

 

 

 

 

 

 

 

 ディープ・ラーニングは、幅広い分野に適用可能です。すでにそれを特に意識せずに毎日使用していますGoogleの検索エンジン、Facebookの自動写真タグ、Appleの音声アシスタント、Amazonのショッピングの推奨事項やテスラの自動運転車にディープラーニングは活躍しています

 

 

 

 ようやくAI技術は広く展開されています。研究者は、インターネット時代に積み重なったデータの山にAIを適用する新しい方法探し続けています。「人工知能」は今や人気の流行語です。スタートアップ企業は「未知数を求めるためのウーバー」になることを公言することをやめ、「AIを加えて未知数」であることに変わりつつあります

 

 

 

 事実、AIの現在の急激な発展は、実際にはディープラーニング発展であると言うのがより正確です。しかし、あなたがそれを何を呼ぼうとも、この分野は急速に発展しています。 それには何十年もかかりました、SF小説の知的ロボットとは依然としてほど遠いものです。しかし、人工知能はついにその約束を実現し始めているのです。

 

 

 

 

 

 

 

 編集部からのコメントです。

 

 

 これがディープラーニングの仕組みとAI革命の非常に簡単なあらましです。後半の人工知能が急速に発展した三つの理由、「新しいトレーニング技術」「インターネットによるビッグデータの出現」「GPU開発によるニューラルネットワーク訓練の超高速化」というところが重要です。

 

 特に最後の部分、「研究者は、インターネット時代に積み重なったデータの山にAIを適用する新しい方法探し続けています」ですが、この「山」の元の言葉は「トローヴ」(trove)といって、宝の山という意味なんですね。つまり、ビッグデータは宝の山なのですが、サイエンティストですら、それをどうすればいいか試行錯誤しているところなのです。

 

 それが一般企業になると、以前ビッグデータのところでご紹介しましたが、自社のビジネスに商業ベースで十分に活用している企業はせいぜい8%というのがありました。その調査対象の分母も極めて少ない数字でした。

 

 こうしたAI技術利用に対する一番の障壁は「データ利用に対する意識の低さ」です。つまり、長年の経験やカンといった「人力」にどうしても頼ってしまうという点です。せっかくデジタル的に作ったチェックフォームですら、「一応手書きのフォームをチェックのために用意しておこう」といったような、デジタルチェックをチェックするための人力といった、本末転倒な思考がまだまだあるということです。

 

 ディープラーニングという考えは2008年ごろの論文で発表されたものらしいですが、上記の図にあるような幾層ものチェックによって、入力したものを正確に出力することが難しく、最終的に末端に伝わらなくなるという障害を克服できなかったようです。会社のトップダウンと稟議がなかなか本来の意思を反映していないことに例える向きもあります。

 

 それが、この記事では現在のBaiduのAndrew NgがGPUという、ゲームなどのグラフィック装飾に使われる技術で、ニューラルネットワークのトレーニングを100倍高速化したということが非常に驚くべき内容です。各層に「重み」をつけるということはよく知られていましたが、こうした発想の転換でAIが加速度的に進歩したというのは、IT業界のイノヴェーションの典型を物語るといえるかもしれません。

 

 

 

 

 

 

 

 

英文の元記事

 

 

THE TERM “artificial intelligence” has been associated with hubris and disappointment since its 

earliest days. It was coined in a research proposal from 1956, which imagined that significant 

progress could be made in getting machines to “solve kinds of problems now reserved for 

humans…if a carefully selected group of scientists work on it together for a summer”. That proved 

to be rather optimistic, to say the least, and despite occasional bursts of progress and enthusiasm in 

the decades that followed, AI research became notorious for promising much more than it could 

deliver. Researchers mostly ended up avoiding the term altogether, preferring to talk instead about 

“expert systems” or “neural networks”. But in the past couple of years there has been a dramatic 

turnaround. Suddenly AI systems are achieving impressive results in a range of tasks, and people are 

once again using the term without embarrassment. What changed?

 

The current boom is based on an old idea, with a modern twist: so-called artificial neural networks 

(ANNs), modelled on the architecture of the human brain. A biological brain consists of 

interconnected cells called neurons, each of which can be triggered by other neurons, and which can 

then trigger other neurons in turn. A simple ANN has an input layer of neurons where data can be fed 

into the network, an output layer where results come out, and a few hidden layers in the middle 

where information is processed. (ANNs are not actually wired up in the real world, but are simulated 

entirely in software.) Each neuron within the network has a set of “weights” and an “activation 

function” that controls the firing of its output. Training a neural network involves adjusting the 

neurons’ weights so that a given input produces the desired output. ANNs were starting to achieve 

some useful results in the early 1990s, for example in recognising handwritten numbers. But 

attempts to get them to do more complex tasks ran into trouble; neural networks learn by example, 

and the standard training technique didn’t work with larger (or “deeper”) networks with more layers. 

After a flurry of excitement, enthusiasm for ANNs waned. Yet again, it seemed, AI had failed to 

deliver, and the field went into one of its periodic fallow periods, known as “AI winters”.

 

 

 

 

 

 

 

 

 

 

A neural network is organised into layers. Information is fed into the input layer, and artificial 

neurons in a series of hidden layers combine signals by applying different weights to them, and 

passing the result to the next layer. A deep network with many hidden layers can detect 

increasingly subtle features of the input data. Training the network involves adjusting its internal 

weights so that it gives the desired response when presented with particular inputs. 

 

 

 

 

But things have changed in the past few years, for three reasons. First, new training techniques made 

training deep networks feasible. Second, the rise of the internet has made billions of documents, 

images and videos available for training purposes. But that requires a lot of number-crunching power, which is where the third element comes in: around 2009, several AI research groups realised that 

graphical processing units (GPUs), the specialised chips used in PCs and video-game consoles to 

generate fancy graphics, were also well suited to modelling neural networks. An AI research group at 

Stanford University led by Andrew Ng, who subsequently moved to Google and now works for 

Baidu, a Chinese internet giant, found that GPUs could speed up training of its deep neural networks 

nearly a hundredfold, for example. With deeper networks, more training data and powerful new 

hardware to make it all work, deep neural networks (or “deep learning” systems) suddenly began 

making rapid progress in areas such as speech recognition, image classification and language 

translation. When a deep-learning system won an annual image-recognition contest in 2012, vastly 

outperforming rival systems, people both within the academic community and beyond sat up and 

took notice.

 

Deep learning turns out to be applicable in a wide range of fields. You are already using it every day 

without realising it: it helps to power Google’s search engine, Facebook’s automatic photo tagging, 

Apple’s voice assistant, Amazon’s shopping recommendations and Tesla’s self-driving cars. For the 

first time, AI technology is widely deployed. And researchers continue to find new ways to apply it 

to the troves of data that have piled up in the internet era. “Artificial intelligence” is now a popular 

buzzword: startups have switched from claiming to be “the Uber for X” to being “X, plus AI”. In 

fact, it is more accurate to say that the current boom in AI is really a boom in deep learning. But 

whatever you call it, the field is making rapid progress. It has taken decades, and it is still a far cry 

from the intelligent robots found in science fiction, but artificial intelligence is finally starting to 

deliver on its promises.