TREND

今を見つめる

今から理解する人工知能(AI)の歴史とディープラーニング【エクサインテリジェンスCTO・浅谷学嗣氏】|イベントレポート

2017.06.05 8:40

TEXT BY
長谷川リョー

TAGS

RHS2 ディープラーニング 人工知能(AI)
  • シェア
  • このエントリーをはてなブックマークに追加

「AI×医療の”今”をつかみ”未来”をつくる」をテーマに2016年9月に行われた「Realtime Healthtech Seminar vol.2」。今回は、浅谷学嗣氏(株式会社エクサインテリジェンス 取締役CTO)による「AI技術の変遷とDeep Learningでできること」と題された講演の内容を再構成してお届けします。

定義を与えることが難しい人工知能の技術史を辿りながら、現在のディープラーニング技術に至るまでの変遷をみていきます。今でもニュースで耳にする日がないくらい流行している「人工知能(AI)」というワードの歴史背景をぜひ押さえておきましょう。

「人工知能」=定義がない言葉

まず皆さんは「人工知能(Artificial Intelligence)」と聞いたときに、どんなイメージをお持ちでしょうか。

たとえば人のように感情を持って話す、考える、または意志を持つというように考えられている方もなかにはいるかもしれません。もしくはビッグデータを用いて様々な動作を覚えさせていくといったこともあるでしょう。

では、私自身はどう考えているか。正直、定義自体が難しい言葉だと思っています。なので、「定義がない言葉」とも言えるかもしれません。「人工知能」という言葉が誕生したのは1950年代に遡ります。「コンピュータに知的な活動をさせる」ということが元来の目的でした。時が経つにつれ、マーケティング的な意味合いも帯びていき、人によって曖昧に使われるようになっていきます。

例えば私がまだ子供だった頃を思い出すと、「人工知能搭載」と謳われた炊飯器や洗濯機が発売されてたことがありました。そのときに使われていたのは単純に、適切な時間にご飯を炊いたり、洗濯機を止めるといった技術です。これがレベル1の段階だったと言えると思います。その次のレベルとして将棋プログラムや掃除ロボットが開発され、以下のスライドをみても分かる通り、定義自体が時代によって変遷を遂げてきたことが分かります。


(本記事内のスライド資料の権利はすべて株式会社エクサインテリジェンスに帰属)

その次のレベルとして将棋プログラムや掃除ロボットが開発され、上記のスライドをみても分かる通り、定義自体が時代によって変遷を遂げてきたことが分かります。

最近の潮流で重要なのは、大量に集めたデータ、いわゆるビッグデータを解析するような技術です。これも当然人工知能の枠組みの中に入ってきます。たとえばGoogleの画像認識がもっとも知られた事例の一つでしょう。

早稲田大学で人工知能をロボットと一緒に研究されている尾形哲也先生に、「人工知能とはなにか?」ということを聞きましたが、先生もやはり今の時代は定義が曖昧になっていると断言されています。このように、前提として人工知能は定義がかなり難しいものであるということは認識しておくべきでしょう。

人工知能の起源と3度のブーム

技術の変遷を語る上で、歴史をたどる作業は不可欠です。以下では簡単に人工知能の歴史を振り返っていきましょう。よく知られるように、これまでに人工知能は三度のブームがありました。そのなかでも、現在は第三次ブームとされています。

「人工知能」という言葉が最初に使われたのが1956年に開催されたダートマス会議で、これが起源となります。それに付随して第一次人工知能ブームが起こるのですが、当時は華々しく受け止められ、様々な技術が考案されました。たとえば物理記号システム仮説。これはコンピュータが物事を考える事の基盤になった考え方です。「記号で表すことが知的活動の必要条文条件だ」といったのが物理記号システム仮説であり、今でも残っている考え方です。

今では広く知られるようになったニューラルネットワークの「パーセプトロンモデル」が考案されたのも1950年代です。これは一つの神経細胞を模擬したもので、第一次AIブームのベンチマークとなるものと言えるかもしれません。60年代に入ると、今でも解決されていない「フレーム問題」という大きな命題が浮上し、ブームは下火となっていきます。

そして再び1980年代になって訪れる「第二次AIブーム」は、知識の時代として描写されることが少なくありません。おそらく耳にしたことがある人も多いと思うのですが、この時代に「エキスパートシステム(expert system)」が生まれました。そしてこの頃、AIが商業利用されるようになっていきます。詳細はこのあと触れますが、第二次AIブームへの高い期待が裏切られたことで、このあとAIは再び冬の時代へと突入することになります。

長きにわたる冬の時代を乗り越え、再びAIがブームになるには21世紀まで待つ必要がありました。厳密にいつから始まったのかということに関しては議論が分かれるところなのですが、私は2011年にIBMがアメリカの人気クイズ番組『ジェパディ!』でチャンピオンを負かしたことに端を発すると考えています。そして、第三次AIブームで主題となるのが、「ディープラーニング(deep learning)」という技術です。その歴史についても簡単に説明しておきましょう。

1950年代にパーセプトロンモデルが考案されたことについてはすでに述べました。1980年代には一つの神経細胞を模したものを並べて学習させる「多層パーセプトロンモデル」が考案されます。この時代には先進的な手書きの文字を認識できる技術で、当時はかなり期待を集めました。現在、画像認識の分野で最も成果を上げている「コンボリューショナル・ニューラル・ネットワーク(Convolutional Neural Network)」というものがあるのですが、この原理が発明されたのも第二次AIブームの時代です。

これはつまり人間の視覚野の構造をニューラルネットワークで模擬しようとした「ネオコグニトロン」以降なのですが、実は日本の技術者が発表したモデルです。大阪大学出身で私の大先輩にあたる福島邦彦さんがこのモデルを発表し、今でもこのモデルは使われています。この時代にもっと「ネオコグニトロン」に日本として力を入れておけば、現在のようにAI分野で世界に遅れを取ることもなかったのではないかと想像してしまいます。

ディープラーニングといえば2010年頃から出てきた技術だと考えられている方もいらっしゃるかもしれないですが、実は2006年以降から、つまり、もう10年以上の歴史がある技術なのです。

以上まで概観してきたAIの歴史について、もう少し踏み入った内容を以下では説明していきます。

古き良き人工知能、冬の時代を乗り越えて

ここまで概観してきたように、これまでAIはブームという形で何度かの春を享受してきました。それでもある時点から振り返って、「古き良き人工知能の時代」と呼ばれることもあるのは事実です。

1965年には会話プログラムの「ELIZA」が開発されています。「こんにちわ」「さようなら」といった応答に適切な反応を返してくれる簡単なシステムです。70年代後半から90年代にかけて、様々な日本の企業も力を入れたと聞きます。今と比べればまだデータ量も少なかったのですが、商業化に向けた期待がかなり大きかったようです。すでにエキスパートシステムについては触れましたが、感染症診断治療支援エキスパートシステム(MYCIN)が開発されたのが1970年代後半です。

エキスパートシステムとは、すべての物事を「ifとthen(もし〜ならば〜)」という記法で知識をひたすら記述し続けるといったものです。これを突き詰めることで、人間や専門家と同じような診断ができるのではないかという期待が寄せられました。それでも実際に使われることはなかった。

なぜかといえば、診断という行為を人工知能に任せていいのかという議論が噴出したためです。それでも新米の医者と同等レベルの診断結果が出ることは確認されていたので、本物の医者をサポートされる形で使われるのが望ましいのではないかと私は思うのですが、そうはなりませんでした。

1980年代には「多層ニューラルネットワーク」というディープラーニングの原型となる技術が発明されます。昔は3〜6層までの深さが限界でした。コンピュータの計算技術、計算速度の制約のためです。期待を寄せられたエキスパートシステムも、結局どこまで記述すれば人間と同等の判断ができるのようになるのかが不明瞭だったため、失望という結果に終わってしまうことになります。

第二次ブームも過ぎ去り、冬の時代に入っていったというのが21世紀に至るまでのAI史です。

1990年代に入ると、インターネットが登場します。演算(CPU)をいかに高速にしていくのかなど、研究者もこの新たな領域へと流れ込んで行きました。ある教授の先生はこの時代に「日本の人工知能学者は絶滅した」とまでおっしゃっていました。それほどまでに日本では失望が大きかった。

一方でインターネット技術が発達し、それに伴って演算処理能力が上がっていくと、できるようになったこともあります。多量のデータに対し高速演算器を使うことで、ルールや特徴を抽出できる機械学習の可能性が浮上してきたのです。ここへ来て冬の時代も再び終わりを告げ、大量に集まったデータをいかに解析するのかという時代に入っていくことになります。

「ディープラーニング」はなぜブレークスルーなのか?

「機械学習(machine learning)」についても説明を加えておきます。誤解されがちですが、人間と同じ意味での「学習」ということではありません。与えたデータを元に、人間が望ましいと思うような出力をしてくれるモデルが機械学習です。また、ディープラーニングも一つの機械学習のメソッドといえます。

もしかすると、「決定木(decision tree)」や「ランダムフォレスト(random forest)」といった言葉を聞いたことがある方もいらっしゃるかもしれませんが、様々な種類があるのが現状です。研究者の方であれば「サポートベクターマシン(support vector machine, SVM)」というものもあります。結局何をやっているかといえば、与えたデータを人間が望ましいと思う形で出力するように中身を改変していくということが学習ということです。

「ディープラーニング」のはじまりは2006年。トロント大学のジェフリー・ヒントン教授がディープラーニングの基礎を築いた方です。先述したように、ニューラルネットワークの深さはこれまで3〜6層ほどが限界でした。ヒントン先生は「9層重ねても問題なく学習する」というメソッドを発見。以来、ディープラーニングは様々なところで使われるようになります。

一つのエポックメイキングなニュースは2009年、ILSVRCという大規模画像認識の競技会でディープラーニングを使った技術が優勝したことです。加えて、記憶に新しい出来事であれば「AlphaGo(アルファ碁)」が韓国のプロ棋士であるイ・セドル氏に勝利したことが挙げられるでしょう。碁で人間のプロ棋士に機械学習が勝つということは、とんでもないことです。

あらためて、「ディープ」とは何を意味をするのか立ち止まって考えてみましょう。1980年代の多層パーセプトロンでは6層まで増えましたが、シンプルに言ってしまえば上記の画像の真ん中の層が増えただけと言えます。しかし、層を増やすためには学習のアルゴリズムを改良したり、演算処理の速度を上げることが必要です。こうした技術が現在に至るまでに発達したことで、より多層になっていき、驚くべきことに8〜150層というとんでもない深さになっています。

そうしたわけで、機械学習の分野においてディープラーニングはブレークスルーだったと言われることもあります。平たく言えば、ディープラーニングとは「学習を通してデータそのものから特徴を取り出すことができる技術」です。それだけでは良く分からないと思いますので、もう少し説明を加えます。

例えば画像認識の世界を考えてみましょう。たくさんある画像の中から、キリンの画像だけを取り出したいとします。昔は「首が長い」といったキリンの特徴を、「縦に長い」という成分として人間が考えて画像を分けていました。これは「Feature Engineering」と呼ばれる技術です。あらゆる特徴を人間が取り出し、ヒストグラムなどの形に変換させ、最終的に分かるという手法だったため、とても人間のコストがかかりました。

ディープラーニングの場合は人間が事前に画像の特徴を考える必要がありません。データをとりあえず入れておき、学習させると、勝手にデータを分けてしまう。つまり、「Feature Engineering」の部分をぶっ飛ばしてしまうということなのです。ものすごく革新的な技術といえるでしょう。

「ディープラーニング」にあなたも挑戦してみませんか

具体例を出してみます。こちらは「MNIST(エムニスト)」という画像を学習させているところです。

中身は一個一個がパーセプトロンとなっていますが、その重みを可視化することで、こうしたことが可能になるんです。学習を進めていくことで、文字の構成要素を学んでいき、最終的には自動的にパーツを学習していきます。データを学習させることで、そのデータの特徴を捉えられることがディープラーニングの素晴らしいところです。

自動運転、医療診断、様々なデータベースのタグ付けなどにこの技術は応用されたり、私自身の研究ではDNAにディープラーニングを転用しています。電子カルテの情報も学習させていきます。画像にしても、DNAにしても、すべて数字の羅列です。こうしたものを認識させるためにディープラーニングとの相性が良い。

2015年には塩基配列の認識にディープラーニングを使ったら、高精度の結果が出たという発表が『Nature』でなされました。大量データを扱う際にディープラーニングを用いることで、画像のデータから特徴を掴み、何かを分類、認識することができるということです。

ディープラーニングを始めるための環境はすごく整っています。必ずしも理系ではなくとも、プログラミングさえできれば、おそらく6ヶ月程度でできるようになる。様々な企業がフリーのライブラリーを公開しているので、それを使えば簡単に実装することができます。

ぜひ気軽に勉強してほしいとは思いますが、高度な計算処理が必要なので、GPUやサーバーが必要になります。AmazonやGoogleのクラウドをご活用いただければ、問題ありません。ぜひご自身でディープラーニングにチャレンジしてみてください。

  • シェア
  • このエントリーをはてなブックマークに追加

浅谷 学嗣Satoshi Asatani

株式会社エクサインテリジェンス
取締役CTO

大阪大学大学院 基礎工学研究科在籍。大阪大学人工知能研究会幹事。 Deep Learningを用いて、細胞画像やDNAなどの生体から得られる情報を解析する研究を行う。Convolutional Neural NetworkとRecurrent NeuralNetworkを組み合わせた動画像解析が専門。2015年 9月 Deep Learningライブラリ「Sigma」を作製。2016年4月 チュートリアル講演:「Deep Learningチュートリアル〜機械学習の基本的な知識と実装〜」。