訓練を積んだ畳み込みニューラルネットワークは 別の写真に異なる角度で写っている顔を 同一人物だと認識できるだろう 脳の主要な計算ユニットはニューロ ンという細胞だ。それぞれのニューロ ンは細胞間のごく狭い隙間 ( シナプス 間隙 ) を通して他のニューロンにシグ ナルを送っている。ニューロンがこの 隙間を越えてシグナルを送る傾向 , お よびそのシグナルの大きさを「シナプ ス強度」という。あるニューロンが、、学 習する " とそのシナプス強度は大きく なり , 電気インパルスによって刺激さ れた場合にメッセージを近隣のニュー ロンに送る確率が高まる。 脳科学に触発され , ソフトウェアや ハードウェアを使って仮想ニューロン を作った人工ニューラルネットワーク が出現した。この AI のサプ領域は「コ ネクショニズム」と呼ばれ , 初期の研 究者は , ニューロン間の接続を徐々に 変えることでニューラルネットは複雑 なタスクを学習でき , この神経活動パ ターンが入力の内容 ( 画像や断片的な 会話など ) を把握するようになると考 えた。ニューラルネットに新たな例を 入力するたびに , 接続ずみのニューロ ン間のシナプス強度が変化して学習が 続き , 例えば夕日などの画像をより正 確に把握できるだろう。 夕日をタ日と認識させる 現在のニューラルネットワークはコ ネクショニズムの先駆的な研究を拡張 したものだ。ニューラルネットは一般 に , 各シナプス結合の値 ( 結合の強さ , つまりニューロンが別のニューロンに どれくらいシグナルを伝えやすいかを 表したもの ) を徐々に変えていく。デ ィープラーニング・ネットワークで使 われるアルゴリズムは , 新たな画像を 見るたびに結合の強さをほんの少し変 え , ニューラルネットが画像の内容を 40 より高い精度で予測できる値に少しず つ着実に近づけていく。 現在の学習アルゴリズムは , 最良の 結果を得るには人間による緊密な介入 を必要とする。多くは「教師あり学習」 を用いるもので , 訓練用の例それぞれ に , 学習すべき内容に関して人間が作 成したラベルが付けられている ( 例え ば夕日の写真に「タ日」というキャプ ションが付けられている ) 。この場合 , 教師あり学習アルゴリズムの目標は , 1 枚の写真を入力として受け取り , そ の写真の中心となっている被写体の名 前を出力することだ。入力を出力に変 換する数学的プロセスは「関数」と呼 ばれる。この関数を作り出すシナプス 強度などの数値が , 学習というタスク に対する解に相当する。 丸暗記による学習で正しい答えを出 すのは簡単だろうが , 役に立っとは言 い難い。私たちはアルゴリズムにタ日 とは何かを教え , 見たことのない画像 を含めどんなタ日の画像でも認識でき るようにしたいのだ。あらゆるタ日を 夕日だとわかること , つまり学習結果 を特定の事例を超えて一般化すること は , あらゆる機械学習アルゴリズムの 主要な目標だ。実際 , ネットワークの 訓練成績は , それまで見たことのない 例を使ったテストによって評価される。 新しい例への学習の一般化が難しいの は , 特定のカテゴリー ( 例えば夕日 ) に該当するバリエーションがほぼ無限 に存在するからだ。 ディープラーニング・ネットワーク の学習アルゴリズムが多数の例を観察 した学習の結果を一般化できるように するには , 例を与えるだけでは足りな い。データに関する仮説と , 特定の問 題に対してどんな解がありうるかにつ いての仮定も必要とする。ソフトウェ アに組み込まれる典型的な仮説は , も し特定の関数への入力が似ていたら出 力も互いに大きくは異ならないという ものだろう。猫の画像の数ピクセルを 変えても , 犬の画像に変わることはな いはずだ。 画像に関する仮説を組み込んだニュ ーラルネットワークの 1 つが「畳み込 みニューラルネットワーク」と呼ばれ るもので , AI 復活の立役者になった 技術た。ディープラーニングで使われ る畳み込みニューラルネットワークは 多数のニューロン層を持つ。各層は中 心的な被写体の位置が少しずれている といった変化に対して出力があまり敏 感にならないように組織化されている。 訓練を積めば , 別の写真に異なる角度 で写っている顔を同一人物だと認識で きるだろう。 畳み込みニューラルネットワークは 視覚野 ( 目からの入力を受け取る脳の 領域 ) の多層構造をヒントに設計され た。ネットワークの仮想ニューロン層 が増えるとネットワークは " ディー プ " になり , より上手に学習できるよ うになる。 よりディープに ディープラーニングを実用レベルに した進歩は , 約 10 年前のいくつかの イノベーションによってもたらされた。 当時 , AI とニューラルネットワーク に対する関心は過去数十年で最も下火 になっていた。カナダ先端研究機構 (CIFAR, カナダ政府の補助金と個人 からの寄付で運営 ) はトロント大学の ヒントン (Geoffrey Hinton) をリー ダーとする研究プログラムを支援し , AI 研究の再燃に一役買った。このプ ログラムには , 私やニューヨーク大学 のルカン (YannLeCun), スタンフ オード大学のエン (AndrewNg), カ リフォルニア大学バークレー校のオル シャウセン (Bruno Olshausen) な 日経サイエンス 2016 年 9 月号
ータをステップを踏んで構成・解析す る一連の計算を実行する方法をネット ワークが学習できるようになったこと だ。ネットワークの深さがこのステッ プの数だ。 AI が得意とする視覚認識 タスクや聴覚認識タスクを学習させる には多層構造のティープネットワーク が必要だ。実際 , これらの数学的なオ ペレーションのいくつかは十分にディ ープなネットワークでなければ効率的 に実行できないことが , 私たちの最近 の理論的研究と実験によって示されて いる。 ディープなニューラルネットワーク の各層は , 入力を変換して次の層に送 る。ネットワークの奥にある層ほど , より抽象的な概念を表現するようにな り , それらは最初の生の入力からどん どんかけ離れていく ( 39 ページの囲 み ) 。ネットワークの奥にある層の仮 ニューロンほど , より抽象的な意味 概念を認識する傾向にあることが実験 で示されている。 机を例にとろう。ネットワークが訓 練を受けたカテゴリーラベルに「机」 という概念がなかった場合にも , 深層 のニューロンの処理によって机の画像 であるという認識が生まれる可能性が あるのだ。そして , 机の概念自体がよ り深い層でのより抽象的な概念を生み 出す中間ステップとなり , より深い層 では机の概念を含む「オフィスの情景」 という分類が生じるかもしれない。 バターン認識を超えて 最近まで , 人工ニューラルネットワ ークは主に静止画像中のパターン認識 などのタスクに優れていることで有名 だった。だが , 別のタイプのニューラ ルネットも頭角を現し始めている。具 体的には , 時間とともに展開していく 事象を処理するネットワークだ。 「再帰 ( リカレント ) 型ニューラル ネットワーク」は , 音声や動画などの データの一連の処理を正確に実行でき 42 ることが実証されている。そうした時 系列データはユニットからなり ( 音声 なら音素や単語 ) , それらのユニット が次々につながっている。再帰型ネッ トワークが入力を処理する方法は脳の 働きに似ている。脳では感覚入力が処 理されるにつれ , ニューロン間を流れ るシグナルが変わっていく。この内的 な神経状態が , 環境から脳への現在の 入力に依存して変化し , その後に一連 の指令が発せられて , 特定の目標を実 現するための身体の運動が起こる。 再帰型ニューラルネットワークは , ある文において次に出現する単語が何 であるかを予測でき , それを用いて 1 つずっ単語をつないで作文ができる。 もっと洗練されたタスクも可能だ。あ る文のすべての単語を " 読んだ " 後に 文全体の意味を推測できるのだ。そし て , 別の再帰型ネットワークが最初の ネットワークが行った意味処理結果を 参考にして , その文を別の言語に翻訳 できる。 再帰型ニューラルネットワークの研 究も 1990 年代後半 ~ 2000 年代前半 に一時停滞していた。私の理論的研究 によって , 再帰型ネットワークが遠い 過去の情報 , つまり処理中のデータの 最初期の情報を引き出す方法を学習す 著者 Yoshua Bengio るのが困難である可能性が示唆されて いた。ある本の最後のページにたどり 着いたときに , その本の最初のいくつ かの文を一語一句正確にそらんぜよと いうようなものだ。 だが , いくつかの進歩によって , 再 帰型ニューラルネットワークが情報の 保存法を学んで情報を長時間にわたっ て残せるようになったため , これらの 問題のいくつかは軽減した。再帰型ネ ットワークはコンピューターの一時記 憶装置を使って , ある文書中に散在す る様々な文に含まれるアイデアなど , 多数の分散した情報を処理できる。 AI 研究が長い冬を経て , ディープ ニューラルネットワークによってたく ましく復活したことは , 技術的な勝利 にとどまらない。科学社会学における 教訓も提供している。とりわけ , 技術 的な現状に挑戦するアイデアを支持す ることの重要性と , 多様な研究分野に 投資して一時的に下火になっている分 野を支援することの必要性がはっきり と示されたのだ。 ( 翻訳協力 : 古川奈々子 ) 監修松尾豊 ( まつお・ゆたか ) 東京大学大学院工学系研究科特任准教授。 専門は人工知能やウエブマイニング , ビッ グデータ分析。人工知能学会倫理委員長を 務めている。 カナダのモントリオール大学のコンピューター科学教授で , 人工知能研究が息を吹 き返す契機となったディープラーニングによる機械学習法の開発者のひとり。 原題名 Machines Who Learn (SCIENTIFIC AMERICAN June 2016 ) もっと知るには・・ IMAGEN ・ ET CLASSIFICATION WITH 、 DEEP CONVOLUTIONAL NEURAL NETWORKs.AleX Krizhevsky et al. Presented at the 26th Annual Conference on Neural lnformation Processing Systems (NIPS 2012 ) , Stateline, Nev. , December 3 ー 8 , 2012. REPRESENTATION LEARNING.• , REVIEW AND N ・ E 、 PERSPECTIVES. Y. BengiO et al. in IEEE Tra れ c 行 0 0 れ Pa な〃 A れ記な口〃 d M ん〃 e 加 I 〃 g 化 , Vol. 35 , No. 8 , pages 1798 ー 1828 ; August 2013. DEEP LEARNING. Yann LeCun et al. ⅲ N ロル尾 , V01. 521 , pages 436 ー 444 ; May 28 , 2015. WHEN COMPUTERS SURPASS US. Christof KOCh; Consciousness Redux, Sc 〃石 c A 川ビ ca 〃 Mind, September/Oct0ber 2015. 著者のべンジオがテン一プラーニングについて語るビデオが ScientificAmerican.com/article/want- to-know-about- deep-learning-and-ai- check-this- out に。 日経サイエンス 2016 年 9 月号
感できるだろう。無生物を動物と間違 えるなど , ほんの数年前の物体認識が いかに貧弱だったかを覚えている人に とって , コンピュータービジョンの進 歩は信じがたいほどだ。いまや , コン ピューターは特定の条件下では人間と ほぼ同様に画像中の猫や岩 , 顔を識別 できる。実際 , AI ソフトウェアは何 百万人ものスマートフォンユーザーの 生活になくてはならないものとなって いる。私はもはやメッセージをタイプ することがほとんどない。スマホに話 しかければよく , 時には聞き返してく ることさえある。 こうした進歩によって AI 技術のさ らなる商業化に向けた扉が突如として 開かれ , 興奮は高まる一方だ。企業は 有能な人材を求めて熾烈な争奪戦を繰 り広げ , ディープラーニングを専門と する博士号取得者は引く手あまただ。 この分野の専門知識を持つ大学教授の 多く ( 大部分という見方もある ) が学 術界から引き抜かれて産業界に入り , 設備が整った研究施設と十分な報酬を 与えられている。 ディープラーニングの課題を克服し たことが驚くべき成功につながった。 ニューラルネットワークが囲碁でトッ K E Y ( 0 N ( E P T 5 プ棋士の李世 2 ( イ・セドル ) に勝っ たというニュースは大見出しで報道さ れた。その応用はゲームにとどまらず , 他の専門分野に広がっている。新開発 のあるディープラーニング・アルゴリ ズムは , 磁気共鳴断層撮影 (MRI) 画像から心不全を心臓病専門医と同じ 確かさで診断できるとのことだ。 経験を通じた学習 2005 年以前の数十年間 , AI はなぜ 多くの壁にぶち当たっていたのだろう か ? その理由は , 私たちが身の回り のことに関して持っている知識の大部 分が , 明示的なタスクの集合として形 式的に記述されていないからだ。コン ピュータープログラムを書くにはそう した定式化表現が不可欠であり , だか ら , 音声や画像 , 言語の理解や車の運 転など , 私たち人間がいとも簡単にや ってのける多くのことを実行するよう にコンピューターを直接プログラムす ることができない。そうしようとする 試み , つまり複雑なデータベース内の 一連の事実を体系づけて知性の複製を コンピューターに吹き込む試みは , こ れまでほとんど成功していない。 そこに登場したのがディープラー 概念を学習するディープラーニング ■人工知能 (AI) が本格的な研究分野としてスタートしたのは 1950 年代半 ばのことで , 当時の研究者たちは , 自分たちが現役のうちに人間の知能を 模倣できるようになると考えていた ■だか , 当時のアルゴリズムと計算能力では人間の知能を模倣できないこと が明らかになり , 希望は打ち砕かれた。 AI を実現しようなどという試み は思い上がりもいいところだと切り捨てる懐疑論者もいた ■たが , この数年で AI 研究は復活した。脳のニューロンのネットワークを 大まかに模倣して作られたソフトウェアによって , AI に対する当初の期 待を実現できる可能性か示されたのた。 ■ディープラーニングは複雑なニューラルネットワークを使う技術で , 抽象 的な概念を学習する能力を持つ。すでに , 人間に匹敵するレベルで実行で 38 きるタスクもある。 ングだ。ディープラーニングは「機械 学習」と呼ばれるより広い AI 研究分 野の一部をなしている。機械学習は , いくつかの原理に基づいて知的な計算 システムを訓練し , 究極的には機械に 独学させることを目指す。その原理の 1 つは , 人間や機械が何を。良い判断 " と考えるかに関連するものだ。動物の 場合 , 進化論的な原理により , 生存と 繁殖のチャンスを最大にする行動につ ながるような決定がなされる。人間社 会ではこれに加え , 社会的地位や幸福 感をもたらす社会的相互作用も良い判 断に含まれるだろう。これに対し , 例 えば自動運転車などの機械の場合 , そ の判断の良し悪しは , それが優良ドラ イバーの運転をどれほど厳密に模倣で きるかで決まる。 だが , 特定の状況で良い判断を下す ために必要とされる知識が , コンピュ ーターコードに翻訳できるような明白 なものであるとは限らない。例えばマ ウスは周囲の環境に関する知識を持ち , どこの匂いを嗅ぎ , 脚をどう動かし , 食物や配偶相手をどのように見つけ , 捕食者をどう避けるべきかについて生 まれながらのセンスを持っている。ど んなプログラマーも , これらの行動を 生み出すプログラムを書くことはでき ないだろう。行動を生み出している個 別の指令を特定できないため , 書きよ うがないのだ。だが , その知識はマウ スの脳にコードされている。 自らを訓練できるコンピューターを 作るにはまず , 人間がどのように知識 を獲得しているのかなど , 基本的な疑 問を解明する必要があった。知識の一 部は生得的なものだが , 大部分は経験 を通じて学習されている。私たちが直 感的に知っていることは , コンピュー ターが実行する明確な一連の手順には 翻訳できないが , 多くの場合 , 事例と 訓練を通じてコンピューターに学習さ せることができる。 1950 年代以降 , 動 物や人間 ( さらにいえば機械 ) が経験 日経サイエンス 2016 年 9 月号
だが , 上皮は体内の空洞や管の表層を指す場合があり ( これらは 表皮とはいわない ) , 英語には epithelium という別の語がある。 That, in turn, damages the protective outer layer of the epiderm1S. ( → p80) •protease プロテアーゼ タンパク質分解酵素。タンパク質の構成単位であるアミノ酸を 結びつけているべプチド結合を加水分解してタンパク質分子をバ ラバラにする酵素の総称た。 Back in the 1950S , the late Walter Shelley, a pioneer in itch research, speculated that cowhage s itch factor was a protein- cutting enzyme, a protease he named mucunain. ( → P80 ) 今月の科学英語 25e 本誌のもとになっている SCIENT 旧 ( AMERICAN は世界の科学ファンに最も多 く読まれている一般向け科学誌だ。そこには 知っておきたい「科学英語」がたっぷり。今 号の記事からキーワードをいくつか紹介しよ う。例文の末尾に , 対応する日本文が掲載さ れているべージを示した。 第 「爆発的に進化するティープラーニングより 「言語学バトル印欧語族の起源をめぐって」より ■ deep learnmg •NeoIithic Revolution 新石器革命 : ディープラーニング , 深層学習 多層のニューラルネットワークを用いた機械学習のこと と 新石器時代は石器時代の最後の部分 , 紀元前 8000 年くらいか いう表層的な説明に満足せず , 本文を読んで深層まで理解してい ら後を指す。つまり農耕が広まり始めたのと同じころだ。狩猟採 ただきたい。本文で紹介されている「畳み込みニューラルネット 集から農耕・牧畜をなりわいとする定住生活へ人々の暮らしが変 ワーク」や「再帰型ニューラルネットワーク」が代表的なモデルだ。 わったことに伴う一連の社会的変革をまとめて新石器革命と呼ん でいる。この記事の文脈では「農業革命」と同義と考えてよい。 That was when deep learnmg, an approach to building intel- ligent machines that drew inspiration 蝨 brain SC1ence, This transition Of human society from hunter-gatherers lnto ( → P36 ) began tO C01 れ e 1ntO its 0 、 A,rn. settled farming communitles marked the so- called NeoIithic Revolution and was "the on big thing that happened on a : コネクショニズム ■ connectlomsm Europe-wide basis, Repfrew says. ( → P88 ) 脳はニューロンというユニットの神経結合が活性化することに よって機能している。こうしたユニット間の結合をソフトウェア やハードウェアで模擬することによって人工知能を構成しようと : ぶとう膜炎 ・ uve1t1S いう考え方がコネクショニズムだ。最初は白紙状態でも , 多数の 眼球壁は一番外側が強膜 ( 黒目の部分は角膜 ) , 次に脈絡膜 , 事例を経験することで適切なコネクションが形成されるようにす 内側が網膜という 3 層構造だ。中間層の脈絡膜と , それに続く毛 れば , それこそが「学習」にほかならない , というわけ。 様体 , 黒目部分の虹彩を合わせて「ぶどう膜」 (uvea) といい , この部分が炎症を起こした状態がぶどう膜炎。あまり使う機会の Early researchers ⅲ this subfield Of AI, known as connection- ない言葉だろうが , 英語の読みはユービアイティスに近い。 lsm, postulated that neural networks would be able t0 learn complex tasks by gradually altering the connections among When FaIIah s team looked more closely at those suruvors, ( → P40 ) they found 10 percent had uveitis, a swelhng of the middle neurons. layer of tissue in the eye wall. ( → P94 ) 「ポストエボラ症候群」よリ 「超新星に新タイプ続々発見」よリ •magnetar . マグネター •perennial : 多年生の , 宿根性の 中性子星のうち極端に強い磁場を持つ天体のこと。 X 線やガン マ線など高エネルギーの電磁波パルスを発する過渡的な天体現象 この言葉の語義は「年間を通じてある」。多年生は植物が個体 が知られており , その正体がマグネターだと考えられている。詳 として 2 年以上生存する性質のこと。これに対し一年生植物は しくは「マグネター磁石星の驚異」 ( 2003 年 5 月号 ) をどうぞ。 annual plant た。なお , 発芽から開花・結実して枯死するまで が 1 年以上 2 年以内の二年生植物 (biennial plant) も少数なが They are called magnetars, and they harbor the strongest らある ( マッョイグサなど ) 。 ( → p 64 ) known magnetic fields in the umverse. The methods rely on raismg trees, shrubs or perennial grasses boosting crop yields and improving the long-term sustainability ( → P101 ) of 応 od producüon. ではまた来月。 See you! 「土壌を肥やすべレニエーション農法」より 「痒みの科学」より ■ epidermis . 表皮 , 上皮 動物の皮膚の最も外側の部分で , 真皮 (dermis) の上 (epi-, 外側 ) にある層のことだ。なお , 皮膚の場合は表皮も上皮も同義 「日経サイエンスで鍛える科学英語ノーベル賞科学者編」 日経サイエンス社刊本体 1800 円 + 税 ISBN 978-4-532-52070- O 本誌掲載記事の一部を抜粋 , SCIENT 旧 ( AMERICAN の原文 と対照して読めるようにしました。便利な語注つき ! 日経サイエンス 2016 年 9 月号 1 1 6
どんどん賢くなるニューラルネットワーク 大脳皮質の神経回路をヒントに , 複雑なリンクを持つニュー 顔の認識のため , 入力層では入力画像の個々の画素が解析さ ラルネットワークが作られた。大量の画像を入力して訓練する れる。次の層では , ある特定の顔に特有の幾何学的な形状が抽 と , 人の顔を認識できるようになる。ネットワークが顔という 出される。中間の層では目やロなどの特徴が検出され , さらに 分類を学び ( 例えば手とは異なる区分であると学び ) , 個々の 深い層ではそれらを組み合わせた顔全体が認識される。そして , ネットワークは出力層でその顔がクリスやリーではなく , 顔を検出することを " 学習 " すると , 過去に見たことのある顔 を , 訓練画像とわずかに異なっていても認識できるようになる。 ジョーの顔であると″推測″する。 出力層 隠れ層 入力層 学習顔を認識する ことを目指すニューラル ネットワークは数百万枚 の画像で訓練すると群 集や雑然とした風景の中 から個人の顔をピックア ップできるようになる。 クリス ジョー u ue 一」工「Åq )!qde 」 9 谷巴 ) >DOIS 工 DMÄd 認識ネットワークに入力され た顔画像は各層で解析され一最終 的にはその顔が誰であるかが正し く推測される。 奥にある層ほど複雑な特徴を認識する インドやパキスタンなどで話されてい らしく , そのおかげでチェスや橋の建 を通じて知識を獲得することを可能に る言語 ) への翻訳など , その状況ごと 設 , AI 研究など , 進化が私たちの祖 している普遍的原理を見つけ出しそれ に固有の学習タスクとデータで検証す 先に準備させなかった多くのタスクを を洗練させる試みが続いてきた。提示 る必要がある。そのアルゴリズムがど された例から機械が学習することを可 習得できている。 能にする手順 , つまり「学習アルゴリ これらの能力は人間の知能が世界に んな学習状況においても他のすべての ズム」を確立するのが , 機械学習の目 アルゴリズムよりも一貫して優れてい ついて普遍的な想定を引き出している 櫑だ ることを証明する方法はない。 ことを示しており , それを手がかりに 刀ヾ 0 機械学習の研究は主に実験に基づい この原理を数学的に述べたのが「ノ すれば , 一種の汎用知能 ( すべてのタ ている。これは万能の学習アルゴリズ ーフリーランチ定理」で , 実世界のあ スクに共通して機能する知能 ) を備え ムというものが存在しないためで , 与 らゆる学習状況に対処できるアルゴリ たマシンを作れる可能性があるだろう。 えたすべてのタスクをコンピューター ズムは存在しないことを示した定理た まさにこの理由から , 人工ニューラル にうまく学習させるのは不可能だ。ど だが , 人間の学習はこの定理に反して ネットワークの開発者たちは , 知的シ んな知識獲得アルゴリズムも , 、、夕日 " ステムを設計するためのラフなモデル いるように見える。私たちは頭の中に の認識や , 英語からウルドウー語 ( 北 として脳を採用してきた。 かなり普遍的な学習能力を備えている 39 http://www.nikkei-science.com/
況なので , 負けるつもりはない。日本 に既にある優れたロポットに優れた知 能を載せて勝ちたい。 具体的にどのようなロホットか実 現するのですか。 今のロポットは用途が限定されてい る。ロポットを買ってきただけでは動 かせず , プログラムを組んで動きを教 え込むのに時間がかかる。そこにノウ ハウが必要だ。そうした教え込む部分 を , 機械が勝手に覚え込むようにする。 そうすれば , 色々な産業にロポットが 日 サ イ 使えるようになる。ロポットが自律的 ス に考えるようになると , ロポット同士 PFN は深層学習で 2 つの強み がお互いにチームワークを組みながら まず , 開発ツールを自社で持っていること。技術 製造ができるようになる。するとロポ 進展に合わせてツールを柔軟に改良したり , デバ イスにすぐ搭載したリできる。また , 従来のよう ットが 1 台壊れたとしても他のロポッ な画像認識だけでなく , 自動運転やロボット制御 トがカバーできる。決して停止するこ といった応用面でのノウハウを蓄積している。 とがなく , 生産効率を常に向上させる 工場が実現できる。そのような先進的 それだけでなく , 我々が目指している な製造業というものを作っていきたい。 もの , どのような未来を切り開いてい これはファナックと共有しているビジ きたいのか , という中長期的な方向性 ョンでもある。 に共感を持ってもらえないと , 人材を ーーー優秀な人材を得るために工夫して 獲得するのが難しい。 いることはありますか 私自身もエンジニアなのでよくわか 現在の社員は約 40 人で , 5 ~ 6 人 るが , 他にない技術を作ってやろう , を除いてあとはエンジニアと研究者だ。 世の中をひっくり返してしまうような 目下 , 月 3 ~ 4 人ずつ人を増やしてい 革新を起こす技術を作るというビジョ る。 AI の分野ではグーグルやフェイ ンを共有することが必須だと思う。そ スブック , ウーバーなどが激しい人材 のために自分自身 , 様々な場所に講演 の引き抜き競争を繰り広げている。報 にでかけたり , インターンシップを広 酬の面で , 最低限シリコンバレーの水 く呼びかけたり , 会社の露出を増やす 準に合わせていかないといけないが , ことに腐心している。 選書 070 柔、らかヒューマノイド ロボットか知能の謎を解き明かす 細田耕著 一 6 判・ 210 頁・本体 16 0 0 円 ヒューマノイドが行一つドア開け、 一一一足歩行などから、身体の柔ら かさと知能の関係を読み解く。 柔らか ヒューマノイド ロポットが知能の謎を 解き明かす 編田物著 ヒューマ / イドは どこまで人間に 近づいているのか ? 物能を理解するためのロポット研究最第線 ! ル 9 入 4 ・ 0 西 6 未確認動物を科学する モンスターはなぜ目撃され続けるのか 通 2 ダニエル・ロクストン 著仏 o ドナルド・・プロセロ 2 松浦俊輔訳 6 始 一四六判・ 564 頁・本体円都レ = = 訃か捏造か本物か ? ビッグフッ トなどの真偽論争を徹底検証する〃 D>< 懐疑論の決定版。 O リ ! ドナルド・ R ヴ 0 セ 0 - 未確認動物、 を 科学する 化 ? 局民ミ 深層学習 ( ディープラーニング ) AI の世界を大きく変えつつあるのが深層学習の技術だ。人間の脳を模したニューラルネ ットワークを何段にも重ねたディープ・ニューラルネットワーク (DNN) を使って行う機 械学習のことを指す。人間の脳は情報をまず単純なパーツに分割し , それらのパーツを階層 状に組み合わせることで , より複雑なものを認識できるようになっている。この仕組みを大 規模な DNN で再現している。 深層学習技術が注目されているのは , この技術が , それまで人間が作る必要があった「判 断の仕組み」を , 学習を通じて自ら獲得できるようになったことだ。 深層学習が一躍注目を集めたのは , 2012 年に開かれた画像認識の精度を競うコンテスト で , この技術を使ったカナダの大学のチームが圧倒的な成績で勝利したこと。グーグルが買 収した英国の AI べンチャー , ディーブマインドの囲碁ソフト「アルファ碁」が 3 月に韓国 のイ・セドル 9 段に圧勝したが , この囲碁ソフトにも深層学習の技術が使われている。 http ・ //www nikkei-science.com/ 57
生き残るのはどいつだ ! ? 値の問題は大幅に軽減されることがわ どが参加していた。 絵でわかる 当時 , この分野の研究には否定的な かった。実際 , 大部分の局所的最小値 カンプリア爆発 は , 最適な大域的最小値にほぼ匹敵す 目が向けられており , 論文発表が難し く , 大学院生をこの分野の研究に引き るレベルで知識を学習したことに対応 更科功・著 込むこともままならなかった。だが , している。 A5 ・ 191 頁 本体 22g 円 ( 税別 ) 私たちは前進することが大切だと強く 最適化の理論的問題は理論上は解決 旧 BN 978-4-06-154779-7 地球と生命の歴史における最大 できたが , 中間層 ( 隠れ層 ) が 2 層以 感じていた。 の謎、その真相に迫る ! カンプリア爆発 上の大きなネットワークの構築は失敗 当時 , 人々がニューラルネットワー カンブリア爆発は、太古の海に”′ 訪れた「戦国時代」の幕開けを 0 クに懐疑的だった一因は , ニューラル することが多かった。 2005 年以降 , だった。その時代を懸命に生き ネットの振る舞いを最適化するのが難 CIFAR が支援した研究プログラムに た。武将 " たちの実像と壮絶なドラマを見よ ! 自分の大学、 しく , 訓練しても見込みがないと考え よって突破口が開かれ , これら障害と こんなことも知らなかった ! ! られていたことによる。最適化は数学 なっていた問題が克服されていった。 なぜ日本の大学には の 1 分野で , 数学的目的を実現する最 2006 年には , 私たちは一層ずつ積み 重ねていく技術を使って , よりディー 適なパラメータの設定を見つけようと 工学部が多いのか プなニューラルネットワークを訓練す する。この場合のパラメータは「シナ プス結合荷重」と呼ばれるもので , 1 ることになんとか成功した。 理系大学の近現代史 その後 , 2011 年に私たちはさらに つのニューロンから別のニューロンに 功刀滋・著 どれくらいの強さのシグナルが送られ ディープな ( つまりより多くの仮相ー 四六・ 303 頁 本体 2 , 200 円 ( 税別 ) ているかを表す。 ューロン層を持っ ) ネットワークを訓 ISB N 978-4-06-156705-4 大学は現在大きな転換期に 目的は , 最小限のエラーとなる予測 練するもっと良い方法を見つけた。処 ある。戦後および高度経済 を行うことた。パラメータと目的の関 理ユニットそれぞれが行う計算を変え 成長期に大学数および定員 を増し、拡大の一途を辿って 係が単純な場合 ( より正確には , 目的 るという方法で , これによって仮想ニ きたが、法人化、運営費交 関数がパラメータの「凸関数」である ューロンは脳のニューロンが実際に行 付金の削減など見直しに迫られている。 大学の過去を振り返り、行く末を考える。 とき ) , パラメータは少しずつ調節さ っている計算方法に近づいた。また , イラストで学ぶ れ , 最終的に最良の選択を与える ( 目 訓練中にニューロン間のシグナルにラ 人工知能概論 ンダムなノイズを加えると ( 脳内でも 的関数が「大域的最小値」をとる ) 値 に収束する。大域的最小値は , ネット 同様のことが起きている ) , ネットワ 谷口忠大・著 ワークによる平均予測工ラーが最も小 ークが画像や音の識別をより上手に学 A5 ・ 253 頁・本体 2 , 68 円 ( 税別 ) ISB N 978-4-06-153823-8 さいことに対応している。 習できることもわかった。 ホイールダック 2 号の冒険物 2 つの重要な要因がディープラー しかし , 一般にニューラルネットの 語を通して、人工知能全般が 学べる異色の教科書 ! これ ング技術の成功につながった。 1 つは 訓練はそれほど単純ではなく , いわゆ からの人工知能に欠かせない 「位置推定」「学習と認識」 本来はビデオゲーム用に設計されたグ る「非凸最適化」が求められる。この 「自然言語処理」に多くの タイプの最適化ははるかに難しく , 多 ラフィックプロセッサ (GPU) のお ページを割く構成。新時代の 定番テキストはこれだ ! かげで計算速度が一気に 10 倍になり , くの研究者はこの困難は克服できない イラストで学ぶ と考えていた。学習アルゴリズムがい 大規模ネットワークを妥当な時間内に ティ - プラ - ニンク わゆる「局所的最小値」にはまって動 訓練できるようになったことだ。ラベ ル付きデータを大量に入手可能になっ けなくなってしまうことがあるからた。 山下隆義・著 たこともディープラーニングの成長に そうなると , パラメータを微調整して A5 ・ 215 頁・本体 2 円 ( 税別 ) ISB N 978-4-06-153825-2 拍車をかけた。大量のラベル付きデー もニューラルネットの予測工ラーをさ ティープラーニングをはじめて らに小さくすることはできなくなる。 タで訓練した学習アルゴリズムは , た 学びたい人を対象とした入門 書。カラー図版で、基礎的な 局所的最小値のせいでニューラルネ とえ猫が画像の中の一要素にすぎない 手法が直感的に理解でき、わ・ かりやすい。さらに、 Caffe 、 ットワークの訓練が難しいという神話 場合でも , 猫という正しい答えを特定 Chainer 、 TensorFlow の活 が否定されたのはほんの 1 年ほど前た。 できる。 用事例も解説したので実践的 ! 最近のディープラーニングの成功の 私たちの研究で , ニューラルネットワ ークが十分に大きい場合 , 局所的最小 もう 1 つの理由は , 画像や音などのデ 新刊 新刊 なゼ 日本の大学には 工学部が多いのか 7 刷 イラストで第系 人工知能概論 勢 00 い 発売 4 ヶ月で 8 刷 ! イつストに学み ティープラーニング の 0 ・ 0 0 ・ 00 電 東京都文京区音羽 2-12-21 http://www.kspub. CO ル / 編集 03 ( 3235 ) 3701 販売 03 ( 5395 ) 15 http://www nikkei-science.com/
印刷に回った悪夢を 2 回ほど見たことも。幸いそうした形の ミスは現実にはありませんが ( いまのところ ) , おふざけで なく真面目にやっていたのになお間違えた経験は , 残念なが ら少なからずあります。人工知能に負けそう・ ◆高度な仕事をやってのける人工知能はさておき , ペットボ トルのふたを開けて , そっと ( ←ここ大事 ) 差し出してくれ ◆アレルギーや乾燥肌のせいで日頃から痒みには悩まされ るロボットがいてくれたら・・・・・・。不注意で手を怪我してしま ているのですが , 「痒みの科学」 ( 78 ページ ) の編集作業 った私の本音ですが , ピンポイントで生活を介助してくれる では「痒」という字を入力すること 100 回以上 , そして痒 ロポットへの期待は想像以上に大きいのではないでしようか。 さを表現する言葉をひたすら考えていたせいか , いつにも さて , 9 月号恒例の特別付録「親と子の科学の冒険」をお届 増して体が痒くて仕方がありませんでした。いつもはメカ けします。動物園や水族館でのアニマルウォッチング , 身近 ニズムを知ると気分がすっきりするのに , 今回はこんな余 なアリを使った実験 , 天体観測 , ブックガイド , イベント情 計な神経系が進化してしまったことに怒りが増すばかり。 報など , 今年も盛りだくさんの内容。夏休みの自由研究や野 ところで外国ではいたずら用の「痒み粉」なるものが売ら ( 菊池 ) れているそうです。仕掛ける方は悪ふざけのつもりでも , 外活動にぜひお役立てください。 ◆駆け出しの新聞記者として「ニューラルネット」「バック 痒がりな人には許してもらえないように思います。 ( 笹川 ) プロパゲーション」「エキスパートシステム」などを盛んに ◆人工ニューラルネットワークの 1 つ , 再帰型ニューラル 取材したのは 30 年ほど前。携帯電話の普及前夜でインター ネットワークは作文や文全体の意味の推測 , 翻訳もできる ネットなど存在すら知りませんでした。今再びニューラルネ とか ( 42 ページ ) 。いずれ SCIENTIFIC AMERICAN の ットを用いた人工知能の記事を多く目にすると , その間の技 己事の翻訳・編集も , 人工知能が実行できるようになって 術文明の進展に改めて驚かされます。にもかかわらず脳がい その人工知能は , 編集作業を終 しまうのでしようか・ 。し まだプラックポックスであるのも驚きです。その仕組みが完 えた感想もこのセミコロンに書いてしまうのかも・・ 全に解き明かされ , それがコンピューターに移植されたらど ばらくは人工知能に仕事を奪われないことを願いつつ , ど んな世界が開かれるのかちょっと想像もできません。 ( 中島 ) んどん賢くなる人工知能に負けないよう精進していきたい ( 湯浅 ) と思います。 ◆記事のおふざけ仮タイトルがそのままの形で出版された というマースキーの告白 ( 32 ページ ) に笑いました。と 同時に , やはり気をつけなくては , とも。実は私もゲラ段 階ではこの手のおふざけ仮見出しをしばしばつけるほか , 誤訳とおぼしき箇所にとりあえず黒丸印「・」を入れて後 日に再検討という手をよく使います。そのゲラがそのまま セミコロン ( 神野 ) 0 一口 0 愛読者アンケートをウェブで行っています 皆様から誌面に関するご意見 , ご要望をいただくため , 愛読者ア ンケートを行っています。弊誌ホームページにアクセスいただき , 最新号のページから愛読者アンケートをクリックすると回答シー トが表示されますので , それにご記入ください。 URL : http://www.nikkei-science.com VICE PRESIDENTANDASSOCIATE SCIEN 引 F に AMERICAN EDITOR CHIEF: Mariette DiChristina PUBLISHER, MARKETING AND EXECUTIVE EDITOR: Fred Guterl BUSINESS DEVELOPMENT: Michael Voss MANAGING EDITOR: Ricki L. Rusting EXECUTIVE VICE PRESIDENT: SENIOR EDITORS: MichaelFlorek Mark Fischetti, 」 osh Fischmann, Seth Fletcher, Christine Gorman, PRESIDENT: Steven lnchcoombe Clara Moskowitz, Gary Stix. Kate Wong One New York PIaza, Suite 4500 ASSOCIATE EDITORS: New York, NY 10004-1562 U. S. A. Lee BiIIings, Larry Greenemeier, Dina Fine Maron, Amber WilIiams SENIOR REPORTER: David BiellO Copyright ◎ 2016 by Nikkei Science, lnc. All rights reserved. Some content ⅲ this 0 円 NION EDITOR: Michael D. Lomonick publication was previously published ⅲ PODCAST EDITOR: Steve Mirsky other languages by Scientific Americat1' lnc. or itS licensors, and iS used under license CONTR 旧 UTING EDITORS: 仕 om Scientific American, lnc. Katherine Harmon Courage, ・本誌掲載記事の無断転載を禁じます。 W. Wayt Gibbs. Anna Kuchment, SCIENTIFIC ・ RObin LIoyd, George Musser, AMERICAN Christie Nicholson. 」 Ohn Rennie scientific American trademarks used with CONTR 旧 UTING WRITER. Ferris 」 abr permission Of Scientific American' lnc. 発行人・編集部長竹内雅人 株式会社日経サイエンス 中島林彦 代表取締役社長 編集長 神野幹雄 竹内雅人 編集委員 菊池邦子 代表取締役副社長 湯浅歩 , 笹川綿子 David Swinbanks 編集協力 福田沙代子 , 青木貴保 澤田宏之 取締役 八十島博明 , 岸田信彦 MichaelFlorek デサイン 石川幸彦 , 井上大輔 Antoine E. Bocquet 堀内健一 営業部長 佐藤俊明 武田浩司 , 鬼頭穣 販売 監査役 峯尾ー弘 佐藤俊明 , 斧木悠子 広告 秋山博史 邑楽由美子 総務 経理 早川陽子 曽根康恵 WEB 〒 1 00-8066 東京都千代田区大手町 1 -3-7 代表 03 ( 3270 ) 0251 http://www.nikkei-science.com/ 日経サイエンス 2016 年 9 月号
ムワークと比べて , 様々なタイプのニ ューラルネットワークを柔軟に実装で きることが特徴。社長の西川は「深層 学習の技術もそれ単体ではいずれはコ モティティー ( 日用品 ) 化すると思う。 フレームワークを積極的に公開して深 層学習を研究する人を増やし , 技術の 可能性を広げていくことが重要だ」と 強調する。 PFN は社内に何人もの「スーパー プログラマー」を抱える。その代表格 が創業メンバーの 1 人で , 副社長の岡 野原だ。 10 歳の頃からプログラミン グを始めたという文字通りの早熟のプ 最新論文を検討毎週木曜日の昼 , 大半の社員が集まって AI 技術などの研究論文を検討する。発 ログラマー。父の影響でパソコン通信 表しているのは岡野原大輔・副社長。 に興味を覚え , 通信料を安くできるデ してともに出場した仲だ。入社後は , されている。こうした論文を常時ウォ ータ圧縮ソフトを作ったという。 深層学習のフレームワーク Chainer ッチして , 技術の動向を確認するのが 東京大学 2 年の時 , 新しい方式によ 必須だという。これはという研究成果 の開発プロジェクトに関わり , 現在は るデータ圧縮ソフトを開発し , 情報処 チーファーキテクトとして , 複数のプ はすぐに社内で進行中のプロジェクト 理推進機構 (IPA) の「未踏ソフトウ に応用を試みる。そんな体制が PFN ロジェクトを横断的に管理する重要な 工ア創造事業」に採択された。同事業 には整っている。 役割を任せられている。 では自然言語処理に関するソフトや , 4 月 , PFN は提携先であるファナッ 新しいアルゴリズムを採用した検索エ 最新論文を毎週吟味 クとの新しい協力事業をアナウンスし ンジンも開発した。 た。ファナックが米 IT 大手のシスコ PFN では毎週木曜日に「サーベイ このときの成果が , 最初に創業した 社 , 産業用オートメーション大手のロ の会」と呼ばれる勉強会が開かれる ( 上 PFI が手掛けた法人向け検索エンジン の写真 ) 。内外の研究動向を社員が総 ックウェル・オートメーション , そし の基礎になっている。 て PFN と協業して , CNC ( コンピュ 出で勉強する集まりだ。 6 月下旬の木 岡野原は大学院時代に , 米グーグル ーターによる数値制御 ) 装置や産業用 曜の正午過ぎ。東京・大手町の本社会 のインターンシップ・プログラムに参 ロポットなどを相互につないで最適に 議室に , 弁当やランチボックスを持っ 加し , 米国本社での開発プロジェクト 動かすためのプラットフォーム た社員が集まってきた。 で働いた経験がある。グーグルに入社 「 FIELD system 」を開発する。プラ 食べ終わったころを見計らって , 副 することもできたが , 「グーグルのよ ットフォームの核となる AI 技術は 社長の岡野原が発表者の席で最近発表 うなすばらしい組織を日本でも作りた PFN が開発・提供する。 された「注目論文」をスクリーンに映 い」という気持ちがまさったという。 PFN にとって , 個々の機械だけで し出して , 解説を始める。説明や質疑 若手社員が第一線で活躍の場を与え なく , 機械同士がリアルタイムで協 はすべて英語。岡野原はこの日は論文 られているのも PFN の特徴だ。リサ 調・学習するという「エッジ・ヘビー 2 点を紹介。「私からは以上。ほかに ーチャーの松元叡一 ( 26 ) もその 1 人。 コンピューティング」を具現化する重 2014 年夏のインターンシップ参加を 発表する人はいませんか」。入れ替わ 要なステップとなる。 AI を武器に高 りで若手の研究者が登壇して別の論文 経て 2015 年 4 月に PFN に入社。「ぶ 度な製造業を生み出すという PFN の つからないクルマ」のデモの前段階と を検討した。 ビジョンは , さらなる高みを目指そう AI の研究のスピードは極めて速い。 なった研究など , 主要プロジェクトの PFN が力を注ぐ深層学習など機械学 第一線で活躍している。 としている。 習の分野でも , 国内外の大学や企業研 松元の 1 年前 , 2014 年に入社した 著者吉川和輝 ( よしかわ・かずき ) 究者による新しいアルゴリズムなどに 奥田遼介 ( 27 ) は , 高校時代 , 松元 日本経済新聞編集委員。科学技術分野を幅広 ついての研究成果が毎日のように公開 と国際情報オリンピックに日本代表と く取材している。 袋△△ 0 日本経済新聞 http ・ //www nikkei-science.com/