検索 - みる会図書館

検索対象: TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)から 54件ヒットしました。

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


参 考 ・ 深 層 学 習 ( 人 工 知 能 学 会 監 修 ) 近 代 科 学 社 刊 ・ イ ラ ス ト で 学 ぶ デ ィ ー プ ラ ー ニ ン グ ( 山 下 隆 義 著 ) 講 談 社 刊 ・ IT ェ ン ジ ニ ア の た め の 機 械 学 習 理 論 入 門 ( 中 井 悦 司 著 ) 技 術 評 論 社 刊 ・ TensorFIow を 使 っ た 機 械 学 習 こ と は じ め (Toru UENOYAMA) http://www.slideshare.net/ToruUenoyama/tensorflow-gdg ・ す ぎ ゃ ー ん メ モ http://memo.sugyan.com/ ・ kivantium 活 動 日 記 http://kivantium.hateblo.jp/ ・ 30 分 で わ か る Adam ()y echizen_tm) https://ja.scribd.com/doc/260859670/30minutes-Adam ・ CS231n: ConvoIutional NeuraI Networks for VisuaI Recognition https://cs231n.github.io/ ・ Cource Notes ・ Te nsorFlow Site GitHub https://www.tensorflow.org/ https://github.com/tensorflow/tensorflow 参 考 73

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


var = tf. get—variabte( 'biases' shapey initializer=tf. constant_initiatizer(vatue)) return var 「 学 習 」 で 変 化 す る の は 、 こ れ ら パ ラ メ ー タ ー の 値 で す 。 学 習 を 実 行 す る の は 後 述 す る 「 最 適 化 ア ル ゴ リ ズ ム 」 で 、 モ デ ル そ の も の は 現 在 の パ ラ メ ー タ ー を 使 っ て 推 論 す る 役 割 し か 持 ち ま せ ん 。 trainable 筆 者 が そ う だ っ た の で す が 、 デ ー タ フ ロ ー プ ロ グ ラ ミ ン グ と 機 械 学 習 の 経 験 が な い 人 は 、 な ぜ こ れ ら の コ ー ド で 値 が 変 化 す る の か 、 理 解 に 苦 し む か も し れ ま せ ん 。 そ ん な 人 は 、 tf. get_variable の API を 確 認 し て み て く だ さ い 。 tf. get—variable(name, shape=None , dtype=tf. f10at32 , initializer=None, regu1ar6zer±None, trainabte=True, cot1ections=None) 変 数 を 取 得 す る オ ペ レ ー シ ョ ン の 引 数 trainabte は 、 学 習 の と き に 値 を 調 整 す る 対 象 と す る か を 表 し ま す 。 後 述 す る 最 適 化 ア ル ゴ リ ズ ム は 、 セ ッ シ ョ ン か ら t rai nable が True の 変 数 ( パ ラ メ ー タ ー ) を 取 り 出 し て 、 そ れ ら の 値 を 更 新 す る こ と で 学 習 を 進 め る の で す 。 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ 日 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ 日 日 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ NOte: trainable 逆 に 言 え ば 、 最 適 化 ア ル ゴ リ ズ ム は trainable が True の 変 数 を 勝 手 に 変 更 し て し ま い ま す 。 そ の た め 、 変 更 さ れ た く な い 変 数 を 宣 言 す る と き は 明 示 的 に False を 指 定 す る 必 要 が あ り ま す 。 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ 日 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ 日 推 論 の 実 行 構 築 し た グ ラ フ の 計 算 が 実 行 さ れ る の は 、 セ ッ シ ョ ン 内 で オ ペ レ ー シ ョ ン を 実 行 し た 時 で す 。 関 数 inference を 実 行 し た 時 点 で は 、 logits の 値 は 計 算 さ れ ま せ ん 。 リ ス ト 2.10 は 、 オ ペ レ ー シ ョ ン logits を 実 行 す る プ ロ グ ラ ム で す 。 学 習 デ タ (data-batch-[1-5] . bin) に 含 ま れ る 50 , 000 枚 の 画 像 を inference で 構 築 す る グ ラ フ に 入 力 し て 、 そ れ ぞ れ の 結 果 を 1 。 gits と し て 得 ま す 。 第 2 章 CIFAR-IO の 学 習 と 評 価 29

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


TensorFIow の 基 礎 第 1 章 1 . 1 TensorFIow と は 「 TensorFlow 」 は 、 2015 年 11 月 に G 。 。 gle 社 が オ ー プ ン ソ ー ス で 公 開 し た 機 械 学 習 用 の 計 算 フ レ ー ム ワ ー ク で す 。 2017 年 2 月 に バ ー ジ ョ ン 1.0.0 が リ リ ー ス さ れ ま し た 。 機 械 学 習 に 必 要 と な る 膨 大 な 計 算 を 複 数 の GPU や マ シ ン で 分 散 ・ 並 列 処 理 が で き る 他 、 モ バ イ ル (Android や iOS) や ポ ー ド ・ コ ン ピ ュ ー タ ー (Raspberry (i) の 上 で 動 作 す る こ と も 大 き な 特 徴 で す 。 12 テ ー タ フ ロ ー グ ラ フ TensorFlow に よ る 処 理 は 、 デ ー タ フ ロ ー グ ラ フ の 「 構 築 」 と 「 実 行 」 の 2 つ の フ ェ ー ズ で 構 成 さ れ ま す 。 グ ラ フ の 構 築 TensorFIow は 、 デ ー タ の 流 れ ( フ ロ ー ) を 定 義 し た 「 グ ラ フ 」 で 処 理 を 実 行 し ま す 。 あ ら か じ め グ ラ フ を 構 築 す る こ と で 、 Python と C / C + + 間 の オ ー バ ー ヘ ッ ド を 低 減 し 、 さ ら に 複 数 の GPU や マ シ ン で の 並 列 ・ 分 散 処 理 を 可 能 に し て い ま す 。 第 1 章 TensorFIow の 基 礎 7

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


本 書 に つ い て 本 書 は 技 術 書 オ ン リ ー 即 売 会 「 技 術 書 典 (https://techbookfest.org/) 」 で 頒 布 さ れ た 同 名 出 版 物 を 本 書 の 構 成 筆 者 が 、 TensorFlow に 挑 戦 し て 、 七 転 八 倒 し た 成 果 を ま と め た も の で す 。 こ の 本 は 、 TensorFI 。 w が オ ー プ ン ソ ー ス で 公 開 さ れ る ま で 「 機 械 学 習 」 に 触 れ た こ と が な か っ た 底 本 と し て 、 修 正 等 を 行 い 制 作 さ れ ま し た 。 ソ フ ト ウ ェ ア は バ ー ジ ョ ン ア ッ プ さ れ る 場 合 が あ り 、 本 書 で の 説 明 と 機 能 内 容 な ど が 異 な っ て し ・ Python 3.6 (macOS sierra) / 3.6 (Ubuntu 16.04 LTS) ・ TensorFlow 1.1.0 本 書 は 次 の バ ー ジ ョ ン で の 動 作 を 確 認 し て い ま す 。 ソ フ ト ウ ェ ア の バ ー ジ ョ ン y.org/) を 参 照 し て く だ さ い 。 ま た 、 計 算 ラ イ プ ラ リ Numpy も 使 用 し て い ま す 。 必 要 に 応 じ て リ フ ァ レ ン ス (http://www.nump ま す 。 本 書 は 、 読 者 に プ ロ グ ラ ミ ン グ 言 語 「 Python 」 に 関 す る 基 本 的 な 知 識 が あ る こ と を 前 提 に し て い 前 提 知 識 最 後 に 、 認 識 精 度 を 上 げ る た め に い く つ か の 取 り 組 み を し ま す 。 タ ー の 変 化 を 視 覚 的 に 提 え ま す 。 モ デ ル と パ ラ メ ー タ ー の 保 存 と 読 み 込 み 方 法 。 ま た 、 フ ィ ル タ ー の 可 視 化 な ど を 通 じ て パ ラ メ ー る 推 論 と 学 習 、 評 価 を 実 装 し ま す 。 次 に 、 画 像 の 多 ク ラ ス 分 類 問 題 「 CIFAR-IO 」 を 題 材 に 「 畳 み 込 み ニ ュ ー ラ ル ネ ッ ト ワ ー ク 」 に よ 本 書 で は 、 ま ず 始 め に Tens 。 rFI 。 w の 基 本 で あ る デ ー タ フ ロ ー グ ラ フ に つ い て 解 説 し ま す 。 ま う こ と も あ り 得 ま す 。 本 書 ご 購 入 の 前 に 、 必 ず バ ー ジ ョ ン を ご 確 認 く だ さ い 。 URL の フ ォ ー ム か ら ご 連 絡 く だ さ い 。 サ ン プ ル コ ー ド ・ サ ポ ー ト サ ン プ ル コ ー ド は 次 の URL で 配 布 し て い ま す 。 ま た 、 本 書 に 関 し て お 気 づ き の こ と が あ れ ば 、 同 4 http.〃 g00. g レ forms/21sX177eJ3CpNKngl 本 書 に つ い て

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


あ と が き 『 TensorFlow は じ め ま し た 』 を ご 購 入 い た だ き 、 あ り が と う ご ざ い ま す 。 あ と が き と 言 い つ つ 、 ロ を 開 け ば 反 省 の 弁 し か 出 て き ま せ ん ( も っ と 早 く ミ ニ バ ッ チ を 試 し て い れ ば 良 か っ た ・ ・ い ま し た て お 礼 を 申 し 上 げ ま す 。 本 書 を 形 に で き た の は ひ と え に 皆 様 の お か げ で す 。 本 当 に あ り が と う ご ざ 最 後 に な り ま し た が 、 お 忙 し い 中 、 快 く レ ビ ュ ー を 引 き 受 け て く だ さ っ た 皆 様 に 、 こ の 場 を 借 り 間 の た め に も 、 ま す ま す 精 進 し て い き ま す の で 、 今 後 と も よ ろ し く お 願 い い た し ま す 。 こ れ か ら も TensorFlow や 機 械 学 習 へ の 取 り 組 み は 続 け て い き ま す 。 散 っ て い っ た 沢 山 の 計 算 時 上 で の 調 査 や 挑 戦 は 、 無 駄 に な る こ と は な い と 確 信 し て い ま す 。 し か し 、 悩 み な が ら 手 を 動 か す の は 、 一 番 楽 し い 時 間 の 過 ご し 方 で も あ り ま す 。 本 書 を 執 筆 す る と 言 え ば 、 わ か る 人 に は わ か っ て も ら え る の で は な い で し よ う か ? 時 間 を か け て 学 習 さ せ た 後 、 ワ ク ワ ク し な が ら 評 価 を 実 行 し て 、 0.100 が 表 示 さ れ た と き の 気 持 ち る こ と は も と よ り 真 似 る こ と も 難 し い の だ と 思 い 知 り ま し た ど と 甘 い こ と を 考 え て い ま し た が 、 蓋 を 開 け て み る と 、 チ ュ ー ト リ ア ル こ そ ノ ウ ハ ウ の 塊 で 、 超 え 執 筆 を 始 め る 前 は 「 所 詮 チ ュ ー ト リ ア ル 、 ち ょ っ と 工 夫 す れ ば も っ と い い の を 作 れ る だ ろ う 」 な 72 ・ 足 立 昌 彦 ( 株 式 会 社 カ プ ク http://www.kabuku.co.jp/) ・ 上 野 山 徹 ( 株 式 会 社 セ ン ス タ イ ム ジ ャ パ ン http:〃www.sensetime.jp/) ・ 佐 藤 一 憲 ・ 取 ロ 敏 憲 ・ 中 澤 慧 ( 50 音 順 ・ 敬 称 略 ) あ と が き

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


モ テ ル の 構 造 こ か ら は 、 構 築 し た モ デ ル の 構 造 に つ い て 説 明 し ま す 。 図 2.4 は 、 リ ス ト 2.3 の モ デ ル を 図 解 し た も の で す 。 TensorFlow の 用 意 し て い る CIFAR-IO チ ュ ー ト リ ア ル の モ デ ル を 簡 略 化 し た も の で 、 2 つ の 「 畳 み 込 み 層 」 と 「 プ ー リ ン グ 層 」 、 「 全 結 合 層 」 で 構 成 さ れ て い ま す 。 図 2.4 : モ デ ル の 構 造 fc 00 〇 0 〇 00000 0 max pooling conv max 32X32X3 畳 み 込 み 層 (ConvolutionaIIayer) 「 畳 み 込 み 層 」 は 、 画 像 か ら 特 徴 量 を 抽 出 し ま す 。 リ ス ト 2.5 : 畳 み 込 み 層 # convl ー with tf. variable—scope ('conyl') - as scope: —get—wei ghts(shape=[5, 5 , 3 , 64]»stddev=Ie—4) ・ weights ー conv —ftf. nn. conv2d(image—node, weights, [ 1 1 1 , 1 ] , padding='SAME') —get—biases ( [ 64 ] 。 , [email protected]、 1) biases tf. nn. bias—add(conv,- biases) ー bias convl = tf. nn. relu(bias, name=scope• name) ま ず 画 像 に 対 し て 「 畳 み 込 み (tf. nn. conv2d) 」 を 行 い ま す 。 weights は 「 Rank 4 」 の Tensor ( 多 次 元 配 列 ) で す 。 リ ス ト 2.5 で は [ 5 , 5 , 3 , 64 ] を 指 定 し て い ま す 。 こ れ は [ 5X5 ] の 大 き さ を 持 っ た 、 3 チ ャ ン ネ ル の フ ィ ル タ ー を 64 枚 、 使 う こ と を 表 し て い ま す 。 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ N0te: 呼 び 方 の 違 い 「 フ ィ ル タ ー (Filter) 」 を 「 カ ー ネ ル (KerneI) 2 」 ま た は 「 ノ ヾ ッ チ (Patch) 」 と 呼 ぶ こ と も あ り ま す が 、 ど れ も 同 じ よ う な 意 味 と 考 え て 良 さ そ う で す 。 機 械 学 習 に は こ の よ う に 「 言 い 方 は 違 う け れ ど 同 じ よ う な 意 味 」 と い う 単 語 が あ り ま す 。 た と え ば 「 中 「 訓 練 」 と 「 学 習 」 、 「 損 失 関 数 」 と 「 誤 差 関 数 」 、 「 Dense Layer 」 と 「 Fully-connected Layer 」 、 第 2 章 CIFAR-IO の 学 習 と 評 価 25

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


著 者 紹 介 ー 有 、 山 : 圭 二 ( あ り や ま け い じ ) 有 限 会 社 シ ー リ ス 代 表 。 Android ア プ リ ケ ー シ ョ ン の 受 託 開 発 や 、 Android に 関 す る コ ン サ ル テ ィ ン グ 業 務 の 傍 ら 、 技 術 系 月 刊 誌 へ の 記 事 執 筆 。 最 近 は 趣 味 で 機 械 学 習 ( デ ィ ー プ ラ ー ニ ン グ ) を 取 り 組 ん で い る 。 著 書 と し て 「 Android studi ( ) で は じ め る 簡 単 Android ア プ リ 開 発 ( 技 術 評 論 社 刊 ) 」 「 TensorFlow は じ め ま し た ( イ ン プ レ ス R & D Next PubIishing) 」 な ど 。 ◎ 本 書 ス タ ッ フ ア ー ト デ ィ レ ク タ ー / 装 丁 : 岡 田 章 志 十 GY デ ジ タ ル 編 集 : 栗 原 翔 表 紙 イ ラ ス ト : 根 雪 れ い ・ 本 書 の 内 容 に つ い て の お 問 い 合 わ せ 先 株 式 会 社 イ ン プ し ス R & D メ ー ル 窓 口 np- [email protected] 件 名 に 「 「 本 書 名 ー 問 い 合 わ せ 係 」 と 明 記 し て お 送 り く だ さ い 。 電 話 や FAX 、 郵 便 で の ご 質 問 に は お 答 え で き ま せ ん 。 返 信 ま で に は 、 し ば ら く お 時 間 を い た だ く 場 合 が あ り ま す 。 な お 、 本 書 の 範 囲 を 超 え る こ 質 問 に は お 答 え し か ね ま す の で 、 あ ら か じ め ご 了 承 く だ さ い 。 ま た 、 本 書 の 内 容 に つ い て は NextPub ⅱ shing オ フ ィ シ ャ ル Web サ イ ト に て 情 報 を 公 開 し て お り ま す 。 http://nextpublishing.jp/

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


f. れ n. sparseæsoftmax—cross—entropy—with—lognts cross—entropy logitSFtogits,& 、 abe 1 言 be S い name='cross=entropy—per 0 文 目 血 01e ' ) OSS ー entrop —mean•ötfrreduce—mean(cfoss—entropy. name= ' cross—entropy' ) etur cross—entropy—mean 最 適 化 ア ル ゴ リ ズ ム (Optimizer) 最 適 化 ア ル ゴ リ ズ ム は 、 損 失 関 数 が 計 算 し た 誤 差 を も と に 、 よ り 正 解 に 近 い 推 論 が で き る よ う に パ ラ メ ー タ ー を 更 新 し ま す 。 リ ス ト 2.14 で は 、 勾 配 降 下 法 (Gradient Descent AIgorithm) を 用 い て パ ラ メ ー タ ー を 更 新 し ま す 。 リ ス ト 2.14 : _train 関 数 def2 こ モ 垣 イ .n は 00 し 0 globåt$tep) : opt = セf'霧a贏 . GradientDeseentOptimize ー earni れ g ー ト ä セ 0 = 0.00 ユ ) ま g 「 ad = opt•compute—gradients(totat—toss)- rain-op 、 opt ・ apply—gradientskgradsß gtobal-stepeglo a ー s モ 中 ) etur ~ t 2 イ n 00 。 一 般 的 に 、 学 習 が 上 手 く 進 ん で い る と 誤 差 が 小 さ く な り ま す 。 反 対 に 学 習 に 失 敗 し て い る と 誤 差 は 大 き く な っ て い き ま す 。 前 者 を 「 収 束 」 、 後 者 を 「 発 散 」 と そ れ ぞ れ 呼 び ま す 。 Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅱ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ NOte: 学 習 率 (Leaning Rate) 学 習 率 は 、 勾 配 を も と に ど の 程 度 の 割 合 で ノ ヾ ラ メ ー タ ー を 更 新 す る の か を 決 め る 値 で す 。 学 習 率 が 大 き す ぎ る と パ ラ メ ー タ ー の 更 新 量 が 大 き く な り す ぎ て 誤 差 が 収 束 し な か っ た り 、 発 散 し た り し て 学 習 に 失 敗 し ま す 。 逆 に 学 習 率 が 小 さ す ぎ る と 、 勾 配 に 対 す る ノ ヾ ラ メ ー タ ー の 更 新 量 が 小 さ す ぎ て 学 習 が 進 ま な か っ た り し ま す 。 学 習 率 の よ う に 人 が 決 定 す る 必 要 が あ る 値 を 「 八 イ バ ー バ ラ メ ー タ ー 」 と 呼 び ま す 。 Ⅱ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅱ ⅱ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ Ⅲ 学 習 の 結 果 リ ス ト 2.12 の プ ロ グ ラ ム を 実 行 す る と 、 入 力 画 像 に 対 す る 推 論 と 学 習 を 実 行 し ま す 。 リ ス ト 2.15 は 、 学 習 を 2 工 ポ ッ ク 6 実 行 し た と き の 「 data-batch-l. bin 」 の 1 枚 目 の 画 像 (Frog: 6 ) に 対 す る 推 論 の 結 果 (logits) で す 。 第 2 章 CIFAR-IO の 学 習 と 評 価 35

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


tf. app. ー run ( ) リ ス ト 2.11 の よ う な 結 果 に な り ま す 5 。 プ ロ グ ラ ム を 実 行 す る と 、 リ ス ト 2.11 : 実 行 結 果 0 .00073374 , 一 0. 。 01612439 , ー 0.00132072 , ー 0.00176617 , .00667406 , 0.01280629 ] 月 0.01342955 , ー 0.02436399 , 0.0075357 0010216 .0066790 % 0.00e72604 广 0.01612369 广@. 0e134 ー 0. e0176804 , 0.01283565 ] 月 0 .00100057 , 0.01341876 , ー 0 .02436198 , 0.00754533 , [ 71 : 〔 [ 0e670 ェ 5 0.00074749 广 0.01609738 , ー 0 、 0e131153 , ー@.e0179062 , @. 01283403 ] 月 0.00751761 , 0.00104108 , 0.0134209 , ー 0 .0243591 正 解 の ラ ベ ル に 依 ら ず 、 す べ て の 画 像 に つ い て 低 い 値 を 示 し て い ま す 。 な ぜ こ う い う こ と が 起 き る の で し よ う か そ れ は 、 現 在 の プ ロ グ ラ ム に 「 学 習 (learn) 」 が 含 ま れ て い な い た め で す 。 2.3 学 習 (learn) モ デ ル そ の も の は 推 論 (inference) の 機 能 し か 持 ち ま せ ん 。 現 在 の パ ラ メ ー タ ー を 使 っ て 出 力 層 の ノ ー ド そ れ ぞ れ に つ い て 確 か ら し さ を 「 推 論 」 す る の が モ デ ル の 役 割 で す 。 「 学 習 (learn) 」 と は 、 推 論 の 結 果 と 期 待 す る 結 果 と の 誤 差 を も と に 、 推 論 を よ り 期 待 す る 結 果 に 近 づ く よ う に パ ラ メ ー タ ー を 更 新 す る こ と を 言 い ま す 。 学 習 を 「 訓 練 (train) 」 と 呼 ぶ こ と も あ り ま す が 、 同 じ 意 味 と 考 え て 差 し 支 え あ り ま せ ん 。 学 習 は 、 以 下 の 手 順 で 行 い ま す 。 1 . 推 論 (inference) 2 . 損 失 関 数 を 使 っ て 推 論 の 結 果 と 正 解 の 誤 差 ( 損 失 ) を 求 め る 3 . 最 適 化 ア ル ゴ リ ズ ム を 使 っ て パ ラ メ ー タ ー を 更 新 す る リ ス ト 2.12 は 、 学 習 に 必 要 な オ ペ レ ー シ ョ ン を 加 え た グ ラ フ ( 図 2.6 ) を 構 築 し ま す 。 図 2.6 : 学 習 の オ ペ レ ー シ ョ ン を 追 加 し た グ ラ フ trai n-placeholder ・ input—image' total_loss train—op 」 0S5 tra in i nference logi ts expand-dims CIFAR-IO の 学 習 と 評 価 32 第 2 章

TensorFlowはじめました 実践! 最新Googleマシンラーニング (NextPublishing)


図 1 .6 : TensorBoard で 可 視 化 し た グ ラ フ Mu1 CO t ー 1 Const CO t ー 1 ま た 、 グ ラ フ を 構 成 す る 各 オ ペ レ ー シ ョ ン を ク リ ッ ク す る と 、 詳 細 な 情 報 を 確 認 で き ま す 。 た と え ば 図 1.7 を 見 れ ば 、 オ ペ レ ー シ ョ ン Mul は 、 オ ペ レ ー シ ョ ン 「 Add 」 と 定 数 「 Const_1 」 の 入 力 を 受 け て い る こ と が わ か り ま す 。 図 1 7 : オ ペ レ ー シ ョ ン Mul の 詳 細 を 表 示 0 Mul 0 の れ : Mu ま Attributes ( 1 ) ( 対 p ぎ ゞ DT 」 NT3 幻 叫 s ② Mul 50 CO な 1 ConsL1 0 瞰 pu お ( の mo 鴨 を 了 印 い CO n st ConsL1 こ の 他 に も TensorBoard に は 、 学 習 中 の モ デ ル の パ ラ メ ー タ ー を グ ラ フ と し て 表 示 す る な ど 、 便 利 な 機 能 が た く さ ん あ り ま す 。 TensorBoard の 詳 細 は 、 Web サ イ ト 6 を 参 照 し て く だ さ い 。 1 . モ バ イ ル 、 ポ ー ド ・ コ ン ヒ ・ ユ ー タ ー で の 動 作 は 訓 練 ・ 学 習 済 の モ デ ル を 使 っ た 認 識 ( 評 価 ) を 前 提 と し て い ま す 2. tf. global-variables-initialize 「 () は 、 バ ー シ ョ ン 1.0.0 以 前 は tf. initialize-all-variables() と い う 名 称 で し た 3. た た し Convolutional Neural Network で 処 理 す る 場 合 は tf. float32 に 変 換 す る 必 要 が あ り ま す https://www.tensorflow.org/programmers_guide/dims_types 4. TensorFlow Tensor Ranks. Shapes. and Types 5. こ の フ ァ イ ル は ど ん ど ん 増 え て い く の で 、 古 い も の を 定 期 的 に 消 す か 、 出 力 先 の デ ィ レ ク ト リ を 分 け る こ と を お 勧 め し ま す https://www.tensorflow.org/get_started/summaries and tensorboard 6. TensorBoard Visualizing Learning TensorFlow の 基 礎 第 1 阜 17