検索 - みる会図書館

全データから 92112件見つかりました。
トランジスタ技術 2016年08月号

付録 x ホビー・スバコンで科学の実験 特集 ライアントでも実行できます . ラズベリー・パイ 3 の 0 実験 ターミナルで Python インタブリタを起動して , ・実験の準備 import tensorflow as tf ラズベリー・パイ 3 と連携して動作するように c = tf. constant ("HellO, distributed TensorFlow / " ) ソコン用の環境にも TensorFIow をインストールしま sess = tf. Session ("grpc:// 10.0.0.4 : 5555 " ) す . ラズベリー・パイ 3 上に構築する手順 ( 6 ) を真似し 0 sess. run ( C) て自分でビルドすることもできます . としてみます . 10.0.0.4 は , TensorFlow サーバを起動 私は , CentOS 7 の上でビルドしたバージョンを利 用しました . 自分でビルドしない場合でも , サンプル したパソコンの IP アドレスです . や便利なスクリプトを利用するために , 手元に 実行すると , ラズベリ パイ 3 で "Hello, TensorFIow 一式をダウンロードしておきましよう . distributed TensorFIow / " という表示が出力されま す . tcpdump を使って観測してみると , 図 2 のように ・ HeIIo WorId で動作確認 / パソコンにインストールした TensorFlow 環境がネ 通信が発生していることが確認できます . ットワーク越しで利用できることを確認します . ・ラズベリー・バイ 3 x パソコン / 文字認識を試し ターミナルを開いてサーバを起動します . サーバ起 てみよう / 動用のラッパ・スクリプトを使うのが便利です . ネットワーク越しの TensorFlow サーバを利用する サー ときは , セッションのインスタンスを作成する際に バを起動するには , TensorFlow リポジトリのルート・ URI を指定すれば OK です . 文字認識プログラムでも ディレクトリの下で , 分散 TensorFIow を利用してみましよう . . /te nsorflow/tools/dist_test/server/grpc— チュートリアル ( 10 ) では , tensorflo 、 v__server_wrapper. Sh ¥ sess = tf. lnteractiveSession ( ) ー cluster—spec = ' IOC 酬 localhost : 5555 ' ー j0b— ー task_id = 0 name = local として , TensorFlow セッションのインスタンスを生 と入力します . これで , 5555 番ポートで待ち受ける 成していますが , 単に サーバを起動できます . サーバを起動したパソコンの sess = tf. InteractiveSe ssion (' grpc: 〃 10.0.0.4 : 5555 " ) 別のターミナルで Python インタブリタを起動して , とすれば , 10.0.0.4 の上で動いている TensorFlow サー import tensorflow as tf バに処理を投げることができます . 他に変更する必要 c = tf.constant ("Hello, distributed TensorFlow / り がないのがフレームワークの恩恵ですね . sess = tf. Session (' grpc. //10Calh0St:5555") 試してみると , 1 時間弱で学習とテストが完了しま sess. run (C) した . このときのテスト・データでの文字認識の成功 率は 99.29 % で , 最初のチュートリアルのモデルより と入力すると , ターミナルに "Hello, distributed 高い精度で文字を認識できています ( 図 3 ). TensorFIow / " と表示されます . たった 1 行修正するだけで , ラズベリー・パイ 3 の 肝は , tf. Session で TensorFlow セッションのインス タンスを作る際の引数にサーバの URI(UniversaI カメラや I/O を簡単に扱えるメリットを活かしつつ , Resource Locator) を指定している点です . たったこ 計算速度が遅い・メモリが少ないというデメリットを パソコンで補うことができます . 活用の幅が広がりそ れだけで , 起動した TensorFlow サーバ上に処理を任 く三好健文〉 うですね . せることができます . もちろん , 同じパソコンからだけではなく , 別のク をロー na い - ーーも 8 [ y grap 内 : % su 面 tcpdl.•• -i ・れ P25 ・四杙 5555 tcpå—: 「 5 ・セ P 5 叩 pr ・ 55 , 動 5 ・ 0 -vv fO 1 ー pro セ 0 ー d ・ ( ・ ー is セ・れ i ・れ P25 ・ , link-type ( Eth ・れ社 ) 第 capture 5 ・ 65535 b ・ 5 ・ 5 : 25 : ・ 1.929852 IP 1 ・ . ・ .0.1 ・ 2. 124 》叩四・ p ・門 09 ・れセ : れ 095 CP. ] 第 5 ・ q 125 1538 % 5 : 貶 5153813 ack 3 14 824 , 0 22 % op 85 [ , , TS ー 33 ・ 2 9 ・ ( 3347318 ] , 1 ・物花 ・ 5 : 25 : ・ 1.93 IP 叩 . 門 ond ー -09 ・ n セ 1 ・ . ・ .0.1 ・ 2. 124 : れ 5 [ P. ] 第 5 ・ q 1 : 6 図 2 TensorFIow の分散 2 , ack 花 , 235 , tions [ , , TS 01 33 871 ・ ( ′ 3 聞 2 9 ] , 1 ・ th 61 処理が機能してパソコンと ・ 5 : 25 : ・ 1.931122 IP 1 ・ . ・ . ・ .1 ・ 2.5 ・ 124 》叩四 . p ・門 onal 、 -09 ・れ t : FI 5 [. ] , ack 62 , れ 22 % セ i85 [ 第 , お 0 ー 3 245 ・・ ( 33 871 ] を一・セ h ・ 通信していることがわかる tcpdump コマンドで観測 103 ンタ技術 2016 年 8 月号

トランジスタ技術 2016年08月号

step 1 , training 5 セ叩 193 % , 0 朝 i れ 9 5 p 19 , セ aini れ 9 5 p 197 第 ai れ i れ 9 step 198g 第 ai れ i れ 9 ◆第 8 章と Appendix B の参考文献◆ ( 1 ) TensorFIow, https: 〃 www.tensorflow.org ( 2 ) 特集ラズバイではじめる人工知能コンピュータ , インター フェース , 2016 年 7 月号 , CQ 出版社 . ( 3 ) 松尾豊 ; 人工知能は人間を超えるか , KADOKAWA/ 中経 出版 , 2015. ( 4 ) 岡谷貴之 : 深層学習 ( 機械学習プロフェッショナルシリー ズ ) , 講談社 , 2015. ( 5 ) 麻生英樹 , 安田宗樹 , 前田新一 , 岡野原大輔 , 岡谷貴之 , 久保陽太郎 , ポレガラダヌシカ , 神嶌敏弘 ( 編集 ) ; 人工知能 学会 ( 監修 ) , 深層学習 Deep Learning, 近代科学社 , 2015. ( 6 ) lnstalling TensorFlow on Raspberry Pi 3 (and probably 2 as well) , https://github.com/samjabrahams/tensorflow - on - raspberry ー Pi ( 7 ) MNIST For ML Beginners https・//www.tensorflow.org/versions./rO.8/tutorials/mnist/ be ginners/index. html ( 8 ) lmage Recognition https://www.tensorflow.org/versions/rO.8/tutorials/image— recognition/index. html ( 9 ) Distributed TensorFlow https・//www.tensorflow.org/versions/r().8/how—tos/ distributed/in dex. html ( 10 ) Deep MNIST for Experts https://www.tensorflow.org/versions/r().8/tutorials/mnist/ 5 セ・ p t ・ 5 セ 「・ 01 05 ・ 0 191g , セ rai れ i れ 9 0 ( ( u 「 0 step 192 % , セ ai れ i れ 9 0 ( ( 0 5 地 p 195 , ai れ i 0 ( ( 0 に 0 5 p 19 , t ai れ i れ 9 0 ( ( 0 ′ 0 ( y 5 p 1998 , セ「 ai れ i れ 9 0 ( ( u00 ( y 0 ( ( u 0 ( y 0 ( ( 0000Y 0 ( ( リ′ 0 ( y 0 ( ( 000 ( y 0 ( ( u00 ( y ・ .98 1 1 1 1 1 1 1 1 1 0 ( ( u 「 0 ( y 0. 的 29 5 25.8635 32.1505 1 新 17.785 トレーニング結果を テスト・データで試 した結果 ( 正解率 99 % ) ” 59 分 26 秒 pi 05P し・にヴ p 辷一 / セ色を名 st まー 図 3 Tenso 「日 ow の文字認識プログラムをラズベリー・バイと パソコンで協調したところ , 1 時問弱で学習とテストが完了した ラズベリー・パイ 3 単体で計算したときは 6 時間を要していた CQ 出版社 のエレクト pros/index. html http::'/seminar.cqpul). CO. jp/ ー①ラズベリー・バイ 3 て IOT / Web 電子工作ことはじめ LCD / 赤外線送受信 / ハイ レゾ再生 / 3 大気象センサ付き / トランジスタ技術 2016 年 8 月号に 付属したラズベリー・パイの機能を 拡張したシールド基板を組み立て , ・パイで制御する実習を ラズベリー 2016 / 9 / 17 ( 土 ) 《 1 日コース》 講師電子工学工ンジニア小野寺康 幸氏 ④直伝 / 最新 FPGA を使ったビデオ・ システムの開発・外部インターフ ェース ( カメラリンク送信 ) 拡張編 機器間でお手軽にデータ転送 / 本セミナでは , 高性能 MPU を搭 載した最新 FPGA で構築した簡単 なカメラ・システムにカメラリンク : ータ送信を実現する . 2016 / 7 / 20 ( 水 ) 《 1 日コース》 講師 : アドバンスド・テクノロジー ーリサーチ・ジャパン早乙女勝昭氏 104 厄 T 時代のエンジニアに贈るおすすめ実習講座 ロニクス・ セミナ ー送信レ F 機能を実装して外部へのデ一ヶーションの製作や外部デバイスの制御方 ② Linux 組み込みシステムの開発 [ 講師による実験実演付き ] 操作法からデバイス・ドライ バ作成 , ROM 化の事例まで , カー ネル 3 ℃対応 SH ー 4A CPU の小型の組み込み Linux*—ドを例に , 組み込み機器 の開発に Linux を利用する際の参考 ーとなる事例やノウハウを紹介する . 2016 / 8 / 18 ( 木 ) ~ 19 ( 金 ) 《 2 日コース》 講師・シリコンリナックス海老原祐 太郎氏 ⑤実習・ラズベリー・ノヾイ 3 ては じめる IoT 超人門 [ ネット & 組み込 み開発シリーズ 2 , 教材基板付き ] web アプリ , 外部デバイス 制御から Android 連携まで 組み込みプログラミングと組み込み ! Linux の基礎について解説し , Web アプリ 法についてラズベリー・パイ 3 で実習する . 2016 / 8 / 21 ( 日 ) 《 1 日コース》 講師 : 筑波大学システム情報系山際 伸ー氏 ③ N0de-REDx ラスパイて Web コンピュータ・プログラミング ラズベリー・パイもサクサ ク動かせる / ブラウザでお絵描 きレ 0 / cqpub. co. jp/) にて公開予定 詳細は Web サイト (http://seminar. 講師 . バステルマジック桑野雅彦氏 ンサの情報を取得する実習を行う . で構築しリモート・アクセスによりセ クライアント・システムを Node ー RED ラズベリー・パイ 3 を使ってサーバ / 、 cqpub. co. jp/) にて公開予定 詳細は Web サイト (http: 〃 seminar. 講師 : 構造計画研究所藤井義巳氏 / 大堀文子氏 ー信やディジタル変復調の実験を行う . ーて , SDR による FM 変調信号の送受 SimuIink とラズベリー・パイを使っ 本セミナでは , MATLAB / を ーディジタル変復調実験まで S DR による F M 送受信から ウェア無線ことはじめ ズベリー・バイによるソフト ⑥ MATLAB/Simulinkx ラ ンシスタ技術 2016 年 8 月号

トランジスタ技術 2016年08月号

特集付録 x ホビー・スバコンで科学の実験 リスト 5 ラズベリー・パイ 3 にマウス [ 図 1 ( a ) ] を見せて認識させる実験用プログラム 実験結果は図 1 (b) # # # カメラで撮影した画像を TensorF10w の画像認識サンプル camera. stop_preview ( ) # # # classfy-image. PY を使って認識する例 # 撮影した画像を f 。 0. jpg に保存 camera. capture (,f00. jpg ) # 撮影した画像をディスプレイに表示 im = lmage. open (,f00. jpg ) im. show ( ) print ("start tO recognize") # 外部プロセスとして class 土 fy ー土 mage. py を呼び出し何が写っているか 認識させる subprocess. ca11 ("python classify—image ・ py ——image— f土1e=f00. jpg" ′ she11=True) プロローグ 1 2 3 4 5 6 7 8 9 import picamera import subprocess import OS from P 工 L import lmage with picamera. PiCamera ( ) as camera: camera. resolution = ( 640 ′ 48 の # プレビューを開始 camera. start_preview ( ) # 改行のコード入力を待つ raw—input ( ) より詳しく知りたい場合には , 深層学習④や深層学 スを提供しています . 動画像に字幕をつけるなどの興 習 Deep Learning(5) が参考になると思います . 味深いサンプルもあります . さまざまな人工知能を試 実験に使った Google の TensorFlow のようなフレー せる時代になりそうです . ムワークだけでなく , 大手べンダが人工知能のサービ らしたりしながら計算を繰り返します . この計算式で求まった結果が , トレーニング・ ・第 2 処理 . 工ビデンスを確率に変換する データで与えられる正解たとどのくらい近いかを , 工ビデンスを確率に変換する s 。 ftmax という関数を 交差ェントロピを使って評価します . 交差工ントロ 利用して , 10 個の数字に対応する確率分布を求めます . ピを求める演算を cross ー entr 叩 y という名前で定義 しています . この評価式を使ってルとわを最適化す TensorFIow には , softmax や matmul など , 機械学習 るためには , TensorFIow に用意されている tf. train. によく使う演算ライプラリが用意されています . ・パイ 3 にトレーニング・データを入力 GradientDescentOptimizer が使えます . 勾配降下 ラズベリ 法によって , がたと近くなるようにルとわを調 して , 次式のルとわの最適な値を求めます . く三好健文〉・ 整していくわけです . y = tf. nn. softmax (tf. matmul(), W) + b) 5 6 図 B ⑦ TensorFlow のチュートリアルに例示されている各文字の重みをラズベリー・バイ 3 に学習させた結果 プロローグ ( p. 40 ) でカラー画像をご覧いただけます ン 9 技術 2016 年 8 月号 4 3 2 1 0 9 8 7 101

トランジスタ技術 2016年08月号

特集付録 x ホビー・スバコンで科学の実験 写して , キーポードの Enter キーを押すと , その撮像 ・すという手描き文字をカメラで撮影 / 数字の 4 と データを 28X28 ピクセルのデータに変換して返します . 認識できるか ? 実際 , 写真 2 のように紙に数字・ 4 ' を描いてカメラ 学習ずみのパラメータが用意できたら , 全部を組み で映すと , 図 7 のような結果が得られます . 白色の部 合わせます . リスト 4 にプログラムを示します . パラ 分をはっきりさせるために , 適当なしきい値 ( ここで メータと演算の定義の部分はリスト 1 と同じものです . は 0.8 にした ) を設定して , それより大きいときは 1.0 , 入力データを置く x, 重み付き加算用のパラメータ 小さいときは 0.0 と表示しています . 本当はこのしき Ⅳとわ , s 。 ftmax 回帰演算であるを定義しています . い値設定と判定も学習できるとよいのですが・ Ⅳとわの決定には , リスト 3 を実行して作成した学習 学習で得たパラメータルとわを保存して使いまわす 済みデータ var. dump を利用します . saver. save で保 ( 学習処理を初回だけにする ) 存したデータを saver. restore を使って読み出せます . パラメータが用意できたら , 入力データ x にカメラの このチュートリアル実験では , カメラで撮ったデー タを入力とし , トレーニング・データを使ってパラメ 撮像データをセットして , s 。 ftmax 回帰演算を実行し ータ ( ルとわ ) を決定し , そのパラメータが有用かどう かをテスト・データで試しました . ラズベリ ・パイ 3 に手描きしたの文字すを見せ 毎回 , いろんな形の数字 ( 0 ~ 9 ) をラズベリー ると , 図 8 のように・ 4 ' と答えました . イ 3 に学習させて , Ⅳとわを得るのは手間です . そこで , 実験③ラズベリー・バイはマウス 一度学習して得たパラメータ ( Ⅳとわ ) は保存して使い をマウスと認識するか ? まわします . リスト 1 のプログラムにリスト 3 を追加 して実行すると , var. dump というファイルに値をⅣ ・サンプルでお試し / バンダの画像データを読み込 とわを保存できます . ませて判定させる 画像認識も試してみましよう . TensorFIow のサン プル ( lnception ー v3 ) を試してみます⑧ . サンプル・ プログラムは , リスト 1 画像データで文字をラズベリー・バイ 3 に入力してその文字を当てるプログラムを制作 # # # TensorF10w チュートリアル MNISTForMLBeginners[7] # # # にしたがって実装した s 。 ftmax 回帰による文字認識プログラム # Tens 。 rF1 。 w の処理をするインスタンスを生成 sess =tf. Session() import tensorflow as tf # # 組み立てたモテルをトレーニング # # # MN 工 ST ー da む a の下に MN 工 ST データをダウンロードする # まずはバラメタを初期化 from tensorflow. examples. tutorials. mnist import input sess. run (init) # 10 圓回のトレーニングを実行 data mn i S t input_data. read data sets ("MNIST_data/" for 土 in range ( 10 0 0 ) : 0 n e hot=True ) batch—xs ′ batch—ys = mnist. train. next_batch(100) # 入力 (x) にトレーニングの入力データの一部 (batch-x) を . # 正解データ (y_) にトレーニングの正解データ (batch_y) を与えて # # Tens 。 rF1 。 w の API を使って演算を定義 . モデルを組み立てる # 最適化器 (train-step) を実行することで . バラメタ (W と b) を更新する # 入力テータを置き場所を用意 x = tf. placeholder ( tf. f10at32 ′ [None, 784 ] ) sess. run (train—step, feed—dict={x: batch—xs ′ y—: batch # 重み付き加算のためのバラメタを用意 ys } ) W=tf. Variab1e(tf. Zer0S([784′ 10 ] ) ) # # トレーニングによって得られたバラメタでテストデータで動作を確認 b = tf.VariabIe (tf. zeros ( [ 10 ] ) ) # 得られた結果 ( どの文字か ? の確率 ) と正解データ . それそれの一番大きなも # softmax 回帰によって入力データが . どの数字が求める演算を定義 のが # 等しいかどうかを確認する演算を定義 y = tf. nn. softmax (tf. matmul (x ′ W) + b) correct_prediction = tf. equal (tf. argmax (), 1 ) ′ # 正解の置き場所を用意 tf. argmax (y_, 1 ) ) # 正解した個数の割合を算出する演算を定義 y_=tf. placeholder(tf. f10at32′ [None ′ 10 ] ) # 計算によって求めた値 (y) と正解 (y_) の正しらしさを評価するための accuracy = tf. reduce_mean (tf. cast (correct_prediction ′ t # 交差工ントロピーを求める演算を定義 f. f10at32 ) ) cross entropy = tf. reduce_mean (—tf. reduce sum(y # 入力 (x) にテストの入力データを . 正解データ (y_) にテストの正解データを tf ユ og(y) ′ reduction indices=[l]) ) 与えて # 正解率を求める # cr 。 ss ー en む ropy を小さくするようにバラメタ w と b を 決めるための最適化器を用意 print (sess. run (accuracy, feed dict={x: mnist. test.images ′ t r a 土 n S t e p = t f. t r a 土 n. G r a d i e n t D e s c e n t Op t i mi z e r ( 0.5 ) y_: mnist. test ユ abels})) minimize (cross entropy) # バラメタを初期化する演算を定義 init=tf.initialize a11 variables() 97 トランシスタ技術 2016 年 8 月号

世界の非ネイティブエリートがやっている英語勉強法 = HOW THE WORLD'S NON-ENGLISH-SPEAKING ELITE STUDY ENGLISH

こんな話をすると、「それは、イエールに来る学生たち が、もともと優秀だからでしょ ? 」と言う人がいます。たし かに選択する言語や個人の能力によっても差が出てくるとは 田いますが、イエールで外国語を 1 年間勉強すれば、それぐ ノじ、 らいの語学力を習得することができます。 何が言いたいのかというと、「最も効率的な語学習得法」 については、実のところ、もうすでに一定の「答え」が世界 的に確立されているということです イ = ールはこの「世界標準の学習 ; 去」を実践して 0 、る学校 の 1 つであり、学生たちはそれに沿って「語学習得の最短ル ート」を走っているにすきないのです。 一方、日本の中学・高校の英語教員のうち、大学で外国語 教授法の単位を取得した人は半数にも満たないそうです。要 するに、病理学の基礎知識を持たない医師が、内科医を務め ているようなもの。考えてみると恐ろしい現実ですよね。 ー英語習得への「最短ルート」を走り抜けよう ! そこで本書では、イエール大学で学生として学び、教員と して教えた経験をベースにしながら、私自身が実践してきた ( そして英語塾で実践している ) 英語学習法をお伝えしてい きたいと思います。 8

シャルリとは誰か? : 人種差別と没落する西欧

2009 年における宗教実践 地図 1 ー lc カトリックの実践者 . IFOP の調査でカトリックで あると自己申告した者の割合 - 19 ー 26 % = 16 ー 19 % 二 14 - 16 % [ 二 ] 8 ー 14 % 60

トランジスタ技術 2016年08月号

特集付録 x ホビー・スバコンで科学の実験 Variable VariabIe MeanC NegtZ range< 6 more 入力と出力の関係が保たれる都合のよい 処理変数を割り出す演算プロック (b) grdient 演算プロックの入出力 けの数値計算開発環境 ( フレームワーク ) です . よく使 う関数をライプラリでもっていて , C, C + + , Python の 3 種類のプログラミング言語を利用できま す . パソコンはもちろんラズベリー・パイ 3 の上でも 利用できます . ライプラリを使って数値演算をノード , 演算データ Tensor の配列 ( テンソル ) を工ッジとするデータ・フロー・グ ラフを組み立てることができます . 機械学習プログラ ミングの基本的な構成方法の一つであるニューラル・ ネットワークもライプラリを使って構築できます ( 図 4 ). 一般に , ニューラル・ネットワークのパラメータは , 高性能なコンピュータで莫大な計算を実行して算出し ます . 公開されているフレームワークやライプラリで は , GPU や複数のコンピュータを使って効率よく計 算できるしくみを提供するものもあります . ・ TensorFlow をコンバイルしてインストールする TensorFlow が備えるライプラリをインストールし ます . ラズベリー・パイ 3 向けのコンパイルずみ TensorFlow パッケージが公開されているので ( 6 ) , pip コマンドを使ってインストールしてください . 構築の 手順はドキュメントとしてまとめられているので自分 でコンパイルすることもできます . コンパイルには数 時間かかります . pip を使ってインストールするにしても , サンプル・ プログラムを簡単に試すために , TensorFIow—式を 手元に置いておくとよいでしよう . 次のようにキーポードで入力して , GitHub から clone します . git clone ー -recurse ー submodules https:〃 github .com/tensorflow/te nsorflow ・パイ 3 に TensorFlow を組み込んで , ラズベリ 人工知能を体験してみましよう . プログラミング言語 ・ラズベリー・バイにカメラをつなぐ は python を利用します . 図 3 に実験の全体像を示し ラズベリー・パイ純正カメラを使えるようにします . ます . python スクリプトでラズベリー・パイ純正カメラ を使うために , picamera をインストールしましよう . ・定番の人工知能実験プラットフォーム TensorFIow 画像処理用ライプラリ (PiIIow と ImageMagick) もイ で遊ぶ TensorFIow(1) は , オープン・ソースの機械学習向 ンストールします . picamera と Pillow の二つのライ トランシスタ技術 2016 年 8 月号 Mean プロローグ 1 2 3 4 5 6 7 8 9 gradient.. Gradient 出力 gradient 人力 range start delta gradient.. Rank Neg gradient... 楕円はノード . sum( 加算 ) や mul( 積算 ) を 組み合わせて 所望の演算網 ( 例えばニュー ラル・ネット を構築する ) Sum reductio … mul g 「 adient … Log Placeholder 1 g 「 adient... gradient... Softmax gradient... add Va 「 iable.. MatMul Variable.. gradient... Placeholder (a) 演算フロー 図 4 人工知能プログラミング環境 TensorFIow(GoogIe) に構築 された so 負 max 回帰による文字列認識の演算フロー smu や m などの演算ノードを組み合わせている 実験の準備 gradient... 95

読んだら忘れない読書術 : 精神科医が教える

第 4 章 「読んだら忘れない」精神科医の読書術超実践編 実際に、どうやって読んでいくのかワ 記憶に残る読書術の「 HOW TOJ ・ つな 【精神科医の読書術超実践編 1 】目的地を把握する 5 「パラバラ読書術」・ ます、全体を把握してゴールと読み方を決める・ 【精神科医の読書術超実践編 2 】知りたい部分を先に読んでしまう 5 「ワープ読書術」・ 本は最初から一字一句読む必要はない・ 【精神科医の読書術超実践編 3 】自分にとって少し難しいくらいかいい 5 「ギリギリ読書術」・ ギリギリの難しさが学びを最大化する・ 【精神科医の読書術超実践編 4 】幸福感に包まれて記憶力も高まる 5 「ワクワク読書術」・ 【スキマ時間記憶強化読書術 3 】「分」を最大限活用する 5 「 5 人間が集中できる時間単位とは ? 集中力を最大に発揮できる「燔分」を上手に活用する・ 【スキマ時間記憶強化読書術 4 】睡眠の力を借りて脳に焼きつける 5 「熟睡読書術」 つ」 寝る前の読書は、記意に残る ! 126 1 ーーの法則読書術」・ 1 22 129 135

図書館雑誌 2014年08月号

日本図書館協会出版物申込用修→ー勲囂 朏 3523 42 送信日 日本図書館協会出版販売係行 AX 注文用紙 2014-8 年 月 日 氏名 ご住所 TEL 個人会員番号 ※「図書館雑誌」送付用封筒に記載されています ー協会出版物※協会個人会員割引有り。送料実費。表示は本体価格 ( 消費税別途 ) 闘病記文庫入門ー医療情報としての第病記の提供方法ー J い図書館実践シリーズ 17 石井保志著 図書分類からながめる本の世界 JLA 図書館実践シリーズ 16 近江哲史著 よい図書館施設をつくる J い図書館実践シリーズ 13 植松貞夫、冨江伸治、柳瀬寛夫、川島宏、中井孝幸著 『みんなで考える図書館の地震対策』編集チーム編 ( 施設 A,B,C 会員配布資料 ) みんなで考える図書館の地震対策ー減災へつなぐー 図書館と法図書館の諸問題への法的アプローチ J 図書館実践シリーズ 12 鑓水三千男著 2009.10 「図書館の自由に関する宣言 1979 年改訂」解説第 2 版日本図書館協会図書館の自由委員会編 2004.3 図書館の歩む道ーランガナタン博士の五法則に学ぶー J い図書館実践シリーズ 15 竹内悊解説 2010.4 牧野雄ニ、川嶋斎著 2012.12 新着雑誌記事速報から始めてみよう一 RSS ・ A 円を活用した図書館サービスー J 図書館実践シリーズ 21 8 月のおすすめ◆図書館実務と図書館員の教養のために 日本図書館協会図書館利用教育委員会編 情報リテラシー教育の実践ーすべての図書館で利用教育を一 J い図書館実践シリ 日本図書館協会児童青少年委員会児童図書館サービス編集委員会編 児童図書館サービス 2 ー児童資料・資料組織論ー JLA 図書館実践シリーズ 19 日本図書館協会児童青少年委員会児童図書館サービス編集委員会編 児童図書館サービス 1 ー運営・サービス論ー J 図書館実践シリーズ 18 ーズ 14 1 , 800 本体価格注文冊数 1 , 600 2 000 850 2 , 000 1 , 000 1 , 800 1 , 800 1 , 800 1 , 900 1 , 900 ・出版物一覧はホームページ http://wwwjla.orjp もご参照ください。ホームページからもご注文できます。 ■委託販売書籍※会員割引はありません。代金の計算方法本体価格 x 消費税 x 冊数 + 送料 ( 実費 ) 書名著者名 ( 2014 年 5 月刊 ) 文献調査法第 6 版調査・レポ - ト・論文作成必携 ( 情報リテラシ - ) 毛利和弘著刊 ( 2014 年 3 月刊 ) デジタル情報資源の検索増訂第 5 版高鍬裕樹著京都図書館情報学研究会刊 ( 2014 年 3 月刊 ) 改革と反応アメリカの生活における大都市公立図書館 ローズマリー・ R. ドウモント著川崎良孝、久野和子訳京都図書館情報学研究会刊 ( 2014 年 3 月刊 ) カーネギー図書館 : 歴史と影響 ジョージ・ポビンスキー著川崎良孝、川崎智子訳 京都図書館情報学研究会刊 ( 11 月刊 ) 図書館と民営化 ジェーン・ジェラードほか著川崎良孝訳京都図書館情報学研究会刊 ( 11 月刊 ) 図書館と知的自由川崎良孝編著吉田右子、安里のり子、福井佑介著京都図書館情報学研究会刊 ■既刊の協会出版物・委託販売書籍のこ注文にお使い下さい。 ( 書名・注文冊数を記入 ) 書名 本体価格注文冊数 1 , 900 1 , 500 3 , 500 5 , 000 2 , 000 6 , 000 注文間数

トランジスタ技術 2016年08月号

Appendix B いつもの パソコンで アシスト 人工知能プログラミング環境 TensorFIow の 分散処理機能で高速機械学習 ラズベリーバイ 3 で 6 時間かかった文字認識が 1 時間弱で終了 / 実際にディープ・ニューラル・ネットワークによる ■ラズベリー・バイには本格的な文字認識は 文字認識モデルのパラメータをラズベリー・パイ 3 で 荷が重い・・・パソコンの力も借りて高速処理 学習させると , 6 時間半もの時間を要しました . とこ 本格的な文字認識処理⑩では , ディープ・ニュー ろが , Corei3CPU, メモリ 16G バイト搭載したデス ラル・ネットワーク ( 注 1) による文字認識モデル ( リス クトップ・パソコンで同じプログラムを実行すると , ト 1 はモデルの構築部分を抜粋したもの ) が用いられ 約 50 分で演算が終了しました . 普段使っているパソコンを利用しない手はありませ ており , 本文の入門者向けチュートリアル・ミニ実験 ん . 図 1 に示すように , 数値演算プログラミング環境 ( 本文のリスト 1 ) よりはるかに複雑です . 演算回数も TensorFIow は , ネットワーク越しにあるコンピュー 多く , 大量のメモリが必要です . タに計算を割り振ることができます⑨ . リスト 1 Tenso 「日 ow に用意されている本格的な文字認識処理 ディープ・ニューラル・ネットワークによる文字認識モデル # # # ディープニューラルネットワークによる文字認識プログラム # # # 計算モデル定義部分の抜粋 # # # 最初のチュートリアルと比べるとモテルが . かなり複雑である def weight_variable(shape) : initial = tf. truncated_normal(shape ′ stddev= 0.1 ) return tf.Variab1e(initia1) def bias variable(shape) : initial = tf ℃ onstant(). 1′ shape = shape) return tf.Variab1e(initia1) def conv2d(), W) : return tf. nn. conv2d(><' W ′ s t r 土 de s padding = 'SAME') def max_p001_2x2 (x) : return tf. nn. max—pool(x ′ ksize = [ 1 ′ 2 ′ 2 を 1 ] = 'SAME') [ 1 ′ 2 ′ 2 ′ 1 ] ′ padding strides = tf. nn. re1u(conv2d(x image ′ W convl) 十 b convl) h convl h - P0011 ー max_p001_2x2 (h convl) W conv2 = weight_variab1e([5, 5 ′ 32 ′ 64 ] ) b conv2 = bias variab1e([64]) tf. nn. re1u(conv2d(h_P0011 ′ W conv2) 十 b conv2) h conv2 h 一 P0012 = max_p001—2x2 (h_conv2) W fcl = weight_variab1e()7 ☆ 7 ☆ 64 ′ 1024 ] ) b fcl = bias variab1e([1024]) h ー P0012 flat = tf. reshape(h_p0012 ′ [ ー 1 ′ 7 ☆ 7 ☆ 64 ] ) tf. nn. relu(tf. matmu1(h_p0012 flat, W fcl) 十 b fcl) h f c 1 keep_prob = tf. placeholder(tf. f10at32) h fcl_drop = tf. nn. dropout(h fcl ′ keep_prob) W fc2 = weight_variab1e([1024, 10]) b_fc2 = bias variab1e([10J) [ 1 ′ 1 ′ 1 ] 1 ′ = weight_variab1e(C5, 5 ′ 1 ′ 32 ] ) W convl b convl = bias variab1e(C32]) = tf. reshape()t [ - 1 ′ 28 ′ 28 ′ 1 ] ) X lmage y_conv = tf. nn. softmax(tf. matmul (h fcl_drop, W_fc2) 十 b fc2) 速いパソコン① Tenso 「 Flow ( サーパ・ プロセス ) レ イ デ カメラ 0 タスク A センサ ァータ 図 1 TensorFIow の分散 処理機能を利用すればデ ィープ・ニューラル・ネ ットワークによる文字認 識モデルのバラメータ計 算を高速化できる ラズベリー・パイ 3 で学習さ せると 6 時間半も要するが , Core i3 CPU, メモリ 1 6 G バイト搭載したデスクトッ プ・パソコンで同じプログラ ムを実行すると約 50 分で終 了する ( 注 1 ) ディープ・ニューラル・ネットワーク : ニューラルネットワークを多層に重ねたもの . 層数を増して少ないノードで同じ性能のネットワークを作る . 局所収東や学習が進まなくな 102 る課題は , 事前学習や Dr 叩。 ut の新技術 , 活性化関数などで解決している . 文献 ( 3 ) を参照 動画像 GPU 付きの超速い パソコン ( ② TensorFlow ( サーパ・ プロセス ) ラスペリー・ノイ 3 タスク B TensorFlow ンシスタ技術 2016 年 8 月号