Books

ディープラーニングを支える技術 ??「正解」を導くメカニズム 技術基礎

岡野原大輔

Product Details

ISBN/Catalogue Number
ISBN 13 : 9784297125608
ISBN 10 : 4297125609
Format
Books
Publisher
Release Date
January/2022
Japan
Co-Writer, Translator, Featured Individuals/organizations
:

Content Description

膨大な数の関数の集まりをどのようにお互い協調させるのか。局所的な相互作用の微調正から全体の動きを定めていく。最新手法の根底にあるしくみ、原理に着目し、技術の「可能性」を探求する。

目次 : 第1章 ディープラーニングと人工知能―なぜディープラーニングが成功しているのか/ 第2章 入門 機械学習―コンピュータの「学習」とは何か/ 第3章 ディープラーニングの技術基礎―データ変換の「層」を組み合わせて表現学習を実現する/ 第4章 ディープラーニングの発展―学習と予測を改善した正規化層/スキップ接続/注意機構/ 第5章 ディープラーニングを活用したアプリケーション―大きな進化を遂げた画像認識、音声認識、自然言語処理/ Appendix 厳選基礎 機械学習&ディープラーニングのための数学

【著者紹介】
岡野原大輔 : 2010年東京大学情報理工学系研究科コンピュータ科学専攻博士課程修了(情報理工学博士)。在学中の2006年、友人らとPreferred Infrastructureを共同で創業、また2014年にPreferred Networksを創業。現在はPreferred Networksの代表取締役CERおよびPreferred Computational Chemistryの代表取締役CEOを務める(本データはこの書籍が刊行された当時に掲載されていたものです)

(「BOOK」データベースより)

Customer Reviews

Comprehensive Evaluation

☆
☆
☆
☆
☆

0.0

★
★
★
★
★
 
0
★
★
★
★
☆
 
0
★
★
★
☆
☆
 
0
★
★
☆
☆
☆
 
0
★
☆
☆
☆
☆
 
0

Book Meter Reviews

こちらは読書メーターで書かれたレビューとなります。

powered by

  • ぶう

    初学者向けのディープラーニング技術の解説本。著者はプリファードネットワークスの岡野原さん。基本技術部分はほぼ網羅されており、尚且その解説も丁寧で大変分かりやすい内容。重要部分には色が塗られているなど、読みやすい工夫がされている所もグッド。ディープラーニング理論の学習となると「ゼロから作るディープラーニング」や、機械学習プロフェッショナルシリーズの「深層学習」の名が挙がるが、理論と実践のバランスがよく、ポイントを押さえた本書の方がよいだろう。E資格の取得に向けて勉強中の人にもオススメできる本であると思う。

  • nbhd

    内容はDL初心者から中級者向け、とても丁寧に書かれている本で、著者の誠実さがある意味「文学的」だなと感じた。さて、著者がDLを「合成関数のオバケ」と書いているように、DLの不気味さは、プログラミングがおこなう”計算過程が見えない”ところにある気がする。幾重にも幾重にも網の目を張ったオバケ関数が、人間の手計算では敵わないほどの計算をブンブンとしてくれている。それはたとえ、コード上で合理的に理解可能な計算式を組んだとしても同じで、ちょっと想像つかないくらいのことをしている。わー、こわいこわい。良い本です!

  • nbhd

    高速で再読。へへぇ〜と唸ったポイントまとめ。@「ヒトが2年間、周辺の環境を見ている」という経験は、2.6億枚の画像を使ったDLの自己教師あり学習に等しい。A「誤差逆伝播法」って言うと、なんかカッコイイけど、そんな名前が付けられる前は「後ろ向き自動微分」っていう可愛らしい名前の時期があった。可愛い。BChatGPTの「T」の字…Transformerを構成するAttention機構を理解するのには骨が折れる。20世紀は「愛こそはすべて」、21世紀はAttention is All you need らしい。

  • Nobu A

    岡野原大輔著書初読。22年初版、23年第4刷。ディープラーニング理解促進に購入。アマゾンで格安中古本も出回ってなく、値段的に学術書寄りだと予想していたが、いやはや難しい。いや難し過ぎる。間違いなくプログラマー向け。他方、日本語の上澄みを掬うような感覚でDLの凄さを漠然とながらも理解出来たのと「過学習(overfitting)」「汎化性能(generalization performance)」「教師あり/なし学習(un/supervised learning)」等の専門用語を学べただけでも良しとするか。

  • nbhd

    3回目、Attentionの部分だけ読む。ChatGPTのTはTransformerのTで、Transformerの核となっているのがAttentionだ。さて、Attentionが何をしているのかを「異性への告白」に例えて、かんたんに理解してみよう。「私はあなたが好きだ」という発話は、まず「私/は/あなた/が/好き/だ」と分解される。これをAttentionを通過させると、各単語の重要度が確率表現でランク付けされる。好き80%、あなた17%、だ3%みたいに……そういえば、ランク王国って番組あったなぁ

レビューをもっと見る

(外部サイト)に移動します

Recommend Items