Books

大規模言語モデル入門

山田育矢

Product Details

ISBN/Catalogue Number
ISBN 13 : 9784297136338
ISBN 10 : 4297136333
Format
Books
Publisher
Release Date
July/2023
Japan
Co-Writer, Translator, Featured Individuals/organizations
:

Content Description

コンピュータが言語を理解するしくみ。

目次 : 第1章 はじめに/ 第2章 Transformer/ 第3章 大規模言語モデルの基礎/ 第4章 大規模言語モデルの進展/ 第5章 大規模言語モデルのファインチューニング/ 第6章 固有表現認識/ 第7章 要約生成/ 第8章 文埋め込み/ 第9章 質問応答

【著者紹介】
山田育矢 : 株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。大規模言語モデルLUKEの開発者

鈴木正敏 : 株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。2021年3月に東北大学大学院情報科学研究科博士後期課程を修了し、博士(情報科学)を取得。博士課程では質問応答の研究に従事。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者

山田康輔 : 株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。2021年3月名古屋大学大学院情報学研究科博士前期課程修了。2022年4月より日本学術振興会特別研究員(DC2)。自然言語処理、特にフレーム意味論に関する研究に従事

李凌寒 : LINE株式会社(2023年10月よりLINEヤフー株式会社)自然言語処理エンジニア。2023年3月に東京大学大学院情報理工学系研究科博士後期課程を修了し、博士(情報理工学)を取得。博士課程では言語モデルの解析や多言語応用の研究に従事。大規模言語モデルmLUKEの開発者(本データはこの書籍が刊行された当時に掲載されていたものです)

(「BOOK」データベースより)

Customer Reviews

Comprehensive Evaluation

☆
☆
☆
☆
☆

0.0

★
★
★
★
★
 
0
★
★
★
★
☆
 
0
★
★
★
☆
☆
 
0
★
★
☆
☆
☆
 
0
★
☆
☆
☆
☆
 
0

Book Meter Reviews

こちらは読書メーターで書かれたレビューとなります。

powered by

  • nbhd

    実装コードも含めて、とてもていねいに書かれた入門書だということは伝わってくるのだけど、かんたんには読めない、難しい本だった。なんというか、ネイティブな確率統計感覚の必要性をひしひしと感じた。

  • tieckP(ティークP)

    LLMの勉強は、ある程度は(LLM自体に尋ねるのも含めて)ネットでやるべきだと思うけど、こういうしっかりしていそうな雰囲気の本があると学んだ感はある。数式などは僕には手に負えないので、概観を学べたのみだけれど。コードはHugging Faceにあるものの、datasetsがpyを開けなくなったので、今ではそのままではほぼ動かず、意図せずした修正が勉強にはなった。文章生成モデルのこの数年での発展が目覚ましく、本書で紹介されているBERT系の技術はそっちに投げればやってくれるが、歴史の勉強として面白かった。

  • mim42

    最近話題のLLMを作れるようになる本です。2023年8月時点で、リサーチャー/エンジニア向けの書籍としては最も新しくて詳しいと思います。「入門」の範囲を超えるという意見もありそうですが、少なくともpythonや機械学習を用いた自然言語処理についての経験を少しでもお持ちの方ならスラスラ読めると思います。ソースコードって何?という人は読まない方が良いと思います。

  • しお

    2024年8月時点で一番しっかりと書かれているLLM入門書だと思いました。1〜4章を読んだあとで,arxivに掲載されているような論文を読んでいくとスムーズです。

  • mft

    一応読んだ。前半は理論編、後半はレシピ編。タイトルからは大規模化すると創発的能力が現れるということに関してもっと説明があるのかと思っていたが、性能が上がるんだからガンガン使っていきましょうということでしかなかった。内容は多分すぐ忘れる(覚えていても陳腐化する)

レビューをもっと見る

(外部サイト)に移動します

Recommend Items