言語とフラクタル 使用の集積の中にある偶然と必然

田中久美子 (Book)

基本情報

ジャンル
ISBN/カタログNo
ISBN 13 : 9784130802574
ISBN 10 : 4130802577
フォーマット
出版社
発行年月
2021年04月
日本
共著・訳者・掲載人物など
:
追加情報
:
344p;22

内容詳細

これほど複雑・多様かつ変化する人間のことばにあって、どんな時代の、どんな言語の、どんなジャンルでも成り立つという「統計的言語普遍」。その不思議を検証し、その意味を考えることから、人間の記号使用の深奥に迫ってゆく。

目次 : 第1部 導入/ 第2部 要素の分布の特性:開放性・稀少性/ 第3部 系列の特性:塊現象・長期記憶/ 第4部 統計的言語普遍から言語の部分構造へ/ 第5部 統計的言語普遍と言語の数理モデル/ 第6部 思索的考察/ 結語

【著者紹介】
田中久美子編 : 東京大学先端科学技術研究センター教授。東京大学大学院工学系研究科情報工学専攻博士課程修了、博士(工学)。工業技術院電子技術総合研究所、東京大学大学院情報学環講師、東京大学大学院情報理工学系研究科准教授、九州大学システム情報科学研究院教授を経て、2016年より現職。自然言語や記号系に普遍に内在する数理構造に興味を持つ。著書に『記号と再帰』(東京大学出版会、第32回サントリー学芸賞、第19回大川出版賞受賞)など(本データはこの書籍が刊行された当時に掲載されていたものです)

(「BOOK」データベースより)

ユーザーレビュー

総合評価

☆
☆
☆
☆
☆

0.0

★
★
★
★
★
 
0
★
★
★
★
☆
 
0
★
★
★
☆
☆
 
0
★
★
☆
☆
☆
 
0
★
☆
☆
☆
☆
 
0

読書メーターレビュー

こちらは読書メーターで書かれたレビューとなります。

powered by

  • センケイ (線形) さん

    単語の頻度の Zipf's law などだけに留まらず、単語の出現頻度のバースト性や長相関など、大きいスケールで働く文書の複雑性を解析している。言ってみれば、フラクタル「にも」成り立つ法則だけでなく、もう少し丁寧な読み解きをしているのだ。斬新な取り組みゆえに試論的な感触もなくはないが、その分近年の技術である LLM についても (スケールフリーネットワークなどの既存技術と比較する形で) 実在の文書の法則が再現できるか確認しており、先進的なことをやっているといえるだろう。

  • 人生ゴルディアス さん

    言語の特性として割と見かける「ジップの法則」だが、真正面からその数理特性に取り組んだ本を初めて見た。(なので本屋で通りがかりにタイトル見て即買いしてしまった)深層学習に根を置く翻訳マシンの精度がかなり高くなっているので、むしろとっくに解析され終わっている話題だとばかり思っていたが、言語の統計的特性はある程度特定されているけれど、それがなにに由来するのかはよくわかっていない(数理モデルによる言語の統計的特性の再現が難しい)ようだ。途中挫折しかける部分がありつつ、ものすごく面白かった。

  • やす さん

    言語を言語たらしめる性質とは何かを、ランダム列などとの数学的な比較から探っている。パラメータによって文章と単語ランダム列に差が出たり出なかったりして、文章の特性に迫っていく流れが気持ちいい。 知的好奇心を強く刺激された素晴らしい一冊。

  • こたろう さん

    言語ではなく記号としてことばを統計処理した本。物理法則の言語への応用を試みる本<だと思ったら違った>。序盤から数章にわたってZipf則と白鯨(英語)のつまらない分析結果が続く。後半は、言語学側からのアプローチだと思って期待して読み進めていたのだが、言語を無機質な記号としてとらえたアプローチしか出てこず、ガッカリした。また2021年に出版する本なのに、BERTなどには言及されていない。アノTomaselloの仕事をThomasとほぼ全ての箇所で誤記している。NLPとして目立った成果が報告されていないと思った

  • kinaba さん

    面白かった。トークン列に関する統計量が、どこまでランダムな生成源からでもでてくるか、どこからが「自然言語」を特徴づけている可能性があるか。昨今のLLMは(意味内容はともかく言語使用という面では)100%完全に自然言語を再現したと思うけれど、こういう評価の面ではどうなっているのだろうか。ランダム列から始めてなんらかの意味での学習を無限に収束するまで繰り返したら所望の統計量が出る、それが言語みたいな話になったりしないだろうか

レビューをもっと見る

(外部サイト)に移動します

語学・教育・辞書 に関連する商品情報

おすすめの商品