本記事は2026年3月22日のセミナー内容をもとに再構成したものです。セミナーの復習等にお役立てください。
今回は『AIは日本語を理解していない?』をテーマに、AI(LLM)がどう動いているのかを見ていきます。AIがなぜ自然な日本語を出せるのか、その仕組みだけ整理します。
AIは予測変換を繰り返してる
AIが出力する日本語のほとんどは、次に来る言葉を確率的に選んで出力しているものです。
ちょっと衝撃ですよね(笑)。
スマホの予測変換と原理はおなじです。
「よろしく」と打つと、「お願いいたします」と次に来る言葉の候補が並ぶアレ。
過去の膨大な入力データをもとに、「この言葉の次にはこれが来やすい」を計算して出力しています。
ここまでで、正体はだいたい見えます。
AIの出力に日本語の理解はいらない
人間が入力した言葉に対して、予測した結果が出力されているだけなら、ある仮説が成り立ちます。
「AIって日本語理解してないんじゃね?」
ぶっちゃけた話、わからなくても日本語会話は成立します。
日本語って、文法より文脈で成立している言語です。特に口語は。
コンビニで店員さんへ「肉まん」と単語を言えば、誰でも買えてしまう環境なので。
AIがこれと同じとは言わないけれど、電卓と一緒だと言えばわかりやすいでしょう。
電卓は足し算がどんなものかは全くわかっていません。
でも、1+1+1=3と計算結果は出力できます。
概念を持っていませんが、正しく計算します。
「正しく動く」ことと「意味を理解している」ことは分けて考えられるのです。
AIがぶっちゃけた「日本語ワカリマセン」
私が普段よく使う、GPT、Claude、Gemini。 彼らははっきり答えています。
「私は日本語を理解しているわけではありません。それでも出力できます。」と。
みなさんにもAIへの入力を試してほしいです。
「あなたは日本語を理解して出力していますか?それとも確率計算で出力していますか?」と。
おそらく後者を肯定します。
たとえばClaudeなら
「私は言葉の意味を理解しているわけではなく、大量のテキストデータからパターンを学習し、文脈に応じて次に来る可能性が高い言葉を予測しています」
と長ったらしく返してくるでしょう(笑)。
AIが自爆するなんて、とっても面白いですよね!
ハルシネーションに注意
AIといえばハルシネーションとは切っても切れない仲。
ハルシネーションとは、AIが事実に基づかない情報を生成することです。
私はよく「ハルシネってる」と言います。
みなさんにもこの新動詞を使ってほしいですが(笑)。
自信満々にAIが間違えるのは、確率計算が間違った結果です。
サイコロをふりつづけてうまくチンチロしてたけど、いきなりドボンになった。
それがハルシネーション。
つまり、それなりの頻度で起こるだろうとわかります。
カーナビも、たまに変なルートを案内するけど、まあ便利ですし。
「間違えるから信用できない」ではなく、「予測である以上、最終確認は人間がする」が正しい付き合い方だと見えてきますよね。
無駄な警戒→まずいじってみる
正体がわからないものにたいし、人は警戒します。
当たり前の防衛本能です。 こと日本人はその傾向が強い。
だからこそ良くもあり悪くもある。
AIを正しく理解し、使い、恐れる。
それが、もっともAIを使いこなす近道だと思います。
とりあえず使ってみて、使い方でわからなければAIに聞いてみるでもいいでしょう。
まず一度、触ってみてください。それだけで見え方が変わります。


コメント