はじめに:用語は暗記しなくていい。意味が分かれば十分
「プロンプト」「ハルシネーション」「RAG」……。AIの話題に触れると、知らない用語が次々に出てきます。
文脈でなんとなく分かっていても、説明しようとすると自信がない。そんな状態になりやすい分野です。
この記事は、用語を丸暗記するための辞書ではありません。
初心者がつまずきやすい基本語を、“実際のツールや機能”とセットで解説します。
- その言葉は何のことか
- どんな場面で出てくるか
- どこに注意すれば安全か
この3点がつながると、AIの理解は一気に安定します。困ったときに戻って確認できるよう、ブックマーク推奨の保存版としてまとめました。
✅30秒まとめ(ここだけ掴めばOK)
生成AIは「下書きを作る道具」で、中心はLLM(文章を作る頭脳)です。
答えの質はプロンプト(指示文)で決まり、長文になるほどトークンとコンテキストウィンドウの制限が効いてきます。
ハルシネーションとバイアスを前提に、重要情報は確認する。資料ベースで答えさせたいときはRAG(NotebookLM系)が便利です。
📍このページで扱う8語
生成AI/LLM、プロンプト/トークン、コンテキストウィンドウ/ハルシネーション、バイアス/RAG
1. 生成AI(Generative AI)
ひとことで:文章・画像・コードなどを「新しく作る」AI。
具体例(ツール/機能):
ChatGPT / Gemini / Copilotの文章作成、要約、言い換え。画像生成機能(画像を作る、雰囲気を変えるなど)。
実態(何が起きる?):
生成AIは、検索結果をそのまま返す仕組みが基本ではありません。学習した大量のデータの“型”を使って文章や画像を組み立てます。
得意なのは「下書き」「たたき台」「整理」「言い換え」。ゼロから完璧を当てるというより、人間の作業を前に進める道具です。
注意点:
生成=正確とは限りません。とくに人名・数字・最新情報は、最終確認を人間が担う前提で扱うのが安全です。
指示のコツ:
「対象(誰向け)」「条件(字数・口調)」「出力形式(見出し/箇条書き)」を先に指定すると安定します。
例:初心者向け/200字/やさしい口調/最後に注意点1つ
ありがちな誤解:
生成AIは“考えて発見”するより、学習したパターンを組み立てるのが中心です。ひらめきの代役というより、下書きの相棒に向きます。
2. LLM(大規模言語モデル)
ひとことで:文章を作るための「中身のエンジン」(ChatGPT等の頭脳)。
具体例(ツール/機能):
ChatGPTやGeminiの“モデル”という概念。環境によってはモデルを選ぶ画面があり、同じ質問でも答えのクセが変わります。
実態(何が起きる?):
LLMは、膨大な文章を学習し「次に来やすい言葉」を確率で選びながら文章を組み立てます。その結果、文脈に合う文章を長く整えるのが得意になります。
この仕組みのおかげで文章は自然になります。一方で、根拠が弱い話題でも“それっぽく整った文”を出してしまうことがあります。
初心者が押さえるべき感覚はこれです。文章のうまさと、事実の正しさは別になり得ます。
注意点:
きれいに書いてあっても、間違っていることがあります。重要な場面ほど、根拠の確認が必須です。
指示のコツ:
「断定を避けて」「不確かな点は“不確か”と書いて」「根拠(出典)を示して」を添えるだけで事故が減ります。
ありがちな誤解:
LLMは“知っているから答える”というより、“それらしい文章を作れる”仕組みです。正しさは別途チェックが必要です。
3. プロンプト(Prompt)
ひとことで:AIへの指示文(質問+条件+出力形式ぜんぶ)。
具体例(ツール/機能):
ChatGPT/Geminiの入力欄に打つ文章そのもの。テンプレやカスタム指示が使える場合は、それもプロンプトの一部です。
実態(何が起きる?):
プロンプトは、AIに渡す“設計図”です。
曖昧だとブレます。条件が増えるほど安定します。
- 悪い例:「記事を書いて」
- 良い例:「初心者向け。1500字。見出しH2/H3。専門用語には一言補足。最後に注意点3つ」
注意点:
AIは行間を読まない前提で動きます。書いてない条件は、ないものとして扱われがちです。
指示のコツ:
迷ったら「目的/対象/条件/形式」の4点セットにすると崩れません。
例:目的=用語解説、対象=初心者、条件=2000字、形式=見出し+箇条書き
ありがちな誤解:
プロンプトは“魔法の呪文”ではありません。曖昧さを減らすほど、AIのブレが減るという実務スキルです。
4. トークン(Token)
ひとことで:AIが文章を処理するときの「量の単位」(文字数の代わり)。
具体例(ツール/機能):
APIの料金説明で見かける(トークン課金)。また、長文を入れたら返答が途切れる/雑になる現象でも体感します。
実態(何が起きる?):
AIには「一度に扱える量」の上限があり、会話や資料はトークン量で管理されます。
長文ほど、コストや処理負担が増えます。やり取りが長いほど、後述のコンテキストも圧迫します。
初心者はまず、トークン=お金(コスト)と容量(限界)に関係すると押さえれば十分です。
注意点:
長文を一気に投げるほど、ズレや抜けが増えます。情報が多いときは分割が安全です。
指示のコツ:
「まず要点を箇条書きで整理→次に本文」の二段構えが安定します。
例:最初に要点10個、その後に本文
ありがちな誤解:
トークンは単純な文字数ではありません。「長文ほど重くなる」程度の感覚を持っておくと困りません。
5. コンテキストウィンドウ(Context Window)
ひとことで:AIが一度に覚えておける「会話・資料の範囲」(短期記憶)。
具体例(ツール/機能):
長いチャットで「前に言ったのに通じない」「前提がズレる」現象。やり取りが長い作業(記事制作など)で起きやすいです。
実態(何が起きる?):
AIは会話の全部を永久に覚えているわけではありません。一定量を超えると、古い情報から押し出されます。
結果として、途中で決めたルールや条件が反映されなくなり、ズレが出ます。
注意点:
長い作業ほど、前提の再掲が必要です。放置すると、だんだん別の方向へ滑ります。
指示のコツ:
途中で一度「前提まとめ」を作らせ、以降はそれを固定します。
例:「ここまでの前提を箇条書きで整理。以降はその前提を維持」
ありがちな誤解:
コンテキストは“永続メモリ”ではありません。長いやり取りほど、要点の再提示が効きます。
6. ハルシネーション(Hallucination)
ひとことで:AIが事実ではないことを「もっともらしく作る」現象。
具体例(ツール/機能):
架空の統計・論文・判例・経歴などが出る。とくに「最新」「数字」「人名」「医療・法律」などで起きやすいです。
実態(何が起きる?):
AIは“正解を検索している”わけではなく、文章を組み立てています。分からないときに「分からない」で止まらず、穴を埋めることがあります。
それがハルシネーションです。自信満々に見えるので厄介です。
注意点:
重要箇所は一次情報(公式・原文・一次資料)で確認が基本です。AIを「確認せず引用」すると事故につながります。
指示のコツ:
「出典を示す」「不確かな点は“不確か”と明記」を入れると、ハルシネーションを減らせます。
出典が出ても、そのリンク先や一次情報を確認するのが基本です。
例:「根拠(出典)を示して。推測は推測と書いて」
ありがちな誤解:
ハルシネーションは“バグ”というより起き得る性質です。仕組みを知って、確認手順でカバーするのが現実的です。
7. バイアス(Bias)
ひとことで:AIの回答に混ざる「偏り」や「思い込み」。
具体例(ツール/機能):
文章が特定の立場に寄る、決めつけが混ざる。画像生成では職業や役割が固定観念っぽく出ることもあります。
実態(何が起きる?):
AIは学習データの影響を受けます。元データに偏りがあれば、出力にも偏りが出やすい。
ここは「AIが悪い」というより、データの写し鏡になりやすい性質です。
注意点:
便利な要約ほど、前提が省略され、偏りが見えにくくなることがあります。見た目の中立に安心しすぎないのがコツです。
指示のコツ:
「別の立場でも説明して」「反対意見も挙げて」と頼むと偏りが見えます。
例:「賛成/反対の両方の観点で整理して」
ありがちな誤解:
バイアスは「露骨な差別表現」だけではありません。論点の選び方や語調にも出ます。
8. RAG(検索拡張生成)
ひとことで:AIに“資料を探させて”(取り出して)、その内容を材料に答えを作らせる仕組み。
具体例(ツール/機能):
- NotebookLM:自分が入れた資料をもとに要約・回答(引用=根拠が出る)
- 社内FAQチャット:社内マニュアルや規程を参照して案内
- 製品サポートAI:マニュアル検索→回答の流れ
実態(何が起きる?):
普通のAIは学習済みの知識だけで答えようとします。RAGはその前に「探す」工程が入ります。
イメージは、記憶だけで答えるから、資料を見ながら答えるへ。NotebookLMを使ったことがあるなら、まさに「その感じ」です。
注意点:
資料が古い/検索で拾えない/文書が散らかっているとズレます。RAGは“資料品質”に素直です。
指示のコツ:
「引用(根拠)を必ず示して」と指定すると、確認が一気に楽になります。
例:「参照した箇所(引用)を示して。根拠がない部分は推測と明記」
ありがちな誤解:
RAGを入れれば“最新情報も絶対正しい”になるわけではありません。参照元が正しいかは別途確認が必要です。
よくある質問
- トークンは何文字くらい?
-
トークンは単純な文字数ではありません。AIが文章を分割して扱う「単位」なので、同じ文字数でも内容や表記で増減します。初心者の方は、「長文ほどトークンが増えて、料金や処理の負担が上がる」という感覚を持っておけば十分です。長い文章を扱うときは、要点を先に箇条書きにする/分割して渡す、といった工夫が安全策になります。
- RAGがあれば、AIの嘘(ハルシネーション)はなくなる?
-
減りますが、ゼロにはなりません。RAGは「資料を探して、その内容を材料に答える」仕組みなので、根拠がある回答を作りやすくなります。一方で、参照する資料が古い/間違っている/検索で拾えない場合はズレます。NotebookLMのように引用が出るタイプでも、引用箇所を確認し、重要な判断は一次情報で押さえるのが基本です。
まとめ:暗記より「理解+確認」で十分
AI用語は毎年増えます。全部覚えるのは現実的ではありません。
それでも、基本8語を“実態込み”で押さえると、AIの扱いはかなり安定します。
生成AIとプロンプトで作業を進め、トークンとコンテキストで限界を意識する。さらにハルシネーションとバイアスを前提に、重要情報は確認する。資料に基づいて答えさせたいときはRAG(NotebookLM系)です。
迷ったらこのページに戻って、「ブレる→プロンプト」「途中でズレる→コンテキスト」「自信満々に間違う→ハルシネーション」の3つから見返すと早いです。
※本記事は執筆時点で確認できた情報に基づいています。画面表示(UI)や利用条件は変更される場合があります。最新情報は各公式サイト・利用規約をご確認ください。
💡 同じカテゴリーの関連記事です(近いテーマを優先しています)
