Chapter 2

LLM 基本原理:token、上下文、溫度、成本、幻覺

先掌握一句話:LLM 本質是「依上下文預測下一個 token」。你看到的品質、速度、價格,幾乎都與 token 和上下文有關。

核心概念圖(流程圖)

Step 0:先理解 LLM 的預測流程(輸入 → token 化 → 機率 → 輸出),再開始定義角色、任務與輸出格式,這張圖為 prompt 設計奠定背景。

Step 0 理解 LLM 輸入 Prompt 切成 Token 機率預測 輸出

必懂概念

實務建議

補充:幻覺 vs 回答迴圈

提示詞工程(Prompt Engineering)怎麼做?

實務最常用模板:角色 + 任務 + 限制 + 輸出格式 + 範例。這個結構通常比只丟一句問題更穩。

1 分鐘小測驗

Q:哪個設定通常更能提升輸出穩定性?