第一次玩 ChatGPT 或 Gemini 的時候,可能覺得這些工具就像全能小幫手,只要輸入一段指令,它就會「變出答案」。但當你開始希望它生成完整商業計畫、分析 50 頁報告、或根據對話脈絡給出更有深度的建議,你可能會發現——事情沒那麼簡單。
原來,不是你不會用 AI,而是你還沒學會「如何讓 AI 懂你」。
這正是我在修完 Google 推出的《Prompting Essentials》第 2 堂課 後最大的體悟:
在長文本(Long Context)中,如何用正確的方式說話,讓 AI 懂你的複雜任務與精細邏輯,才是生成式 AI 的關鍵技術。
以下是課程中幾個最值得學起來的觀念與技巧:
🧱 一、Token 是 AI 世界的基本單位,你必須懂它
當你輸入一段文字時,AI 模型會先將文字切割成「Token」。
-
一個 token 可能是「一個字母」、「一段詞語」甚至是一整個片語。
-
Prompt 越長,消耗的 token 越多;生成的內容也會占用 token 數量。
-
每個模型有自己能處理的 token 限制。例如:
-
GPT-3.5:約 4,096 tokens
-
GPT-4 Turbo、Gemini 1.5:可達百萬級 tokens(可以看整本書)
-
👉 知道 token 限制,不只是技術人員的事,也是每位 prompt 設計者的基本素養。
📚 二、Long Context 是 LLM 的「工作記憶」,不是無限容量的硬碟
有了「Long Context」,你可以一次提供 AI 更多背景資訊,例如:
-
整本報告或長篇對話記錄
-
使用者歷史資料、風格偏好
-
多階段任務的來龍去脈
但 Google 課程提醒我們:不是資訊丟得越多越好,而是要「給得剛剛好」。
這時你就要用到下面這個超實用的技巧:
🧠 三、Chain of Density(密度鏈)技巧:幫 AI 找到資訊核心
這個技巧是幫助 AI 「濃縮重要內容 → 再強化關鍵重點」 的方式。
舉例來說,如果你輸入一大段產品規格書,Chain of Density 的做法是:
-
先請 AI 摘要為「精簡版概要」
-
再要求它進一步「加密度」——將摘要裡的關鍵詞延伸描述,補上背景、條件與限制
這樣能讓模型更聚焦在重要元素上,也大大提升輸出品質。這比你一次就丟進一堆內容,然後希望 AI 自行理解重點,效果好太多。
🧭 四、Prompting Framework:Task, Context, Reference, Evaluate, Iterate
Google 課程提出了一個非常實用的 Prompt 設計框架,幫你不再亂槍打鳥地寫指令:
元素 | 說明 | 範例 |
---|---|---|
Task | 明確說明任務是什麼 | 「幫我根據這份行銷簡報,寫出一個30秒電視廣告腳本」 |
Context | 提供背景脈絡 | 「我們是一家環保牙刷品牌,主打永續、天然材質」 |
Reference | 提供參考資料或風格 | 「我們喜歡 Apple 或 Airbnb 的簡潔敘事風格」 |
Evaluate | 設定評估標準 | 「請列出內容的 CTA(行動呼籲)與 USP(獨特賣點)」 |
Iterate | 保留回饋空間進行優化 | 「根據下方建議再調整一次腳本」 |
➡️ 有了這個架構,你就不只是「丟一句話」,而是進行一場「專業對話」。
💬 五、AI 不是神,但會記得你說過的話(前提是你不關視窗)
Long context 的另一個好處是:在同一對話中,AI 能記得你曾說過什麼。
這就像跟一個已經了解你背景的人對話,不必每次都從頭交代。
但別忘了:
如果你重開聊天視窗,那些記憶就會「清空」。
想保留記憶,就需要運用 Prompt Chaining、資料儲存機制或 API 串接。
✅ 結語:學會「說得剛剛好」,AI 就能做得剛剛好
很多人誤會 Prompt 設計只是工程師的事,其實這是一種**「對 AI 說人話」的溝通能力**。
透過理解 token 限制、善用 long context、套用 Chain of Density 與 Google 推的 Prompting Framework,你就能讓 AI 不只是回應,而是成為真正的共創夥伴。
沒有留言:
張貼留言