2025年7月1日 星期二

Google Prompting Essentials 第二堂課心得分享(Part 2)

第一次玩 ChatGPT 或 Gemini 的時候,可能覺得這些工具就像全能小幫手,只要輸入一段指令,它就會「變出答案」。但當你開始希望它生成完整商業計畫、分析 50 頁報告、或根據對話脈絡給出更有深度的建議,你可能會發現——事情沒那麼簡單。

原來,不是你不會用 AI,而是你還沒學會「如何讓 AI 懂你」。

這正是我在修完 Google 推出的《Prompting Essentials》第 2 堂課 後最大的體悟:

在長文本(Long Context)中,如何用正確的方式說話,讓 AI 懂你的複雜任務與精細邏輯,才是生成式 AI 的關鍵技術。

以下是課程中幾個最值得學起來的觀念與技巧:


🧱 一、Token 是 AI 世界的基本單位,你必須懂它

當你輸入一段文字時,AI 模型會先將文字切割成「Token」。

  • 一個 token 可能是「一個字母」、「一段詞語」甚至是一整個片語。

  • Prompt 越長,消耗的 token 越多;生成的內容也會占用 token 數量。

  • 每個模型有自己能處理的 token 限制。例如:

    • GPT-3.5:約 4,096 tokens

    • GPT-4 Turbo、Gemini 1.5:可達百萬級 tokens(可以看整本書)

👉 知道 token 限制,不只是技術人員的事,也是每位 prompt 設計者的基本素養。


📚 二、Long Context 是 LLM 的「工作記憶」,不是無限容量的硬碟

有了「Long Context」,你可以一次提供 AI 更多背景資訊,例如:

  • 整本報告或長篇對話記錄

  • 使用者歷史資料、風格偏好

  • 多階段任務的來龍去脈

但 Google 課程提醒我們:不是資訊丟得越多越好,而是要「給得剛剛好」。

這時你就要用到下面這個超實用的技巧:


🧠 三、Chain of Density(密度鏈)技巧:幫 AI 找到資訊核心

這個技巧是幫助 AI 「濃縮重要內容 → 再強化關鍵重點」 的方式。

舉例來說,如果你輸入一大段產品規格書,Chain of Density 的做法是:

  1. 先請 AI 摘要為「精簡版概要」

  2. 再要求它進一步「加密度」——將摘要裡的關鍵詞延伸描述,補上背景、條件與限制

這樣能讓模型更聚焦在重要元素上,也大大提升輸出品質。這比你一次就丟進一堆內容,然後希望 AI 自行理解重點,效果好太多。


🧭 四、Prompting Framework:Task, Context, Reference, Evaluate, Iterate

Google 課程提出了一個非常實用的 Prompt 設計框架,幫你不再亂槍打鳥地寫指令:

元素說明範例
Task明確說明任務是什麼「幫我根據這份行銷簡報,寫出一個30秒電視廣告腳本」
Context提供背景脈絡「我們是一家環保牙刷品牌,主打永續、天然材質」
Reference提供參考資料或風格「我們喜歡 Apple 或 Airbnb 的簡潔敘事風格」
Evaluate設定評估標準「請列出內容的 CTA(行動呼籲)與 USP(獨特賣點)」
Iterate保留回饋空間進行優化「根據下方建議再調整一次腳本」

➡️ 有了這個架構,你就不只是「丟一句話」,而是進行一場「專業對話」。


💬 五、AI 不是神,但會記得你說過的話(前提是你不關視窗)

Long context 的另一個好處是:在同一對話中,AI 能記得你曾說過什麼。
這就像跟一個已經了解你背景的人對話,不必每次都從頭交代。

但別忘了:

如果你重開聊天視窗,那些記憶就會「清空」。
想保留記憶,就需要運用 Prompt Chaining、資料儲存機制或 API 串接。


✅ 結語:學會「說得剛剛好」,AI 就能做得剛剛好

很多人誤會 Prompt 設計只是工程師的事,其實這是一種**「對 AI 說人話」的溝通能力**。
透過理解 token 限制、善用 long context、套用 Chain of Density 與 Google 推的 Prompting Framework,你就能讓 AI 不只是回應,而是成為真正的共創夥伴。

沒有留言:

張貼留言