2025年7月2日 星期三

用 Gen AI 提升資料分析力:Google Prompting Essentials 課後筆記 Part 3

 資料分析是不是讓你感到壓力山大?別擔心,Generative AI(生成式 AI)正在改變我們處理資料的方式。這篇文章是我在 Google《Prompting Essentials》第三堂課的重點筆記,整理出最實用的技巧與觀念,讓你無論是數據新手還是略懂皮毛,都能快速上手,解鎖 Gen AI 的資料分析潛力。


🔍 Gen AI 在資料分析的六大應用

  1. 文字分析

    • 自動萃取主題、分析語氣、分類意見。例如分析顧客留言、問卷回饋。

  2. 資料增補

    • 在資料量不足時,生成擬真的數據來訓練模型(像詐欺偵測),但別忘了標註來源,因為這些資料只是趨勢參考,不是事實。

  3. 問答系統

    • 你可以用自然語言提問:「上季銷售最好的產品是什麼?」AI 幫你找出答案。

  4. 情境模擬

    • 根據歷史資料預測未來可能走向,像是預估人潮、辦公室訪客數等。

  5. 圖像與視覺分析

    • AI 可解讀圖表趨勢,幫助你從銷售圖表中快速找出關鍵訊息。

  6. 市場與顧客研究

    • 利用 AI 探索社群平台、問卷與產業報告中的潛在商機與趨勢變化。


🛠 Gen AI 的極限與調整策略

不是所有分析都適合交給 Gen AI。

  • ❌ 不擅長:複雜統計、精準運算、強結構資料分析。

  • ✅ 建議方式:請 AI 提供方法建議或操作步驟(prompt:「請說明我可以用哪些方法進行變異數分析?」)

這種「間接使用」策略讓你把 AI 當顧問,而不是資料科學家。


📊 AI 輔助資料清理與準備

  1. 錯誤偵測與修正

    • prompt 示範:「這是我的原始資料,請指出潛在錯誤並建議修正方式。」

  2. 資料標準化

    • 格式統一、欄位一致性、日期格式轉換等。

  3. 多工具搭配

    • 使用不同的 Gen AI 工具負責不同工作(格式轉換、查詢、欄位補齊),才能建立乾淨又有用的資料基礎。


🧠 如何讓 AI 更懂你的需求?學會調整 Sampling 參數

生成式 AI 的回應來自機率抽樣,而你可以透過三個參數來「調教」它的創意與準確性。

1. Temperature(溫度)

控制 AI 回應的創意程度:

  • `0.1`:保守,選擇最可能的答案,適合數據分析、資訊查詢。

  • `1.0+`:開放性高,適合創意寫作、腦力激盪。

2. Top-k

只從前 k 個最可能的選項中選擇:

  • `k=1`:保證每次都選最常見的答案(又稱 greedy decoding)

  • `k=100`:增加多樣性,適合創意性任務。

3. Top-p

只從總機率累積達 p 的 token 中抽選:

  • `p=0.1`:偏向高信賴回應。

  • `p=0.8`:更多元、有驚喜,但需注意幻覺風險。

📌 小技巧:想減少胡說八道(hallucination)?降低 temperature 和 top-p。


🎯 想用 Gen AI 幫助自己快速理解新事物?這些 prompt 請收好!

  • 解釋術語:「請用簡單中文解釋什麼是 compound interest?」

  • 翻譯與語境說明:「'saru mo ki kara ochiru' 是什麼意思?」

  • 解讀圖表:「請簡單解釋這張圖的主要趨勢」

  • 拆解 spreadsheet:「B12 的公式是什麼意思?」

  • 錯誤訊息排查:「'kernel panic' 是什麼錯?」


🗣 延伸應用:幫你準備簡報講稿

透過 long context window 的工具(如 Google AI Studio),你可以:

  • 根據簡報內容自動產出講稿

  • 根據觀眾身分(如主管)調整語氣

  • 錄音後請 AI 回饋語速、語氣等演說技巧


✅ 小結:Gen AI 是助力不是萬能

Gen AI 在資料分析與理解陌生資訊方面提供了超強輔助,但別忘了:

  • 要驗證它的輸出(尤其是數據)

  • 要揭露你是否用了 AI 工具

  • 要選對場合,正確使用 prompt 與 sampling 參數


📬 喜歡這類內容?記得訂閱部落格,未來還會分享更多 Gen AI 實戰技巧!

2025年7月1日 星期二

Google Prompting Essentials 第二堂課心得分享(Part 2)

第一次玩 ChatGPT 或 Gemini 的時候,可能覺得這些工具就像全能小幫手,只要輸入一段指令,它就會「變出答案」。但當你開始希望它生成完整商業計畫、分析 50 頁報告、或根據對話脈絡給出更有深度的建議,你可能會發現——事情沒那麼簡單。

原來,不是你不會用 AI,而是你還沒學會「如何讓 AI 懂你」。

這正是我在修完 Google 推出的《Prompting Essentials》第 2 堂課 後最大的體悟:

在長文本(Long Context)中,如何用正確的方式說話,讓 AI 懂你的複雜任務與精細邏輯,才是生成式 AI 的關鍵技術。

以下是課程中幾個最值得學起來的觀念與技巧:


🧱 一、Token 是 AI 世界的基本單位,你必須懂它

當你輸入一段文字時,AI 模型會先將文字切割成「Token」。

  • 一個 token 可能是「一個字母」、「一段詞語」甚至是一整個片語。

  • Prompt 越長,消耗的 token 越多;生成的內容也會占用 token 數量。

  • 每個模型有自己能處理的 token 限制。例如:

    • GPT-3.5:約 4,096 tokens

    • GPT-4 Turbo、Gemini 1.5:可達百萬級 tokens(可以看整本書)

👉 知道 token 限制,不只是技術人員的事,也是每位 prompt 設計者的基本素養。


📚 二、Long Context 是 LLM 的「工作記憶」,不是無限容量的硬碟

有了「Long Context」,你可以一次提供 AI 更多背景資訊,例如:

  • 整本報告或長篇對話記錄

  • 使用者歷史資料、風格偏好

  • 多階段任務的來龍去脈

但 Google 課程提醒我們:不是資訊丟得越多越好,而是要「給得剛剛好」。

這時你就要用到下面這個超實用的技巧:


🧠 三、Chain of Density(密度鏈)技巧:幫 AI 找到資訊核心

這個技巧是幫助 AI 「濃縮重要內容 → 再強化關鍵重點」 的方式。

舉例來說,如果你輸入一大段產品規格書,Chain of Density 的做法是:

  1. 先請 AI 摘要為「精簡版概要」

  2. 再要求它進一步「加密度」——將摘要裡的關鍵詞延伸描述,補上背景、條件與限制

這樣能讓模型更聚焦在重要元素上,也大大提升輸出品質。這比你一次就丟進一堆內容,然後希望 AI 自行理解重點,效果好太多。


🧭 四、Prompting Framework:Task, Context, Reference, Evaluate, Iterate

Google 課程提出了一個非常實用的 Prompt 設計框架,幫你不再亂槍打鳥地寫指令:

元素說明範例
Task明確說明任務是什麼「幫我根據這份行銷簡報,寫出一個30秒電視廣告腳本」
Context提供背景脈絡「我們是一家環保牙刷品牌,主打永續、天然材質」
Reference提供參考資料或風格「我們喜歡 Apple 或 Airbnb 的簡潔敘事風格」
Evaluate設定評估標準「請列出內容的 CTA(行動呼籲)與 USP(獨特賣點)」
Iterate保留回饋空間進行優化「根據下方建議再調整一次腳本」

➡️ 有了這個架構,你就不只是「丟一句話」,而是進行一場「專業對話」。


💬 五、AI 不是神,但會記得你說過的話(前提是你不關視窗)

Long context 的另一個好處是:在同一對話中,AI 能記得你曾說過什麼。
這就像跟一個已經了解你背景的人對話,不必每次都從頭交代。

但別忘了:

如果你重開聊天視窗,那些記憶就會「清空」。
想保留記憶,就需要運用 Prompt Chaining、資料儲存機制或 API 串接。


✅ 結語:學會「說得剛剛好」,AI 就能做得剛剛好

很多人誤會 Prompt 設計只是工程師的事,其實這是一種**「對 AI 說人話」的溝通能力**。
透過理解 token 限制、善用 long context、套用 Chain of Density 與 Google 推的 Prompting Framework,你就能讓 AI 不只是回應,而是成為真正的共創夥伴。