ChatGPT偷偷改版,95%的人都用錯了!5個技巧讓你的指令從「垃圾」變「黃金」

ChatGPT偷偷改版,95%的人都用錯了!5個技巧讓你的指令從「垃圾」變「黃金」

近期,許多ChatGPT用戶回報,即使他們下指令的方式沒有改變,得到的結果卻越來越差。這並非你的錯覺,而是因為95%的使用者都不知道,OpenAI對其模型架構進行了根本性的改變。知名AI教學專家Jeff Su花了一個月的時間,深入研究OpenAI的官方指南,並測試了數百次,最終總結出5個能顯著提升輸出品質的指令技巧。如果你還在用舊方法,你正在浪費ChatGPT的真正潛力。

首先,我們必須理解兩個關鍵的底層變化,這是一切問題的根源。

第一個變革是「模型整合與隱形路由器」。過去,Plus用戶可以看到多種模型選項,但現在被簡化為幾個主要模型。為了處理用戶請求,OpenAI加入了一個「隱形路由器」,自動判斷該用哪個模型來回應你的指令。Jeff Su形容:「這就像打給客服,他們理論上應該把你轉接到正確的部門。但在ChatGPT的案例中,這個路由器運作得並不好。」簡單來說,如果你像以前一樣直接輸入指令,系統有時會分配給你最強的模型,有時卻是反應最快但最笨的那個。由於強大的模型運算成本更高,OpenAI其實有動機在可能的情況下,讓你使用最便宜的選項。

第二個變革是「更強的指令遵循能力」。這聽起來是好事,但其實是把雙面刃。OpenAI特別為了「AI代理人」(AI Agents)訓練新模型,而代理人需要極度精確地遵循指令。好消息是,新模型能以極高的精準度執行我們的指令;壞消息是,它不像舊模型那樣擅長「猜測」我們模糊指令背後的真實意圖。結論就是:「如果我們堅持使用舊的指令技巧,我們得到的結果只會更糟。」

技巧一:用「一句話」喚醒最強大腦 (Router Nudge Phrases)

這個技巧的執行難度極低,但效果驚人。只需在你的指令結尾加上四個字:「think hard about this」(請仔細思考這個問題),就能迫使「隱形路由器」選擇一個具有更高推理能力的高階模型。

Jeff Su進行了實測,他問了同一個問題兩次:「將現金放入低成本指數基金與貨幣市場帳戶的優缺點是什麼?」 第一次沒有使用引導詞,第二次加上了。結果天差地別。

當更高階的推理模型被觸發時,你會看到一個「思考中」的指示器。更重要的是,輸出內容會包含我們未曾考慮過的「二階效應」(second-order effects)。在加入引導詞後,ChatGPT不僅解釋了兩者的定義、優缺點,最關鍵的是提供了「如何在這兩者之間做選擇」的具體建議,這是原始回覆中完全沒有的。

專家提示:以下三個引導詞被證實能穩定觸發深度思考: * Think hard about this (請仔細思考這個問題) * Think deeply about this (請深入思考這個問題) * Think carefully (請謹慎思考)

相比之下,「This is very important」(這非常重要)這類詞語效果不佳,因為新模型是字面意義上遵循指令,「重要」是一個模糊的詞,而「仔細思考」則是一個非常明確的動作指令。

技巧二:精準控制輸出長度 (Verbosity Control)

除了推理深度,「隱形路由器」還有一個獨立的「冗長度設定」來控制輸出內容的長短。同樣地,我們可以用特定的片語來精準控制回覆的篇幅。

  • 低冗長度(Low Verbosity): 當你只需要關鍵資訊時使用。

    • 場景:向公司CMO(行銷長)用Slack匯報專案進度。
    • 指令範例:「Give me the bottom line in 100 words or less. Use markdown for clarity and structure.」(給我100字以內的結論,並使用markdown格式化以求清晰。)
  • 中等冗長度(Medium Verbosity): 當你需要重點摘要加上下文背景時使用。

    • 場景:在團隊會議上解釋為何點擊率下降,但轉換率卻上升30%。
    • 指令範例:「Aim for a concise 3 to five paragraph explanation.」(目標是寫出3到5段的簡潔解釋。)
  • 高冗長度(High Verbosity): 當你需要一份全面的文件,如專案簡報或研究摘要時使用。

    • 場景:為一個內部專案啟動會議生成專案簡報。
    • 指令範例:「Provide a comprehensive and detailed breakdown, 600 to 800 words.」(提供一份600到800字的全面詳細分析。)

Jeff Su發現,新模型在處理具體字數要求方面比舊模型精準得多。

技巧三:讓AI自己優化你的指令 (Prompt Optimizer)

這是一個中等難度的技巧。95%的使用者不知道,OpenAI有一個官方的「指令優化工具」,可以將我們寫的普通指令改寫成更適合新模型的版本。

這個工具會從三個方面持續改進你的指令: 1. 增加結構:將一大段文字拆解成邏輯清晰的區塊。 2. 消除模糊:明確指出所有論點都應基於提供的數據。 3. 加入錯誤處理:當你的指令有矛盾或缺少資訊時,它會提醒模型要求澄清。

雖然這需要註冊獨立的開發者帳戶,但Jeff Su提供了一個免費的替代方案:使用「元指令」(Meta Prompt)。你只需將以下指令模板儲存起來,將你的原始指令貼入即可: 「你是一位專門為AI語言模型(特別是ChatGPT-5)創建指令的專家級指令工程師。你的任務是接收我的指令,並將其改進得更好......這是我的初始指令:[在此貼上你的原始指令]」

這個方法之所以有效,是因為根據OpenAI的說法:「GPT-5非常擅長批判和改進自己的指令。」

技巧四:用XML三明治結構化你的需求 (XML Sandwich)

如果你使用了上面的「元指令」,你會發現優化後的指令常常帶有<task><context>這類奇怪的角括號。這就是XML標籤,OpenAI官方推薦用這種方式來組織你的指令。

與其將所有背景、任務、格式要求混成一大段文字,然後期望AI自己弄明白,不如用XML標籤明確地標示每一個部分。這就像給每個資訊一個貼好標籤的盒子。

指令範例(模擬產品經理面試): <task> 扮演一位招聘經理,根據我的履歷和職位描述,問我三個最可能遇到的問題。 </task> <resume> [在此貼上你的履歷] </resume> <job_description> [在此貼上職位描述] </job_description>

這種結構化的指令能幫助ChatGPT更準確地理解任務,從而顯著提升輸出品質。

技巧五:啟動「完美主義循環」 (The Perfection Loop)

這是最高階的技巧。還記得嗎?新模型擅長自我批判。我們可以利用這一點,讓它在內部進行迭代,直到達到最佳結果為止。

做法是:不要直接接受它的第一次回覆,而是在指令中要求它先為「卓越的成果」建立一個內部品評標準,然後根據這個標準不斷自我修正,直到拿到滿分為止。

這就像你聘請一位設計師,他會先制定一份品質檢查表,然後發現自己的初稿只得了5分(滿分10分),於是重新設計;第二版拿了7分,他會繼續修改,直到產出10分的作品。我們正在讓ChatGPT做同樣的事情。

指令範例(市場分析報告): 「撰寫一份關於企業AI產業的市場分析報告。在開始之前,請先為一份世界級的市場分析報告制定一個內部評分標準。然後在內部進行迭代和優化草稿,直到它在你的評分標準中獲得最高分為止。

這個方法最適用於複雜的「從0到1」的任務,例如從零開始創建一份完整文件或編寫可直接上線的程式碼。

總結來說,這些技巧並非互斥,而是可以疊加使用的。你可以同時使用「引導詞」、「長度控制」和「XML三明治結構」。面對更聰明但也更「固執」的新模型,我們必須學會用更清晰、更結構化的方式與它溝通,才能真正釋放其潛力。

參考資料: https://www.youtube.com/watch?v=iRTK-jsfleg

Read more

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

很多人問我,在 Claude 裡面,Project、Skill、Connector 這三個東西到底差在哪裡? 什麼時候該用哪一個? 老實說,我一開始也搞得很混亂。 但實際用了一段時間之後,我發現其實邏輯很簡單。 先從最基本的開始:Connector 是對外的資料來源 如果你需要從外部拿資料,比如說接 Google Calendar、接 Notion、接你自己的資料庫,你就需要 Connector。 它就是一個 MCP 的連結,讓 Claude 可以去外面抓資料回來。 沒有 Connector,Claude 就只能用它自己知道的東西,沒辦法碰到你的資料。 Skill 則是內部的運算邏輯 Skill 沒有辦法對外連接。 它只能在內部用 Python 或程式碼執行。 你可以把它想成是一個 Controller,專門負責處理運算的部分。 比如說,你想讓 Claude 用特定的格式改寫文章、

By Andy Lin
讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need 最近我在 Claude 上快速搭建了七大 Agent。 原因很簡單:你的助理應該是越使用越懂你。 而 Claude Project 有個關鍵功能叫 Memory,它會根據你不斷詢問的過程,主動提取記憶。 這就是我認為 AI 助手真正強大的地方。 GA 分析助手:從進階到客製化 自從我串接 GA MCP 後,這位助手已經變得非常厲害。 漏斗分析、訪客來源、異常事件追蹤、站上任何問題都難不倒它。 但我想要的不只是這些。 我希望它隨著時間,能夠對齊我的知識,知道我要什麼。 你不用想太多,不用一次設定好整個 instructions。 試著使用一週,再回頭看看 memory,你會發現它已經根據你的行為開始學習客製化了。 許多助手不需要懂老闆要什麼,但網站分析不一樣。 因為我沒有那麼多美國時間,

By Andy Lin
AGI 來臨:兩大 AI 巨頭的預測與警示

AGI 來臨:兩大 AI 巨頭的預測與警示

在近期的達沃斯論壇上,Anthropic 執行長 Dario Amodei 與 Google DeepMind 執行長 Demis Hassabis 進行了一場關於「AGI 之後的世界」的深度對談,揭示了 AI 發展的最新進展與未來展望。 AGI 時間線預測 Dario 重申了他去年的預測:在 2026-2027 年,AI 模型將能夠在諸多領域達到諾貝爾獎得主的水準。他表示目前 Anthropic 的工程師已經不再親自寫程式碼,而是讓模型來完成編寫工作,人類只負責編輯和周邊任務。他預估在 6-12 個月內,模型將能端到端完成大部分工程師的工作。 Demis 則持稍微保守的態度,認為在十年內有 50% 的機會實現 AGI。他指出編程和數學領域較容易自動化,因為結果可驗證;但自然科學領域則更具挑戰性,需要實驗驗證,且目前模型在「提出問題」和「建立理論」

By Andy Lin
讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

最近我嘗試做了一個 Agent,專門用來分析我的身體健康狀況。 這不是什麼有商業潛力的專案,純粹是出於好奇。 我想知道現在的 AI 到底能幫我們把健康分析做到什麼程度。 資料從哪來? 要讓 AI 分析任何東西,首先得有資料。 我第一個想到的就是 Apple Health。 因為我每天戴著 Apple Watch,它本來就會自動記錄睡眠、運動、心跳這些數據。 除此之外,我也在嘗試另一個經絡檢測的儀器,有點像中醫把脈的概念,只是還沒整合進來。 我覺得如果未來能把更多資料源串在一起,應該可以做出更有意思的應用。 技術架構其實不難 我用了一個叫「Apple Health Auto Export」的 App。 這個 App 可以把健康資料透過 REST API 自動傳送到你指定的伺服器。 資料打到伺服器後,我再處理並存到 Database 裡。 接著寫一個 MCP Server,然後在

By Andy Lin