如何10倍提升AI程式設計效率?Archon官方指南大公開

如何10倍提升AI程式設計效率?Archon官方指南大公開

在AI程式設計領域,工具層出不窮,但如何讓人類與AI真正深度協作,卻是許多開發者面臨的痛點。Cole Medin,這位AI程式設計專家,在最新YouTube影片中推出Archon的官方指南,這款工具被譽為「AI編碼的命令中心」。Archon不僅管理知識庫和任務,還能無縫連接各種AI編碼助手,如Claude或Cursor,讓開發者重掌主導權,同時放大AI的潛力。影片詳細拆解了Archon的優勢、安裝步驟與實戰應用,揭示如何將AI工作流程效率提升10倍以上,為程式設計者帶來革命性改變。

當前AI編碼助手如Claude、Cursor或Codeium,雖然強大,但往往過度自動化,導致開發者被排除在關鍵決策之外。Cole Medin指出:「AI編碼助手目前處理太多內部事務,例如直接搜尋網路獲取外部文件,或自行建立任務清單,但我們無法參與這些過程。」

這帶來核心問題:開發者無法選擇知識來源,僅能依賴AI的通用搜尋,導致輸出品質不穩;同時,AI的內部任務管理讓人類難以介入,無法即時調整方向。Archon填補此空白,作為人類與AI協作的橋樑,提供美觀的使用者介面,讓開發者管理專案、任務及自訂知識庫。

對AI助手而言,Archon則是MCP(Management Control Protocol)伺服器,允許即時存取文件並同步任務。Cole Medin示範:「透過Archon,AI能搜尋我已彙整的文件,並在看板上移動任務,我們可即時觀察而不需重新整理畫面。」

在示範中,Archon模擬真實工作流程:AI從「待辦」移至「進行中」,再到「審核」,全過程即時更新。這不僅提升可觀察性,還讓開發者能中途新增任務,實現深度協作。

Archon的未來潛力與核心優勢

Archon不僅限於知識與任務管理,Cole Medin透露更多擴展功能:「未來,我們將支援在Archon中啟動AI背景任務,用於規劃、驗證或審核程式碼請求。」

目前,Archon已具備強大的RAG(Retrieval-Augmented Generation)策略,結合關鍵字與語意搜尋,從自訂知識庫提取精準文件。相較於AI助手直接搜尋整個網路,這避免了噪音干擾,提高程式碼品質。

Cole Medin強調,Archon的靈活性是關鍵:「這是填補AI編碼空間中人類-AI深度協作缺口的工具。」對於開發者而言,這意味著從被動依賴轉為主動駕馭,特別適合處理如LangChain或Pydantic AI等特定函式庫的專案。

Archon快速安裝指南

安裝Archon簡單直觀,Cole Medin表示:「大多數設定可在使用者介面內完成,只需幾分鐘即可連接到AI編碼助手。」

前提條件包括:Docker(或Docker Desktop,用於容器化運行);Supabase(免費雲端階層即可,作為資料庫;本地版亦可自架);以及LLM提供者API金鑰(如OpenAI、Gemini或Ollama,用於本地私有知識庫)。

步驟如下:

  1. 複製儲存庫:使用穩定分支git clone -b stable https://github.com/archon-ai/archon.git,進入目錄。

  2. 設定環境變數:在.env.example複製為.env,填入Supabase URL與服務角色金鑰。雲端Supabase從儀表板取得(專案設定 > API > 專案URL與服務角色秘密);本地版URL為http://host.docker.internal:54322

  3. 資料庫初始化:執行migrations/complete_setup.sql於Supabase SQL編輯器,創建Archon表格(如知識庫與任務表)。Cole Medin建議:「驗證表格編輯器中出現Archon相關表格,即表示成功。」

  4. 啟動容器:運行docker compose up --build,建置使用者介面、MCP伺服器與API端點容器。初次建置需10-15分鐘,完成後檢查Docker Desktop確認三容器運行。

  5. 存取介面:瀏覽localhost:3737,預設埠可自訂。

關鍵數據:整個設定僅需單一指令啟動,無需複雜配置,適合初學者。

設定LLM與連接AI編碼助手

進入Archon設定頁,Cole Medin示範:「先填入LLM提供者憑證,如OpenAI API金鑰,然後選擇聊天模型(如GPT-4)和嵌入模型。」

Archon支援獨立設定聊天與嵌入模型,例如OpenAI用於聊天、Ollama用於嵌入,实现100%本地運行。儲存後,即可使用。

連接AI助手部分位於MCP分頁,提供通用指令。例如,連Claude Code:複製claude mcp connect --url http://localhost:3737/mcp,在終端執行。驗證以claude mcp list檢查連接。

Cole Medin強調:「幾乎任何MCP相容AI編碼助手皆可連接,只需複製對應指令。」

最後,複製推薦全域規則至助手設定檔(如Claude的claude.md或Codeium的agents.md),讓AI了解如何使用Archon管理知識與任務。

升級簡易:git pull,重跑docker compose up --build,並執行設定頁遷移SQL。

贊助商Supabase:Archon的資料庫支柱

影片中,Cole Medin介紹贊助商Supabase,這是Archon的核心資料庫。「Supabase是Postgres的未來,他們最近的Supabase Select大會展示了新功能,如遠端MCP伺服器,讓代理管理專案無需安裝。」

新功能包括:S3儲存桶整合、收購Oreo平台,以及開源多資料庫協調工具Multi-gress,提升可擴展性。Cole Medin指出:「Supabase解決Postgres限制,建置上層工具,同時保持易用性。」

大會亮點:CEO Paul Coppola宣布E輪融資1億美元,估值達50億美元。Cole Medin推薦觀看Sugarman的Multi-gress演講,深入了解架構如何支援百萬規模。

實戰應用:知識管理與任務追蹤

Archon的核心在知識爬取與任務管理。Cole Medin示範新專案啟動:「先設定知識庫,指定AI助手參考的文件,如Supabase或Pydantic AI文件。」

爬取方式:新增知識 > 貼上URL > 啟動爬取。最佳格式包括llms.txt(如https://supabase.com/docs/guides/ai/llms.txt)或Sitemap XML(https://mem0.ai/sitemap.xml)。Cole Medin表示:「這些格式提供Markdown-ready文件,優於原始網頁。」

爬取完成後,AI經MCP即時搜尋知識庫。示範中,同時爬取Mem0與Pydantic AI文件,產生可搜尋的程式碼片段與說明。

任務管理使用看板:開發者可手動新增任務,AI下次查詢時自動納入。Cole Medin展示:「AI移動任務時,我們即時觀察,從『待辦』到『審核』,無需中斷。」

這提供高可觀察性:點擊任務查看描述,並可即時編輯,確保靈活性。

工作流程優化:從規劃到實施

Cole Medin分享個人工作流程:「我將規劃與實施分開,並包裝成可重用Markdown指令,讓Archon無縫整合。」

規劃階段:分析需求 > 研究(RAG搜尋Archon知識) > 程式碼庫分析 > 制定計劃。示範建Pydantic AI代理使用Mem0:AI從知識庫提取文件,產生包含9項任務的計劃。

實施階段:檢查全域規則 > 創建專案 > 管理任務。執行後,Archon自動生成專案與任務,AI依序移動(如設定專案結構)。

Cole Medin強調:「這是可自訂的,你決定何時使用Archon。」結果:AI產生準確程式碼,避免LLM訓練截止問題(如新函式庫不熟)。示範中,代理程式碼整合Mem0記憶功能,品質顯著提升。

他提供可下載Markdown範本,鼓勵讀者自建工作流程:「無論使用Claude或Cursor,皆適用slash指令。」

Archon不僅簡化AI編碼,還讓開發者從輔助角色轉為領導者,潛力無限。未來,隨著更多端到端專案內容,Archon將重塑程式設計生態。思考一下:若不主動管理知識與任務,你的AI助手是否正浪費潛力?立即試用Archon,體驗10倍效率躍升。

參考資料:YouTube連結 https://www.youtube.com/watch?v=DMXyDpnzNpY

Read more

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

很多人問我,在 Claude 裡面,Project、Skill、Connector 這三個東西到底差在哪裡? 什麼時候該用哪一個? 老實說,我一開始也搞得很混亂。 但實際用了一段時間之後,我發現其實邏輯很簡單。 先從最基本的開始:Connector 是對外的資料來源 如果你需要從外部拿資料,比如說接 Google Calendar、接 Notion、接你自己的資料庫,你就需要 Connector。 它就是一個 MCP 的連結,讓 Claude 可以去外面抓資料回來。 沒有 Connector,Claude 就只能用它自己知道的東西,沒辦法碰到你的資料。 Skill 則是內部的運算邏輯 Skill 沒有辦法對外連接。 它只能在內部用 Python 或程式碼執行。 你可以把它想成是一個 Controller,專門負責處理運算的部分。 比如說,你想讓 Claude 用特定的格式改寫文章、

By Andy Lin
讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need 最近我在 Claude 上快速搭建了七大 Agent。 原因很簡單:你的助理應該是越使用越懂你。 而 Claude Project 有個關鍵功能叫 Memory,它會根據你不斷詢問的過程,主動提取記憶。 這就是我認為 AI 助手真正強大的地方。 GA 分析助手:從進階到客製化 自從我串接 GA MCP 後,這位助手已經變得非常厲害。 漏斗分析、訪客來源、異常事件追蹤、站上任何問題都難不倒它。 但我想要的不只是這些。 我希望它隨著時間,能夠對齊我的知識,知道我要什麼。 你不用想太多,不用一次設定好整個 instructions。 試著使用一週,再回頭看看 memory,你會發現它已經根據你的行為開始學習客製化了。 許多助手不需要懂老闆要什麼,但網站分析不一樣。 因為我沒有那麼多美國時間,

By Andy Lin
AGI 來臨:兩大 AI 巨頭的預測與警示

AGI 來臨:兩大 AI 巨頭的預測與警示

在近期的達沃斯論壇上,Anthropic 執行長 Dario Amodei 與 Google DeepMind 執行長 Demis Hassabis 進行了一場關於「AGI 之後的世界」的深度對談,揭示了 AI 發展的最新進展與未來展望。 AGI 時間線預測 Dario 重申了他去年的預測:在 2026-2027 年,AI 模型將能夠在諸多領域達到諾貝爾獎得主的水準。他表示目前 Anthropic 的工程師已經不再親自寫程式碼,而是讓模型來完成編寫工作,人類只負責編輯和周邊任務。他預估在 6-12 個月內,模型將能端到端完成大部分工程師的工作。 Demis 則持稍微保守的態度,認為在十年內有 50% 的機會實現 AGI。他指出編程和數學領域較容易自動化,因為結果可驗證;但自然科學領域則更具挑戰性,需要實驗驗證,且目前模型在「提出問題」和「建立理論」

By Andy Lin
讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

最近我嘗試做了一個 Agent,專門用來分析我的身體健康狀況。 這不是什麼有商業潛力的專案,純粹是出於好奇。 我想知道現在的 AI 到底能幫我們把健康分析做到什麼程度。 資料從哪來? 要讓 AI 分析任何東西,首先得有資料。 我第一個想到的就是 Apple Health。 因為我每天戴著 Apple Watch,它本來就會自動記錄睡眠、運動、心跳這些數據。 除此之外,我也在嘗試另一個經絡檢測的儀器,有點像中醫把脈的概念,只是還沒整合進來。 我覺得如果未來能把更多資料源串在一起,應該可以做出更有意思的應用。 技術架構其實不難 我用了一個叫「Apple Health Auto Export」的 App。 這個 App 可以把健康資料透過 REST API 自動傳送到你指定的伺服器。 資料打到伺服器後,我再處理並存到 Database 裡。 接著寫一個 MCP Server,然後在

By Andy Lin