Google CEO驚人坦白:別盲目相信AI!兆元投資狂潮下的真相與謊言

Google CEO驚人坦白:別盲目相信AI!兆元投資狂潮下的真相與謊言

Google執行長 Sundar Pichai 日前接受BBC深度專訪,在AI技術以前所未有的速度席捲全球的此刻,他以科技巨頭掌舵者的身份,揭開了矽谷這場兆元投資狂潮背後的驚人真相、潛在危機以及對普通人未來的深刻影響。從AI是否為泡沫的尖銳提問,到AI模型公然說謊的致命缺陷,Pichai的回答不僅坦率,更為這場全球性的AI狂熱提供了一劑清醒劑。

當被問及矽谷正在發生的變革規模時,Pichai給出了令人震驚的數據。他指出,這是一次即便以矽谷標準來看都堪稱「非凡」的時刻,是繼個人電腦、網際網路、行動裝置和雲端之後的全新紀元——「AI時代」。

為了支撐這場革命,資本投入的規模是空前的。Pichai透露:「大約四年前,Google每年在基礎設施上的花費不到300億美元。今年,這個數字將超過900億美元。」他進一步估算,如果將所有公司的投資加總,「我們有超過一兆美元的投資正在投入,用於為這一刻建設基礎設施。」

Pichai用一個生動的比喻總結了這種瘋狂的擴張速度:「在接下來的幾年裡,我們將完成我們過去10到20年才可能建成的東西。」這意味著,人類社會正在以前所未有的速度,為AI打造一個全新的數位世界骨架。

AI是泡沫還是革命?理性與非理性的共存

面對全球都在質疑的「AI泡沫論」,Pichai提出了他的觀點。他認為,目前的興奮是「非常理性的」,因為技術的進步是實實在在的,從消費者到企業都看到了真實的需求,甚至到了「我們的服務能力跟不上需求」的程度。

然而,他也坦率承認,歷史總是不斷重演。他將其與網際網路泡沫相提並論:「當我們經歷這些投資週期時,確實有些時刻我們會集體過度投資。」但他強調,就像沒有人會質疑網際網路的深遠影響一樣,AI的變革性同樣毋庸置疑。「我預期AI也會如此。所以我認為,這既是理性的,同時在這樣的時刻也存在非理性的成分。」

AI的致命缺陷:當Gemini開始說謊

訪談中最尖銳的部分,莫過於對Google自家AI模型Gemini準確性的質疑。當被問及Gemini是否總是說實話時,Pichai的回答出乎意料地直接。

他承認AI模型存在根本性的技術缺陷:「這些AI模型從根本上有一種技術,它們在預測接下來會是什麼,因此它們容易出錯。」面對諸如「建議將膠水作為披薩配料」或「錯誤指控現任參議員性侵」等荒謬案例,他並未迴避。

Pichai給出了一個所有使用者都應牢記的警告:「你必須學會使用這些工具,了解它們擅長什麼,而不是盲目相信它們說的每一句話。」他強調,真實的世界依然需要記者、醫生、老師等專業人士來提供可信賴的資訊,AI不能也不應成為唯一的資訊來源。

AI的能源黑洞:地球能承受嗎?

AI的發展帶來了另一個巨大的權衡——能源消耗。據估計,到本世紀末,資料中心的耗電量將超過整個印度的用電量。這是否意味著AI的發展優先級高於氣候變遷目標?

Pichai認為這並非「零和遊戲」。他解釋道,正是因為AI帶來了巨大的能源需求,才迫使科技公司以前所未有的力度投資新能源技術。「我們剛剛簽署了與Commonwealth Fusion Systems的核融合能源採購協議,這是企業史上最大的一筆。我們還在投資小型模組化核反應爐和地熱能。」

他承認,AI的快速發展確實影響了Google原先設定的2030年淨零碳排目標的進度,但他樂觀地表示,這場能源需求的挑戰,反而將加速太陽能、電池技術和核能的發展,最終可能讓我們擁有更豐富的可再生能源。

你的工作會被取代嗎?給下一代的生存指南

對於普通人最關心的工作取代問題,Pichai並未給出虛幻的承諾。他承認AI將對社會造成衝擊,律師、會計師、記者、創意產業等中產階級工作都將受到影響。「它會發展和轉變某些工作…人們需要適應,並且在某些領域它會衝擊一些工作。」

但他以歷史為鑑,將AI比作冰箱或洗碗機的發明:「我記得小時候家裡有了第一台冰箱,它徹底改變了我母親的生活,讓她有時間去做其他事情。」他認為AI更像是一個強大的輔助工具,例如幫助放射科醫生應對日益增長的掃描圖像數量。

對於憂心忡忡的父母,Pichai的建議是:「我不會改變我們一直以來的思維方式。我會鼓勵下一代擁抱這項技術,學會在你的專業領域中使用它。無論你想成為老師還是醫生,那些學會如何使用這些工具的人,將在各自的專業中表現得更好。」

總結來說,Sundar Pichai的這次訪談揭示了一個複雜而矛盾的AI未來:它既是推動人類進步的強大引擎,也伴隨著真實的風險與代價。它要求我們在享受其便利的同時,保持清醒的批判性思維,並為一個被徹底重塑的社會做好準備。

參考資料: https://www.youtube.com/watch?v=BYx63PKKPvg

Read more

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

Claude 的 Project、Skill、Connector 到底怎麼分?一次搞懂三者的關係

很多人問我,在 Claude 裡面,Project、Skill、Connector 這三個東西到底差在哪裡? 什麼時候該用哪一個? 老實說,我一開始也搞得很混亂。 但實際用了一段時間之後,我發現其實邏輯很簡單。 先從最基本的開始:Connector 是對外的資料來源 如果你需要從外部拿資料,比如說接 Google Calendar、接 Notion、接你自己的資料庫,你就需要 Connector。 它就是一個 MCP 的連結,讓 Claude 可以去外面抓資料回來。 沒有 Connector,Claude 就只能用它自己知道的東西,沒辦法碰到你的資料。 Skill 則是內部的運算邏輯 Skill 沒有辦法對外連接。 它只能在內部用 Python 或程式碼執行。 你可以把它想成是一個 Controller,專門負責處理運算的部分。 比如說,你想讓 Claude 用特定的格式改寫文章、

By Andy Lin
讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need

讓 AI 認識你 — Memory is All You Need 最近我在 Claude 上快速搭建了七大 Agent。 原因很簡單:你的助理應該是越使用越懂你。 而 Claude Project 有個關鍵功能叫 Memory,它會根據你不斷詢問的過程,主動提取記憶。 這就是我認為 AI 助手真正強大的地方。 GA 分析助手:從進階到客製化 自從我串接 GA MCP 後,這位助手已經變得非常厲害。 漏斗分析、訪客來源、異常事件追蹤、站上任何問題都難不倒它。 但我想要的不只是這些。 我希望它隨著時間,能夠對齊我的知識,知道我要什麼。 你不用想太多,不用一次設定好整個 instructions。 試著使用一週,再回頭看看 memory,你會發現它已經根據你的行為開始學習客製化了。 許多助手不需要懂老闆要什麼,但網站分析不一樣。 因為我沒有那麼多美國時間,

By Andy Lin
AGI 來臨:兩大 AI 巨頭的預測與警示

AGI 來臨:兩大 AI 巨頭的預測與警示

在近期的達沃斯論壇上,Anthropic 執行長 Dario Amodei 與 Google DeepMind 執行長 Demis Hassabis 進行了一場關於「AGI 之後的世界」的深度對談,揭示了 AI 發展的最新進展與未來展望。 AGI 時間線預測 Dario 重申了他去年的預測:在 2026-2027 年,AI 模型將能夠在諸多領域達到諾貝爾獎得主的水準。他表示目前 Anthropic 的工程師已經不再親自寫程式碼,而是讓模型來完成編寫工作,人類只負責編輯和周邊任務。他預估在 6-12 個月內,模型將能端到端完成大部分工程師的工作。 Demis 則持稍微保守的態度,認為在十年內有 50% 的機會實現 AGI。他指出編程和數學領域較容易自動化,因為結果可驗證;但自然科學領域則更具挑戰性,需要實驗驗證,且目前模型在「提出問題」和「建立理論」

By Andy Lin
讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

讓 AI 當你的健康顧問:我用 Apple Watch 數據打造個人健康分析 Agent

最近我嘗試做了一個 Agent,專門用來分析我的身體健康狀況。 這不是什麼有商業潛力的專案,純粹是出於好奇。 我想知道現在的 AI 到底能幫我們把健康分析做到什麼程度。 資料從哪來? 要讓 AI 分析任何東西,首先得有資料。 我第一個想到的就是 Apple Health。 因為我每天戴著 Apple Watch,它本來就會自動記錄睡眠、運動、心跳這些數據。 除此之外,我也在嘗試另一個經絡檢測的儀器,有點像中醫把脈的概念,只是還沒整合進來。 我覺得如果未來能把更多資料源串在一起,應該可以做出更有意思的應用。 技術架構其實不難 我用了一個叫「Apple Health Auto Export」的 App。 這個 App 可以把健康資料透過 REST API 自動傳送到你指定的伺服器。 資料打到伺服器後,我再處理並存到 Database 裡。 接著寫一個 MCP Server,然後在

By Andy Lin