SaaS 正在死亡?22 億美元 AI 公司 Turing 執行長的 30 兆美元知識革命論
Turing 執行長 Jonathan Siddharth 提出數位知識工作的「四維矩陣」框架,認為 AI 正在瓦解 30 兆美元的知識工作市場。他指出 SaaS 有兩種死法:自建軟體成本趨近零,以及 Agent 時代不需要 GUI。

本文整理自 Summation Podcast(前 World of DaaS)2026 年 2 月播出的單集。

一張四維矩陣,框住了 30 兆美元
如果有人告訴你,所有坐在電腦前的工作加起來值 30 兆美元,你大概不會太驚訝。但如果有人接著告訴你,這 30 兆美元的市場可以用四個維度完整描述,而 AI 正在逐格攻佔這張矩陣裡的每一個儲存格,那你可能就會想多聽幾句了。
說這話的人是 Jonathan Siddharth,22 億美元估值 AI 公司 Turing 的共同創辦人暨執行長。Turing 不是一家普通的 AI 新創,它為 OpenAI、Google、Meta、Anthropic 等前沿模型實驗室提供訓練資料,同時也幫大型企業部署 AI 系統,橫跨 AI 產業鏈的上游和下游。在 Summation Podcast 主持人 Auren Hoffman 的訪談中,Siddharth 用一個簡潔的框架拆解了 AI 將如何改寫知識工作的版圖。
他的「四維矩陣」是這樣的:第一維是產業(金融、醫療、零售等),第二維是組織內的功能部門(工程、產品、行銷、財務),第三維是每個部門裡的角色(比如財務下面有 CFO、FP&A 主管、會計主管),第四維是每個角色執行的具體工作流程(比如 CFO 每月要準備董事會簡報、製作月結報告)。這四個維度交織出來的每一個「儲存格」,就是一種可以被 AI 自動化的知識工作。而自動化所有這些儲存格所需要的,歸結起來只有四種能力:多模態理解、推理、工具使用、程式碼撰寫。
這個框架聽起來簡單,但它的重要性在於指出了一個常被忽略的事實:AI 不是只能自動化「簡單的重複工作」,而是正在學習理解每一個產業、每一個角色、每一條工作流裡的隱性知識。
AI 的瓶頸不再是算力,而是人類智慧
Siddharth 提出了一個尖銳的觀察:通往超級智慧需要三根支柱,演算法創新、算力規模化、資料規模化。前兩根柱子已經有成熟的參與者在推進(前沿實驗室負責演算法,輝達和超級資料中心負責算力),但第三根柱子遇到了根本性的瓶頸。網路上所有的公開文本、人類歷史上寫過的所有書籍,模型都已經吃過了。接下來的增量知識,必須靠人類專家在真實工作環境中「手工製造」。
Turing 做的正是這件事。他們招募投資銀行家、醫生、律師,複製這些專業人士的工作環境,然後讓他們在其中產生訓練資料。這不是傳統的資料標註,而是把一個資深投行分析師在評估企業併購時的整套推理鏈條,從閱讀財報、做 DCF 估值、比較可比公司、到最終形成投資建議,完整記錄下來,轉化成模型可以學習的格式。
這個「從標註到專家知識蒸餾」的轉變,反映了 AI 訓練範式的根本演進。模仿學習(imitation learning)需要的是人類專家的工作軌跡,強化學習需要的是評估 AI 產出品質的獎勵信號,兩者都需要真正理解業務的人才能提供。Siddharth 很直白地說,模型現在是「data starved」(資料飢渴),而這種飢渴只有人類智慧才能餵飽。
模型明明很強,企業卻只用了 10%
訪談中有一段耐人尋味的對話。主持人 Auren Hoffman 抱怨 AI 連幫他買一雙鞋都做不好,Siddharth 卻反過來指出了一個截然不同的現象:企業端存在嚴重的「模型能力過剩」(capability overhang)。
他的觀察是這樣的:現有的前沿模型其實已經能做非常多事,但多數企業連基本的 prompt engineering 都還沒做好,更不用說工具呼叫、RAG 系統、fine-tuning 或強化學習後訓練了。即使是那些他認為已經走在最前面的企業,也不過用了目前模型能力的 10% 而已。模型夠聰明了,卡住的是部署。把模型塞進真實業務流程需要大量的「first mile, last mile」工程。每一個工作流都需要建構一個專門的系統,設計正確的人機協作模式、建立評估指標、處理模型在邊緣案例下的失敗。
Siddharth 甚至提到了 OpenAI 最近發布的 GDPval 論文。這篇論文橫跨美國 GDP 前九大產業的 44 種職業,設計了 1,320 項由十年以上經驗專家出題的真實工作任務。結果發現 GPT-5.2 Thinking 在 70.9% 的比較中打敗或持平業界頂尖專家,速度快了約 100 倍,成本低了約 100 倍。模型的能力已經在那裡了,卡住的是企業的組織、流程和技術整合。
如果要用一句話概括這個落差:AI 的供給端在加速,需求端卻還在暖機。
SaaS 的兩種死法
這場訪談最犀利的觀點,是 Siddharth 對 SaaS 產業的死亡判決。他認為 SaaS 正在從兩個方向同時被夾擊。
第一種死法:自建軟體的成本正在趨近零。過去你想在官網上放一個銷售聊天機器人,得請一堆 NLP 博士、花六個月蒐集訓練資料、嘗試不同模型架構、持續做 active learning,這筆研發費用攤下來才值得用 SaaS 訂閱制。但現在,智慧被壓縮進了基礎模型的權重裡。任何一個軟體工程師都能用前沿 LLM 快速搭建 AI 應用,按自己的需求客製化。既然自建的成本趨近零,為什麼還要每個月付錢給第三方?
第二種死法更根本:SaaS 軟體是為人類設計的,而不是為 Agent 設計的。Salesforce、Jira、Greenhouse 這些工具,有漂亮的選單、按鈕、GUI,因為它們的使用者是人。但當 AI Agent 開始接手工作,它不需要看畫面,它需要的是 API。Siddharth 描述了一個未來場景:他告訴一個 Agent「我需要招一個強化學習工程師」,Agent 就自動查詢公司知識庫、撰寫職缺描述、更新官網、發布到 LinkedIn、篩選履歷、安排面試。整個過程不需要打開 Greenhouse,不需要任何 ATS 軟體。
他特別提到了一家名為 Humain 的沙烏地阿拉伯公司(由沙烏地主權基金 PIF 支持),正在實驗一種「無 SaaS」的企業架構:你只需要資料層加上一群 Agent,再加上使用者介面。中間那一層 SaaS 軟體?完全不需要。這聽起來像是科幻小說,但考量到 Humain 背後的資金規模(PIF 的資產管理規模將近一兆美元),這不只是一個概念驗證。
Siddharth 觀察到,一些大型 SaaS 公司正在試圖延緩這個趨勢,刻意不支援 MCP 等 Agent 互通協定,想把用戶鎖在自家的 GUI 裡。但他引用了一個生動的比喻:水壩終究會被沖破。
Turing 的雙飛輪:從資料工廠到超級智慧加速器
面對這麼激烈的市場變化,Turing 自己怎麼活下來?Siddharth 的回答是一個精心設計的「雙飛輪」。
一邊是前沿 AI 業務:為 OpenAI、Google、Anthropic 這些實驗室提供高品質訓練資料。這讓 Turing 始終站在技術前沿,知道模型最新的能力邊界在哪裡。另一邊是企業 AI 業務:幫金融機構、媒體公司等大型企業建構端對端的 AI 系統。這讓 Turing 知道模型在實戰中會在哪裡出錯,比如讀不懂跨頁的 PDF 表格、用工具時犯蠢、做 DCF 計算會算錯。
這些實戰中發現的失敗模式,反過來就成為前沿實驗室最渴望的訓練資料。Turing 不是在賣模型失敗的企業資料(那涉及隱私),而是把「模型在某類型任務上容易失敗」這個模式抽象出來,轉化成資料集,賣給前沿實驗室去改進模型。模型改進了,企業 AI 系統的表現就會提升,又會發現新的失敗模式,形成正循環。
Siddharth 很明確地說,他不認為 Turing 是一家「資料標註公司」,而是一個「超級智慧加速器」。這個定位的野心不小:年營收約 3 億美元、已經驗證過獲利能力、然後又重新踩油門投資成長,瞄準的是那 30 兆美元知識工作市場的系統性重塑。
我的觀察:臺灣企業的「10% 陷阱」
Siddharth 提到的「企業只用了模型 10% 能力」這個數字,我認為在臺灣的情境下恐怕還更低。
我觀察到不少臺灣企業對 AI 的投入還停留在「買工具」的思維:訂一套 ChatGPT Enterprise、裝一個 Copilot,然後等著看成效。但 Siddharth 描述的那種真正的 AI 部署,是要把模型「嵌入」每一條業務流程裡,這需要理解你自己的工作流、設計人機協作模式、建立評估機制。這不是買軟體的問題,而是組織再造的問題。
SaaS 正在死亡這個判斷,對臺灣的 SaaS 新創也是一記警鐘。如果你的產品只是在前沿模型外面包了一層 UI,那你的護城河正在以每季一次模型更新的速度被填平。真正有價值的從來就不是 UI 或工作流自動化,而是某個領域的獨特資料、某類任務的專業知識。這些才是 AI 時代真正的壁壘。
Turing 的雙飛輪模式也值得深思:它同時站在 AI 產業鏈的上游(提供訓練資料)和下游(部署企業方案),讓兩端的洞察互相強化。對於想在 AI 浪潮中找到定位的臺灣企業來說,問題不只是「我要用什麼 AI 工具」,而是「我在 AI 產業鏈的哪個位置上,能建立起這種正向循環」。