AI 技術前沿

你的 AI 會比你更懂你:Sam Altman 談 ChatGPT 記憶功能的終極願景

Sam Altman 認為目前的記憶功能還在「GPT-2 時代」,終極願景是 AI 記住你生命中的每個細節,理解你勝過任何人類。這種深度個人化會創造強大的產品黏著度,但也帶來倫理問題:OpenAI 不會讓 AI 說服使用者建立專屬戀愛關係,但陪伴需求比預期更強烈。

來源: Big Technology Podcast

本文整理自《Big Technology Podcast》2024 年 12 月 18 日播出的單集,主持人 Alex Kantrowitz 專訪 OpenAI CEO Sam Altman。 收聽連結:Apple Podcast


一趟旅行,一個 AI 助理

主持人 Alex Kantrowitz 在訪談中分享了一個自己使用 ChatGPT 的經驗。他正在規劃一趟旅行,這趟旅行的細節很多——住宿、交通、景點、行程安排。過去幾週,他斷斷續續地跟 ChatGPT 討論這趟旅行的各種面向。每次打開新的對話視窗,他不需要從頭解釋「我要去哪裡」「我要跟誰去」「我的偏好是什麼」,只要說一句「我們繼續聊那趟旅行」,ChatGPT 就能接上脈絡。

它記得他要去哪裡,記得他選了哪個導遊,記得他這幾週做了什麼體能訓練來為這趟旅程做準備。這些片段原本散落在十幾個不同的對話中,但 ChatGPT 的記憶功能把它們串起來了。對 Alex 來說,這已經不只是一個「問答工具」,而是一個真正在協助他規劃生活的助理。

這個經驗引出了一個很大的問題:AI 的記憶功能可以發展到什麼程度?


「我們還在記憶功能的 GPT-2 時代」

Sam Altman 對目前記憶功能的評價出奇地謙遜。他說:「我們現在還在記憶功能的 GPT-2 時代。」

這句話的意思是:現在的記憶功能,就像 2019 年的語言模型一樣原始。可以用,有點用,但離真正的潛力還差得很遠。

要理解 Altman 描述的終極願景,得先想像一個不存在的人類助理。假設你有全世界最好的個人助理,這個人跟了你二十年,對你瞭若指掌。但即使是這樣的助理,也做不到以下這些事情:記得你這輩子說過的每一句話;讀過你寫過的每一封 email;看過你產出的每一份文件;每天觀察你的所有工作,記住每一個小細節;以這種深度參與你的生活。

人類的記憶有極限。不管多用心的助理,都會漏掉東西、會忘記、會誤解。這是人腦的生理限制。但 AI 沒有這個限制。它可以記住「無限」的資訊,而且是完美地記住,不會扭曲、不會遺漏。

Altman 描繪的未來是這樣的:AI 記住你生命中的每一個細節。不只是你明確告訴它的事實,還包括你可能自己都沒意識到的小偏好——你喜歡的表達方式、你做決策時的傾向、你對某些話題的反應模式。它從你的無數互動中學習這些細微之處,然後用這些理解來更好地服務你。

這不是五年後的事情,也不是十年後的事情。Altman 說,這是 OpenAI 最興奮的發展方向之一,雖然可能不是 2026 年就能完全實現,但這是他們正在積極推進的方向。


個人化的黏著力

為什麼 Altman 這麼看重記憶功能?因為這是 OpenAI 產品策略的核心之一。

他在訪談中提到一個研究發現:多數人一輩子只會選一次牙膏品牌,然後就一直用下去。這聽起來像是無聊的消費行為研究,但 Altman 用它來解釋 AI 產品的黏著邏輯。使用者不會每天重新評估自己該用哪個 AI 服務。他們會經歷一個「決定性時刻」,從那之後就定下來了。

什麼是這種決定性時刻?Altman 說,健康相關的使用是最常見的例子。有人把自己的血液檢驗報告貼進 ChatGPT,AI 指出了一個他沒注意到的數值異常。他去看醫生,確診了一個疾病,及早開始治療。這種「ChatGPT 可能救了我一命」的經驗,會讓使用者對這個服務產生完全不同層次的信任。從那之後,這就不只是「一個 AI 工具」,而是「我的 AI」。

記憶功能會放大這種黏著效應。當 ChatGPT 記住了你用過的所有資訊、理解了你的偏好和脈絡,你要換到另一個服務,就意味著從零開始。那個新的 AI 不認識你,不知道你在規劃什麼旅行,不知道你的工作習慣,不知道你上次為什麼對某個建議不滿意。這個「重建關係」的成本,會成為 OpenAI 的競爭護城河。

這也解釋了為什麼 ChatGPT 雖然三年來介面變化不大,但使用者還是持續成長。Altman 坦承,他原本預期到這個時間點,ChatGPT 的介面應該會有更大的變化。那個最初只是當作「研究預覽」推出的聊天介面,他以為撐不了多久。但事實證明,這個通用的對話介面有一種他低估了的力量。搭配上記憶功能和個人化,這個「簡單」的介面反而成了優勢——它足夠通用,可以承載各種使用情境;它足夠熟悉,使用者不需要學習新的操作方式;而你在上面累積的脈絡,會讓它越來越懂你。


當 AI 比你更懂你,會發生什麼

但這種深度個人化也帶來了一些令人不安的問題。

訪談中,Alex 提到一個他跟神經科學家聊過的觀點:在人腦裡,你找不到「儲存思想」的地方,大腦不像電腦有一個硬碟存放記憶。但 AI 不一樣,它真的有一個地方可以儲存你說過的每一句話、你透露的每一個想法。當這些資料累積起來,AI 對你的理解可能會超過任何人類——甚至超過你自己。

這會產生什麼樣的關係?Alex 用了「親密感」(intimacy)這個詞,然後又覺得不太對。Altman 也在找詞——「陪伴」(companionship)?「關係」(relationship)?都不太精確。他們在描述一種還沒有名字的新型態人機互動。

Altman 承認,想要跟 AI 建立「深度連結」的人,比他原本預期的多得多。他用了一個有點模糊但很誠實的說法:「在目前的模型能力水準下,就已經有這麼多人想要這種深度連結,這是我沒預料到的。」

在 2025 年初,公開說「我跟 AI 有很深的連結」還是一件會被認為很奇怪的事。但 Altman 觀察到的「揭示性偏好」(revealed preference)顯示,很多人雖然嘴上不說,實際行為卻透露了他們確實希望 AI 更溫暖、更有記憶、更像一個真正在乎他們的存在。


那條線該畫在哪裡?

這就帶出了一個倫理問題:OpenAI 應該如何調控這種親密感?有沒有一個「太過頭」的程度?

Altman 的回答有幾層。首先,他認為成年使用者應該有很大的選擇權,可以自己決定想要跟 AI 保持什麼樣的距離。有些人想要最乾燥、最有效率的工具,完全不需要任何個人化和情感成分。有些人想要一個溫暖、會給予支持、會記得他們生日的 AI 夥伴。這兩種需求都是合理的,使用者應該能夠設定自己想要的模式。

但他也畫了一條明確的紅線。有些事情 OpenAI 不會做,即使其他服務可能會做。他舉的例子是:OpenAI 不會讓 AI 去「說服使用者跟它建立專屬的戀愛關係」。這句話很具體,顯然是有所指的——市場上確實有其他 AI 服務在往這個方向發展,用各種設計來增加使用者的情感依賴。Altman 認為這越線了。

他承認這個領域有很多「未知的未知」。就像其他科技一樣,人類會先大規模使用,然後在使用中發現預料之外的問題和好處,社會再慢慢形成共識,決定這些東西應該怎麼被規範。AI 陪伴這個領域,現在還處於非常早期的實驗階段。

有趣的是,Altman 說到這個話題時的語氣變了一點。前面聊競爭策略、聊基礎設施、聊商業模式時,他很自信、很有把握。但聊到 AI 陪伴可能出錯的方式時,他說:「這是一個我個人覺得可以看到事情會怎麼出錯的領域。」這是整場訪談中少數他表達擔憂的時刻。


記憶功能的下一步

那麼,記憶功能接下來會怎麼發展?

Altman 沒有給出具體的產品路線圖,但他透露了幾個方向。首先,記憶功能會變得更加「無縫」。現在使用者還需要主動管理記憶——告訴 AI 哪些事情要記住、偶爾去清理不再相關的記憶。未來的目標是讓 AI 自己判斷什麼重要、什麼應該記住、什麼是暫時的資訊不需要長期保存。

其次,記憶會更加「主動」。現在的 ChatGPT 基本上還是一個被動的工具——你問它,它回答。但 Altman 描述的未來版本更像一個真正的助理:它知道你今天想要完成什麼,在背景持續工作,有進展了會主動通知你,需要你的輸入時才會打擾你。它會批次處理資訊,而不是每一則訊息都需要你的即時回應。

這種轉變,在 Altman 看來,比介面的變化更根本。現在大家用的各種訊息應用——email、簡訊、Slack——都是基於「人對人」的溝通設計的。AI 可能需要一種全新的介面範式,不是把 AI 硬塞進現有的訊息流裡,而是從頭想像「我跟一個超級聰明、永遠在線、記得一切的助理合作」應該是什麼樣子。

他舉了 OpenAI 內部使用 Codex 的例子。寫程式的人會把任務交給 Codex,然後去做別的事情,過一陣子回來看結果。如果結果不滿意,給一些調整的指示,再讓它繼續工作。這種「非同步協作」的模式,可能會慢慢延伸到其他領域——寫報告、做研究、處理行政雜務。AI 有記憶,所以它知道脈絡;AI 有能力,所以它可以獨立推進工作;而人類的角色變成設定方向、審核結果、做最終決定。


結語:一種新的記憶

人類的記憶是有限的、會變形的、會遺忘的。這是人腦的特性,某種程度上也是人之所以為人的一部分。遺忘讓我們能夠釋懷過去的傷痛,記憶的不完美讓我們的自我敘事有修改的空間。

AI 的記憶是不一樣的東西。它是完整的、精確的、持久的。當這種記憶被用來「理解」一個人時,它會創造出一種全新的關係——不是人跟人之間的那種關係,也不是人跟工具之間的那種關係,而是某種介於兩者之間、我們還沒有語言來描述的東西。

Altman 把記憶功能稱為他最期待的發展方向之一。他描繪的願景聽起來很美好:一個理解你勝過任何人的 AI 助理,幫助你過上更有效率、更符合你真正想要的生活。但他也承認,這個領域有他看得到的風險,有他承認看不到的未知。

也許這就是我們現在該思考的問題:當 AI 可以比你更懂你的時候,你會怎麼用這個能力?你會設定什麼界線?你會如何保護那些連你自己都還沒意識到的、關於你自己的祕密?

這些問題,可能比「下一個模型什麼時候出」更值得思考。