狂攬7.1k Stars!武裝你的龍蝦和「愛馬仕」,YC總裁開源AI記憶外掛

智東西
04/14

智東西

作者|江宇

編輯|漠影

智東西4月13日報道,昨日,YC總裁Garry Tan開源的「AI記憶外掛」——GBrain,迎來新一輪更新,版本迭代至0.9.0。自4月10日發布後短短數天,該項目已在GitHub狂攬約7.1k星。

藉助這套系統,用戶的筆記、開過的會議、收發的郵件、刷過的社交平台記錄,乃至通話記錄,都可以被持續寫入同一套系統,並完成結構化整理與索引。

當這些信息積累到一定規模後,再次提問時,AI可以直接調取過往記錄參與判斷。常見用法包括回溯某個人的歷史往來梳理一段持續演進的思考脈絡,或在會議前自動聚合相關背景信息

這正好踩在當前AI的一個共識問題上:容易「失憶」。Agent側的memory主要記錄偏好和配置,大模型的上下文又有長度邊界,一旦跨任務、跨時間,信息往往難以延續。GBrain補充上的,正是這一層長期、可累積的數據能力,尤其適合已經在使用OpenClaw、Hermes這類持續運行Agent的用戶

它將原本分散在各處的數據,整理為一套可以被讀取、寫入並持續更新的「長期記憶層」。Garry Tan也直言,這套系統的目標,是讓Agent具備「對上萬份文檔的完整記憶能力」

他在分享這一項目時提到:「如果你希望你的Agent能夠完整記住上萬份文檔,GBrain就是為此準備的」,並補充稱,「希望它能幫你搭建屬於自己的mini AGI」。

在最新版本中,GBrain新增多項確定性命令與生產級技能,包括知識反向鏈接檢查、自動修復LLM生成錯誤、結構化報告生成以及大文件分層上傳等能力,同時進一步強化知識圖譜構建與長期維護機制。

如果已經部署了OpenClaw、Hermes Agent等持續運行的Agent,用戶只需將指令交給Agent執行,安裝、配置與數據導入等流程即可自動完成。一個基礎版本的「腦庫」(即圍繞用戶自身信息建立起來的長期記憶庫),通常在30分鐘左右可以跑通,本地數據庫也可以在幾秒內初始化完成。

開源地址:github.com/garrytan/gbrain

一、脫胎於卡帕西的「大模型維基百科」,進化出「自進化的知識庫」

GBrain並不是一個啱啱冒出來的新項目。早在4月10日,Garry Tan就已在X上密集披露這一項目,並正式對外開源。他將其定義為一套「可被Agent直接讀寫的長期記憶系統」,核心目標是解決AI在個人數據層面的「失憶問題」。

按照Garry Tan的說法,這套方案提供了一種「the easiest, best, guided way(最簡單、最好且帶引導的方式)」來複現個人AI系統。

這套系統已在Garry Tan的個人環境中長期運行,管理過超10000份Markdown文件、3000+人物檔案、13年日曆數據以及5800條Apple Notes記錄,並持續接入會議、郵件、社交信息與原始想法等多類數據,形成一個可被Agent持續調用與更新的個人知識「腦庫」。

4月12日,Garry Tan還進一步放出Skillpack配方、語音接入方案以及完整部署路徑。此版本能在15分鐘以內,完成基礎搭建,並以更接近「Personal AI software(個人AI軟件)」的形態產出——由Agent根據個人數據與需求動態生成與演化,而非一款固定功能的工具。

同時,他也公開展示了GBrain在語音交互、數據接入與知識沉澱等場景中的實際運行方式。

而這一項目的思路,也與AI大神卡帕西(ndrej Karpathy)提出的LLM Wiki一脈相承,可看作「大模型維基百科」的一次延展。

在4月5日,這一項目的雛形首次被提及。Garry Tan當時提到,他此前基於Karpathy提出的LLM Wiki範式,構建了一套以Markdown為核心的個人知識系統。但隨着數據規模快速增長,這一體系很快觸及瓶頸——其知識庫已膨脹至約2.3GB,Git管理方式開始變得低效甚至「喫不消」

在這一背景下,他開始引入數據庫與向量檢索能力,對原有結構進行重構,逐步演化出GBrain這一方案。GBrain在底層加入了Postgres與pgvector等組件,使其能夠支撐更大規模的數據檢索與結構化查詢。

整體來看,GBrain是一套圍繞「個人長期記憶」的完整Agent架構。從個人筆記、日程、社交關係到會議與原始想法,所有數據被持續寫入、索引與回讀,形成一個可被Agent調用的知識系統。

二、先別急着談「記憶」,GBrain先把一套「腦子」搭出來

AI Agent也許已經很聰明,但它並不了解你的生活。會議、郵件、推文、日曆事件、語音通話、原始想法,這些真正構成個人上下文的信息,過去大多散落在不同工具和不同賬號裏,模型每次對話都只能「臨場發揮」,很難持續積累。

GBrain要做的,就是把這些數據統一流入一個可搜索的知識庫,讓Agent在每次回應前先讀,在每次對話後再寫,久而久之,這個系統逐漸形成對你個人世界的長期理解

這一點也是GBrain的核心價值所在——長期記憶,其管理的是「world knowledge」,也就是人物、公司、會議、概念、交易和用戶自己的想法。

Agent自身的memory_search更偏向操作狀態,比如偏好、決策和配置;當前會話則負責處理即時上下文。以上兩層分工之後,再由GBrain來承擔「長期記憶」這一層。

三、30分鐘上「腦」,部署、擴展和遷移一條路打通

如果用戶已經有OpenClaw、Hermes Agent或其他持續運行的Agent,只需要把指令塊丟進去,剩下的流程由Agent自己讀文檔、執行安裝、詢問API key並完成配置。

一套基礎版「腦庫」大約30分鐘可以跑通,其中本地數據庫PGLite在2秒內就能初始化,後續的schema建立、文檔導入、embeddings生成和各類集成配置,則根據「腦庫」大小不同,大約需要15到30分鐘

GBrain默認使用PGLite作為本地數據庫方案。用戶執行gbrain init之後,就能得到一個嵌入式的Postgres「腦庫」,不需要單獨購買服務器,也不要求先準備外部數據庫,屬於「零配置啓動」

如果後續「腦庫」繼續增長,比如超過1000份文件、需要多設備訪問,或者要通過遠程MCP給別的AI客戶端調用,再用gbrain migrate –to supabase遷移到託管版Postgres。

這套方案既保留了本地部署的低門檻,也給大規模使用留出了升級空間

此外,其搜索能力在不接OpenAI和Anthropic API key的情況下也能運行,但只能做關鍵詞檢索;接入OpenAI之後,才能啓用向量搜索;補齊Anthropic之後,則可以進一步獲得多查詢擴展和更好的搜索質量。

目前,GBrain主要針對Claude Opus 4.6和GPT-5.4 Thinking這類frontier model測試,小模型大概率撐不起整套方案。

四、郵件、日曆、電話都能往裏灌,化身「個人腦庫」

如果說本地Markdown和數據庫是GBrain的底座,讓這套系統真正活起來的,是GBrain持續「進數據」的配方體系——「Getting Data In」。

GBrain提供了一組recipes,讓Agent自己讀取安裝說明、向用戶索要憑據、校驗授權並完成接入。從目前提供的方案看,GBrain已經覆蓋了幾個最核心的數據入口。

1、通過Credential Gateway可以接入Gmail和Google Calendar,把郵件和日曆流入「腦庫」;

2、通過X-to-Brain可以持續同步X上的timeline、提及和刪除記錄

3、通過Meeting Sync可以將Circleback生成的會議轉錄寫入人物和會議頁面

4、Voice-to-Brain則更進一步,允許用戶通過Twilio和OpenAI Realtime搭一個真正能接電話的AI號碼。電話打進來之後,Agent先讀取來電者相關背景,再在通話結束後自動生成包含轉錄、實體識別和交叉引用的新頁面。這套語音能力已經能在真實號碼上運行,未知來電也可以被篩選。

這套接入機制最關鍵的地方,是它讓記憶系統不再停留在一批靜態文本上。郵件、會議、社交記錄和電話,Agent每處理一次互動,就會把相關信息重新寫回「腦庫」。對用戶來說,這種體驗和傳統知識管理軟件或許已經不太一樣了。

五、記憶開始「滾雪球」,Agent用得越久信息越完整

在項目中,Garry Tan將一道機制稱為「The Compounding Thesis(複利式記憶機制)」。

當新的信息進入系統後,Agent會先識別其中涉及的人物、公司和概念,再優先到「腦庫」中檢索相關內容,結合已有上下文完成回應,隨後把這次新增的信息寫回腦庫,並同步更新索引。

這個「讀取—寫入—更新」的循環不斷重複之後,系統逐漸形成連續的上下文積累,Agent也不再依賴單次對話的信息,而是可以調動歷史數據完成判斷。

Garry Tan也給出了一些典型使用場景。比如,「我該邀請誰來喫飯,同時認識Pedro和Diana?」,背後依賴的是數千個人物頁面及其關係網絡的交叉調用。

再比如,「我過去是怎麼談‘羞恥感與創始人表現之間關係’的?」,檢索範圍來自用戶自身過往的記錄和思考

在更貼近日常使用的場景中,如果30分鐘後要與Jordan見面,系統可以提前整理該人物的資料、過往互動記錄、近期動態以及未完成事項,生成一份會前brief。此類能力依賴的是前期持續沉澱的數據,在需要時被重新調取和組合。

為了讓這套機制能夠穩定運行,GBrain在知識組織結構上也做了相應設計。每個頁面被劃分為「compiled truth」和「timeline」兩部分。前者記錄當前階段對某個人、公司或概念的綜合理解,後者按時間順序追加事件、來源與變化軌跡

Garry Tan對此稱:「綜合結論是答案,時間線是證據」。這一設計讓系統在不斷更新認知的同時,也保留了信息來源和演變路徑。對於長期記憶系統來說,這種結構更有利於持續修正與覆盤,而不是簡單疊加記錄。

六、30個工具之外,「怎麼用」尤為重要

GBrain是一個開源倉庫,包含CLI、MCP server、TypeScript庫,以及一整套命令與接口。但進一步展開可以發現,這個項目的重點並不只在工具本身,還包括一整套明確的使用方式。

其中,GBRAIN_SKILLPACK.md被放在覈心位置。相比列出有哪些能力,這份文檔更多在規定Agent的行為方式,包括什麼時候讀取「腦庫」、什麼時候寫入信息、如何做數據富化,以及如何維護整個系統的狀態。

這一設計讓GBrain和常見的功能型項目有所區分。項目中不僅提供了30多個MCP工具,還將brain-agent loop、實體檢測、會議寫入、來源追蹤、定時巡檢以及夜間「dream cycle」等運行邏輯一併寫入Skillpack中。

具體來看,系統要求Agent在每次消息到來時優先進行brain-first lookup,對新出現的人物、公司和概念進行實體捕捉,並以固定周期執行數據同步與embedding更新。同時,還設定了每日更新檢查與夜間批處理流程,用於補全實體、修復引用並整理已有記憶。

在這一套機制下,GBrain將一整套長期運行的流程固化下來,讓Agent在使用過程中持續積累、整理並更新信息。

也正因為如此,GBrain更接近一套Agent基礎設施。它既可以獨立作為CLI工具使用,也支持通過MCP接入Claude Code、Cursor、Windsurf等客戶端,並可通過遠程MCP服務實現跨設備訪問

對於OpenClaw或Hermes這類持續運行的Agent,它承擔的是長期知識層的角色;對於其他MCP客戶端,則提供一個可查詢、可修改、可擴展的個人知識庫。

從整體結構來看,Garry Tan此次開源的GBrain是一套圍繞「個人長期記憶」構建的完整實現框架。

結語:長期記憶有了新方案,但門檻還在

在現有體系中,大模型負責生成,Agent負責執行,但跨任務、跨時間的信息積累,一直缺乏穩定方案。上下文會被截斷,memory更多停留在偏好與配置層,很多信息難以自然延續。

GBrain提供了一種相對完整的方法:把分散數據持續寫入、結構化整理,並在後續反覆調用。這套機制本身並不「輕量」,對模型能力、數據規模和系統運行都有一定要求。

從這個角度看,長期記憶這件事已經有了可以運行的版本,但距離「隨手可用」的形態,還有一段距離。對更廣泛的用戶來說,一個更輕量、更易部署的方案,可能仍然是接下來需要被解決的問題。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10