LongCut logo

OpenClaw 糾正我:「你不是這樣決定的,你三個月前說的是...」

By 追日Gucci-AI效率革命聯盟

Summary

Topics Covered

  • 記太多讓AI變笨
  • memory.md當索引非流水賬
  • microsync捕捉決策安全網
  • 雙網互補微觀全觀
  • memory search精準召回

Full Transcript

你的 AI,每次開啟都像是一個陌生人,昨天討論了什麼?

不知道上週做了什麼重要的決定?

忘了。但如果我現在問我的 AI,上週我們做了什麼重要的決定,它真的答得

出來,而且還會附上來源讓我驗證。

這支影片,我將告訴你如何做到這件事。

在講解之前,你必須理解兩件事。

第一,記太多就等於 AI 會變笨。

你的記憶系統就像是一張桌子,如果上面擺滿了各式各樣的東 西,那你什麼都找不到,因為不是所有的資訊都值得 AI 放在永 遠看得到的地方。

第二,如果不把記憶記下來的話,等於每天都重來。

那我認為記憶的基礎建設,其實它的重要性是大過於 Agent 的 智力。那記憶的基礎建設如果做得好,普通的模型也會比頂級的模

智力。那記憶的基礎建設如果做得好,普通的模型也會比頂級的模 型還來得更有用。

所以你跟 AI 可能聊了很多事情,然後這些事情可能散落在你的 Openclaw 的 web chat,或者你像我是在 Telegram 裡面設了各個不同的 topic,然後每 個 topic 是討論不同的事情,然後用的 model 又不一樣,那這些散

落在四處的對話,它彼此之間是不互通的,然後也沒有被好好 地記憶下來。

所以我們要解決的事情就是記什麼,怎麼記,然後怎麼找回來,也就 是怎麼樣去做記憶查詢。

那 AI 本身是沒有記憶的,每次對話它只知道 contacts 就是上 下文的內容是什麼,當你把視窗關掉之後,一切都歸零。

那 Openclaw 是怎麼繞過這個限制的呢?

其實是用檔案來模擬記憶,這時候我們就來看一下,在 Openclaw 裡 面,我賦予它的三層記憶的架構。

第一種就是大家都會有的,或者稱之為 workspace,裡面就是會有這一些 檔案,那當中最重要的是 memory.md,那這個就是你每次跟 open

檔案,那當中最重要的是 memory.md,那這個就是你每次跟 open claw 對話的時候,它會每次都去讀取出來這個檔案裡面 所有的內容,所以它必須時時地去保持它的精簡,否則你會浪費 非常多的 token。那再來呢?

非常多的 token。那再來呢?

這個就是我會每日的去累積一份記憶的檔案,在 memory 目錄底下,然後這個記憶底下我會去開啟 Openclaw 裡面 預設有一個功能,叫做 memory search,那 memory search 你可以把它想象成它

是一個全文檢索,再加上語義檢索的功能,所以每天我 會持續累積一份記憶出來。

那還有一種記憶是屬於所謂的冷記憶 那它是長期的知識庫,可 能是你的系統設計的 spec,那可能是你做的研究報告,或者是歷史 記錄跟一些存檔的對話。

所以就像是我存在我的 second brand 裡面的這些各式各樣的檔案,就 屬於這種冷記憶。

然後溫記憶跟冷記憶一樣,都可以利用 memory search 來查詢。

那這個等最後一個部分再來講解。

然後補充一下,這邊我還有一個 memory 會去做 archive 的動作,就是會把一 些過時的記憶搬到這個目錄底下,那這個待會後面會在細講。

所以它最重要的概念就是 memory.md 的這個檔案,它是每次

對話一定都會全自動的全部帶入,所以你寫在裡面的東西 AI 每次都會看到,那這邊就存在著陷阱。

很多人第一次設定完 Openclaw 之後,就覺得太棒和太好用了,然後瘋狂地 去塞東西到 memory.md 裡面,然後你可能塞了一個月之後,這

去塞東西到 memory.md 裡面,然後你可能塞了一個月之後,這 個檔案變成一千多行,問題就來了,這一千多行的內容,每次對話都會佔 據你的 context window,那裡面很可能百分之八十的內容是你

每次對話當中其實都用不到的 那你就等於是再花錢讓 AI 去讀它不需要讀的東西。

那這邊我的解法呢,第一個就是我固定會去檢查檔案是不是大於 8K,那8K 大概就是兩百行左右的內容。

所以給大家看一下,除了我會不斷地去精簡它的內容之外,還有一個很重要的 技巧就是,很多內容你其實應該拆解出去,而不是完全的塞 在這裡面。所以 memory 這個檔案你應該要讓它更像是索引的概念

在這裡面。所以 memory 這個檔案你應該要讓它更像是索引的概念 然後另外就是放一些你真的覺得無論如何每次對話都 必須要記憶的內容才放。

所以最大的關鍵就是在這個區塊。

所以你會看到,我在這個 memory 底下,那你就會看到剛剛你看到的這些東 西有沒有?那如果我隨便開啟一個檔案來看,那你就會看到,這裡面其

西有沒有?那如果我隨便開啟一個檔案來看,那你就會看到,這裡面其 實記憶了相當相當多的細節。

所以如果你把這些很細節的東西全部都塞在 memory 裡面,那當然你的 memory 就會膨脹得非常非常的快,它就一 直在浪費你的 token 所以記住一件事情,就是它的解法,就是把 memory

當成你的長期記憶精華,它不是放流水賬,然後一個簡單的原則 來決定要不要放進這個 memory 主記憶裡面,就是你去思考這 件事情是每次對話都需要的嗎?

如果需要就寫,不需要的話,就像我這個方式,去把它放到子資料夾裡 面,要用的時候 AI 它自己會去查。

我從 YouTube 的後台看到,有百分之八十觀看我頻道的觀眾,其實是還沒有 訂閱我的頻道的。

所以如果你認為我的頻道對於你 AI 學習很有幫助的話,那記得訂閱我 的頻道。這不只可以鼓勵我,而且還可以支援我製作出更多優質的影片內

的頻道。這不只可以鼓勵我,而且還可以支援我製作出更多優質的影片內 容喔!所以我們再來看這整個資料夾的結構,這邊可以看到有熱

容喔!所以我們再來看這整個資料夾的結構,這邊可以看到有熱 記憶、暖記憶跟冷記憶。

好,那,對記憶來講的話,最重要的就是剛剛提到的 memory.md,

它是長期記憶,而且是精華的記憶。

那其他的這幾個檔案都是 Openclaw Workspace 裡面預設都會有的, 那它每一個檔案的功能,都寫在這邊,那我就不贅述跟 展開。 那暖記憶的部分,這些檔案呢,是我有一個 micro sync 的排

展開。 那暖記憶的部分,這些檔案呢,是我有一個 micro sync 的排 程,它會每小時起來一次,然後把所有的對話全部看過一遍,然後 把重要的內容記憶下來。

然後另外還有一個每天做一次的 daily wrap up,那它最後會把一整天的 內容全部都看完之後,然後它會做成結構化的摘要。

那還有一種就是深度存檔的這種冷記憶,好,那冷記憶就包含這邊 research 裡面像是深度的研究報告,或者是被我每週另外一個排 程叫 weekly compound,它會把過時的記憶搬到 memory 底下的 archive。好,

那這邊提到的這幾個 job micro sync、daily wrap up,還有 weekly 的 compound,這三支排程,待會後面會再仔細地去 講解。好,那剛剛講完了這個 memory 重要的使用方式之後,那

講解。好,那剛剛講完了這個 memory 重要的使用方式之後,那 這個架構你已經懂了,但問題是誰要來幫我把這些重要的事 情寫進去呢?

如果你每次都要手動讓 AI 去做的話,這個系統很快就會爛掉。

所以,我的做法就是設定這三個排程 那第一個要介紹的 就是 microsync,它每天白天會跑五次,就是早上十點 下午一點、四點、七點跟晚上十點,那它每次跑的時候,它會自動地去把 過去三小時當中 session,什麼意思?

就是我們跟 Openclaw 對話的過程當中,不管你是透過通訊軟體, 或者你是透過 Openclaw 的這個 chat,簡稱 Webchat 的這個界 面,它都會在你的檔案系統當中,生成一個實體的

檔案,那這個每一次對話就叫一個 session。,所以這一個 microsync

檔案,那這個每一次對話就叫一個 session。,所以這一個 microsync 呢,它就會把所有對話的 session,好,這些檔案裡面它都會開啟,然 後全部都會把它看過。

那像我現在主要的通訊軟體是用 Telegram 那什麼叫做 Telegram 的 topic 平常你建完一個 bot 之後,你只有這樣一個對話的視窗嘛。

但是這顯然不符合使用,對吧?

因為你要做的事情很多,那你不可能所有的事情都用同樣一種 model, 畢竟 model 的價格是差異很大,所以做法就是我要建一 個新的 group 好,這邊有點 detail 了,那如果你對於 Telegram 如何去利用

群組加 topics 來分流,節省你數百到數千美元以 上的 token 的成本的話,那可以加入我的社群,好,這邊有非常完整的 教學。好,那今天就不特別展開。

教學。好,那今天就不特別展開。

所以總之所有的對話都會在每天的這個 microsync 的排程裡面, 118 00:10:06,260 --> 00:10:12,979,全部看過,然後它也不是所有東西都會記錄,因為我有要求它 特別要去看一些東西,就是在這些 session 的檔案裡面,有沒有一些重要 的決策,或者是對於系統方面新的規則、新的規定,如

果有的話,就寫入每天的這個 memory 的檔案裡面,那它命名裡 面會加上日期,那如果沒有的話就退出,好,什麼事情都不用做 那這邊可以 直接給大家看一下(按鍵聲),實際做出來的檔案的內容

那這樣你對於它記錄的內容會比較有感覺。

好,所以我這邊拿昨天的案例來講,那因為它是每三個小時起來一次,所以它 整理的資訊的密度一定會最強,然後刻度一定會最 細。好,所以你會看到我這邊讓它記錄下來的東西,一定是重要的決

細。好,所以你會看到我這邊讓它記錄下來的東西,一定是重要的決 策,或者是新的規則。

而且它都是有固定的 template,有沒有?

就是我要求它要記錄下原因是什麼,然後你發現了什麼事 情,然後最後你的結論是什麼。

所以你會看到它基本上都是記錄下這些重要的東西,好,然後 都要把原因、結果,然後修法,然後最後的結論等等的,按照 這個格式來記錄 好,那我們再回來看這張示意圖。Main session

這個格式來記錄 好,那我們再回來看這張示意圖。Main session 指的就是透過 web UI 的這個 chat,好,這個就叫做 main session。然

後呢?如果,你一樣是用 Telegram 的話,你一開始建出來的這個主要的 bot, 它也叫 main session,好,所以這邊的內容其實跟這一個 chat 是 互通的然後,另外如我剛剛講的,這一堆 topic,這一堆 session, 我同樣也會看。

那其實它還會掃到很多是這種,額,排程的session,那我 掃到之後,我是會把它過濾掉的,因為我在這邊主要的重點是在於 去萃取跟保留我人跟 Openclaw 之間的對話

所以排程的這些 job 我是會去過濾掉,因為對我的記 憶系統來講的話,那個部分相較比較不重要,雜訊也比較多 所以這個細節我們剛剛其實都提過。

那最後它就會去存入daily note,好那如我剛剛講的,它每 天就會是一個日期,好就像這邊這樣。

所以複習一下 micro sync,因為它的顆粒是最細的,所以我必須要 清楚告訴它什麼東西要記,什麼東西不要記。

所以這個地方我制定了一個叫做決策深度的規則,要記錄的是包括 確定的決策,然後新的規則架構變更,還有一些明確,我有提 到說記住XXX什麼的這一類的指令。

那至於一些日常的問答閒聊,然後懸而未決的討論, 那就不需要記錄下來。

所以重點就是它只記下那些確定的事情,那,那種還在考慮 A 或者 B 的東西,就不記。

那為什麼要這樣做呢?

因為它的刻度是最細的,所以我希望它儲存下來的東西是最 乾淨的,否則你記錄了很多的噪音,到時候我在做每週 的回顧的時候,會更難去做知識蒸餾的動 作那這個部分等一下 weekly compound 的時候我們再提。

好,所以一個概念就是 micro sync,它的角色是安全網, 去捕捉住這種最重要的事情,它的作用並不是錄音機 好, 講完了每三個小時的 micro sync 之後,那我們就來進入到 daily wrap

up,既然叫 daily 就表示它一天做一次,每天凌晨一點它會起來,然後 呢,它一樣會是把所有的對話記錄整天二十四小時全部都看過,然後 一樣會過濾掉,排程的任務的sessions,然後把剩

下的內容全部整合成一份結構化的summary的摘要 然後存進 second brain 裡面。

那我們就來看一下它的位置就在01-daily 裡面的summaries,所以我們來 看一下這一份檔案,那你就會看到我剛剛一直提到的,它是一份結構化 的摘要,所以你就會發現它跟剛剛給大家看的這個 micro sync 整理出

來的格式是不是有很大的不同這邊就是更 focus 在 幾個大項,做了什麼 decision,有什麼 action items,然後關鍵的一些重 要的對話,再來是值得深入的概念,然後技 術方面的一些筆記。

有時候我們在解決一些問題的過程當中,其實是很寶貴的。

那你把這個東西記錄下來之後,那往後遇到類似的問題的時候就比 較容易排除 那另外還有一些未完成待續的 task,以及記下 明天,額,可能要做的事情那這個動作就是由 daily wrap

up 來做。那看完剛剛 daily wrap up 的產生的,額 second brain

up 來做。那看完剛剛 daily wrap up 的產生的,額 second brain 的 memory,你可能會好奇說,欸這個 micro sync 一天跑五次了, 那這個 daily wrap up 還有它存在的必要嗎?

其實你把它想象成是兩張漁網,那 micro sync 就是一個 細目網它的孔洞比較小,然後跑得比較頻繁,所以它專門 用來攔截決策這種高密度的東西,一抓一個準。

但細目網會有一個盲區,就是它只看那些確定的決策,那 閒聊跟討論過程是直接放掉,這個時候呢,第二層安全網就 出來了。 daily wrap up 它就是粗的網,網洞粗,但是沒有死角

出來了。 daily wrap up 它就是粗的網,網洞粗,但是沒有死角 它可以把一整天的對話都撈過一遍,然後它有完整的對話的上 下文,那它也不特別去挑,不特別去選全部都放進網裡面,所

以它就更容易去補到那些在 micro sync 被放掉的 東西尤其是它可能欠缺的一些上下文 所以我們以 示意圖來講的話, micro sync 這邊要求是精準高密度 daily, wrap

up 要求是 overall 跟保底,好所以它只專注在確定的決 策。那 daily wrap up 是所有的對話都會進入這個網裡面,然後還有一

策。那 daily wrap up 是所有的對話都會進入這個網裡面,然後還有一 個差別是生成的檔案,micro sync 是放在 memory 底下,然後 daily wrap up 是 放在 second brain,然後最後在 weekly 的 compound 裡面,這兩份

資料其實都會拿來用只是這邊作為主要,這裡作為補充資料。

那由這兩個網去捕到的東西會形成一個很好的互補的作用, 201 00:17:48,736 --> 00:17:54,776到時候它會交叉比對,然後決定最後的記憶 哪些要移除,然後哪些要寫入新的記憶到這個檔案裡面, 203 00:18:01,136 --> 00:18:07,156還記得嗎?就是最重要的 Openclaw 的長期的熱記憶當中 那,再來就是提到這個 weekly 的compound啦,那它的作用就是在 於做記憶的補減脂,然後跟記憶的蒸餾。

那它一週只會跑一次。

然後如果剛剛講的它的來源,就是這兩者都會是它的data source,那交叉 比對之後,把最值得保留的東西蒸餾進去 memory.md

比對之後,把最值得保留的東西蒸餾進去 memory.md 裡面,然後同時它也會檢查在這個檔案裡面有沒有一些已經過時的 資訊,可能是你完成的專案,或者是被取代的設定

然後還是有一些太過detail的東西,都會被搬走。

那搬走的內容呢?

其實我也有保留下來,到時候 memory search 一樣是可以查到,只 是說它不會再去佔據最寶貴的 memory.md

是說它不會再去佔據最寶貴的 memory.md 的資源,所以我們可以來去看一下這個 weekly 的 compound,會做些什麼事情。

像這裡它其實就會提到說,這個東西要加進去 memory,這個東西應該 要歸檔,要從 memory 裡面移出,然後它也會去 monitor memory 更新前的 size 跟更新後的 size,然後是不是有在8KB 的

安全範圍。然後這裡一樣有提到所有歸檔的 archive 內容,依舊可以利

安全範圍。然後這裡一樣有提到所有歸檔的 archive 內容,依舊可以利 用 memory search 來找到。

所以那些被移除搬進 archive 的內容呢?

它並不是被刪掉,它只是先收進抽屜,它一樣可以利用 memory search 來找 到。那這些被 archive 的內容我會放在這裡,所以你會看到

到。那這些被 archive 的內容我會放在這裡,所以你會看到 這邊就留著那些被 archive 的記憶,所以這裡面你就 可以看到,到底是哪些內容已經過時了,然後被 移除掉。

那這個概念就很像是你平常都有寫日記,然後你週末的時候去整理 出這周最重要的幾件事,只是這件事情現在改成 AI 自動會幫你做,那你知道有了這一套記憶系統跑起來之後,讓我最 感到驚訝的是什麼嗎?

不是省了多少 token,也不是效率提升了多少。

是有一天我去問 Lala(Bot名字)說,我們上週對 IBKR 的 trading bot 做了什麼重要的決定,那它不只答出來了,而且還告訴我是哪 一天,然後在哪段對話裡面決定的,然後還附上檔案路

徑,讓我自己去看,那一刻我才真的覺得這不只是工具,而是一個真 正記得我的夥伴 所以最後很快 go through 一下這整個 Openclaw 的記憶的迴圈系統,你平常的所有的任何的對話,會透過

micro sync 每三個小時去把裡面最重要的決策抓取出來,做及時的 捕捉,把精華放到每天的記憶的檔案裡面,然後晚 上的時候做一天一次的 daily wrap up 來做全面的回溯,那它會存

到 second brain 裡面的 summaries 的資料夾裡面,那它是一個結構化 的日誌,那這兩者共同的就是都可以透過 memory search 來隨時查到,那 memory search 就類似如果你聽過 RAG,也就是它可以

結合語義檢索,再加上關鍵字檢索,兩者融合,所以會 大幅提升查詢的準確度。

那當然它也會幫你把所有的資料先在背後去做索引的動作,這類 似 RAG 裡面去做資料的向量化,好,那最後再透過每週一次的 weekly compound,那它的功能就是會去對記憶做減脂,然後

做知識的蒸餾,決定哪些記憶要搬出去,哪些記憶要放進 memory 裡面。

所以最後它就會去決定 memory.md 裡面該放哪些

記憶進去 好,那有了這個三層的記憶架構之後,也有了自動更新的機制。

那最後一個問題就是 AI 怎麼樣從這些記憶裡面找到他要的 東西?因為如果每次對話都要把所有記憶全部都塞進去,那 token

東西?因為如果每次對話都要把所有記憶全部都塞進去,那 token 一定會爆掉。

那如果不塞, AI 又不記得你之前做過什麼,這個時候 memory search 就是要 解決這個問題。

好,那 memory search 到底是什麼?

它就是 Openclaw 裡面內建的功能,只是很多人不知道要開 啟它,它能夠幫助你,在 AI 回答你的問題之前,先用語義 檢索去檢視你所有的記憶的檔案,然後找到相關的 片段之後再給你答案。

這個過程就很像 RAG。那我這邊就來做一下 demo,我先 new 一 個 sessions,然後我來問它說,我們當初是如何決定 IBKR Trading Bot 的策略選擇?

就是什麼時候要使用 credit spread,什麼時候要使用 debit spread。那這邊需要

稍微等待一下,大約二三十秒 那剛剛大概等了十幾秒鐘的 時間,那這邊它其實已經找到了,它這邊又就有講說 Bla bla bla bla...

是怎麼制定的,然後最後它有回覆說它是從 memory, 有沒有,就是透過 micro sync,有沒有,每天整理一個檔案在 memory 裡面,然後又有從這個 second brain 裡面也有看到 類似的內容。

OK,那我們再來問一下其他的問題好,你還記得當初我 跟你說過,額幾個月前,我開始不太去做 n8n 方面的 額 YouTube 的內容,原因是什麼?

好,那如果你用過 RAG 的話,你就會知道,它在做向量檢索的時候是需 要一定的時間,好通常是沒有辦法在五秒十秒之內得到答案 大概都是需要二三十秒的時間,好,不過這個速度我覺得已經蠻快,大概 就十幾、二十秒,就回來了。

好,所以這邊它有提到過,這個東西最早是一月二十六的時候就有提 到,然後這件事情也有存在 memory.md 裡面,好,所

到,然後這件事情也有存在 memory.md 裡面,好,所 以它很準確地把這些內容拉回來。

好,那我們來問最後一個問題,好,這個是我之前 Vibe Coding 做的一個自動 剪片的工具,好那我其實是寫了更技術,就是把 這個很 detail 的內容其實都寫進去了。

好,那它有提到,好,但它比較特別的是,這一個東西,其實是我 每天的排程,如果你有看之前的影片它是 Proactive Coder,那它的功能就是會 提供,額強化的功能建議給我,或者是它會主動地去幫

我修改一些 bug。那像這個問題呢,就是它當初自己發現的一個 bug,

我修改一些 bug。那像這個問題呢,就是它當初自己發現的一個 bug, 所以你會看到它搜尋的東西是來自於這個 second brain 裡面,好 devlogs, 那 devlogs 這個內容其實就是 Proactive Coder,它每天執 行完之後存下來的記錄都會在這裡。

好,所以你會看到有 overnight 的 sprint 是,額另外一個類似的排程,然 後 Proactive Coder 就在這邊。

好,那這裡會完整記憶一下是哪一個專案,然後它改了什麼,那為什麼要這樣 子改。所以你會看到有 IBKR 的 portfolio dashboard、 easy todo 的,然後會有 YTGoleMiner

子改。所以你會看到有 IBKR 的 portfolio dashboard、 easy todo 的,然後會有 YTGoleMiner 等等,這是個個不同的專案 所以你會看到 second brain 裡面的內容,它也可以搜尋到,好,所以它就有講說不是

我們討論的,而是我在 second brain 裡面的 devlog 裡 面查到,所以你會看到它的位置是 devlogs,然後其他天其實也 有提到類似的問題。

好,所以這邊剛剛用了三個方式來做 demo,好兩個是我確實 有跟 Openclaw 討論過這件事情,然後最後一個這個 是,它是從 second brain 裡面的,額檔案來找到相關我要的

內容。所以你這邊可以看到,它是很精確地去找到我要的東西,然後不

內容。所以你這邊可以看到,它是很精確地去找到我要的東西,然後不 是 AI 自己胡謅亂講的,它是真的去爬了我 的記憶庫。

所以以前我在問它這種問題的時候,它只會說我不知道,或者是我沒有這方面的記憶, 但現在完全不一樣了 好,那要讓這個功能可以 work 呢,你就是要去 改你 Openclaw 的 config,那重要的是把 memory search 的 enable 開起

來。然後這邊要講一下說,使用 memory search 有兩種方式,一種是

來。然後這邊要講一下說,使用 memory search 有兩種方式,一種是 用內建的,叫做 built-in,另外一種是 qmd,那它們兩者 主要的差別就是 qmd 的 embedding model 是用你本地的,

那這個比較適用於你是架設在你自己的電腦,或者是像 Mac mini 比較適合。

那如果說你是架設在 VPS 上面的話,因為 VPS 通常是沒有 GPU 的除非你特別租用有 GPU 的,的 VPS,那如果是這種狀況的話,就 適合去用 cloud embedding model。好像我這邊用的是 openrouter,

那 openrouter 最方便的地方就是它幾乎可以使用所有你知道的各 個 model。那這邊你可能會好奇說這個 provide 為什麼是 OpenAI?事實上呢,並

個 model。那這邊你可能會好奇說這個 provide 為什麼是 OpenAI?事實上呢,並

不是真的用 OpenAI 去做,而是它是利用 OpenAI 的一 種標準。

像這邊有提到,它的 API 的格式跟 OpenAI 相容 所以你可以把它想 象成是一個標準,然後透過這個同樣的標準的這個介面去 呼叫, openrouter 上面的 model。那如果你是中英文混雜的話,我會

蠻推薦去使用 QWEN,這個,如果沒記錯的話,它應該是阿里巴巴 的 model。好,那設定完之後會需要一點時間去做資料的

的 model。好,那設定完之後會需要一點時間去做資料的 索引,好,所以必須等一下。

不過這個過程是全自動的,但是要把 memory search 做好,其實有相當多的細 節,包括你是要用 built-in 還是 qmd 的,那 hybrid search 要怎麼調,然後其實還 有蠻多引數是需要你去琢磨的。

那這些進階的設定呢,我在 AI 效率革命聯盟裡面,有寫了一篇非常完 整的教學內容,涵蓋了從基礎到進階的所有細 節,所以如果你對這個部分感興趣的話,加入社群的連結我就放在資訊

欄。好,那做完這整套系統之後,你會感受到的改變,是

欄。好,那做完這整套系統之後,你會感受到的改變,是 很強烈的,你不再需要跟 AI 解釋我們之前討論到哪裡,你不會在第二天打 開對話的時候發現什麼東西都忘了,它會記得你的決策,你的偏好,你上週

交代的事情,而且你可以驗證,因為它會告訴你是從哪裡找到的,那記憶也 不會無限地膨脹,token 不再亂燒,重要的事情不會被落下 冷門的事情也都找得到 這不是什麼黑科技,它就是檔案管理,加上排

程,再加上 memory search。但組合在一起,AI 就可以從陌生人變成你的長期

夥伴。如果你對於這個三層式的記憶迴圈系統感興趣的話,我到時候

會把相關的 prompt 或者是模板,還有 memory search 的設定跟最佳化的方式都放 在 AI 效率革命聯盟裡面。

如果你想要大幅提升你的 Openclaw 進階應用的能力,這些資源都放在 社群當中,加入連結放在資訊欄。

假如今天這部影片對你有幫助,記得按讚、訂閱並分享。

我還會持續更新 Openclaw 的系列,那訂閱之後你就不會錯過最新 的內容囉!那我們下次影片再見, bye bye

的內容囉!那我們下次影片再見, bye bye

Loading...

Loading video analysis...