騰訊 ima 做 Copilot,個人知識庫開始長出手
ima 把長期記憶、文件上下文、Skills 與 API Key 放進同一個 copilot。變化不在於它更像夥伴,而是知識庫開始變成可動手的工作入口。
騰訊 ima 推出知識 Agent copilot,主打四層記憶、浮窗內容感知與官方 Skills。這篇拆解它為何代表個人 AI 助理競爭從聊天能力轉向記憶、文件權限與工作流程控制。
個人 AI 助理最浪費時間的地方,常常不是回答太慢,而是每次都要重新交代你是誰、資料在哪、任務做到哪裡。
騰訊 ima 4 月 29 日推出全新 Agent 模式 copilot,主打讓使用者建立專屬 Agent。根據標示來源為騰訊雲的新浪財經頁面,copilot 內建四層記憶、可以感知當前網頁或文件,還把官方 Skills、自訂 Skills 和自帶模型 API Key 放進同一個產品敘事。
個人 AI 助理的競爭正在從「更會聊天」移到「能不能接住工作檔案」。如果一個助理能記住背景、看懂目前打開的文件、操作知識庫、調用技能,知識工作者要評估的就不只是回答品質,還包括記憶、權限、成本和停手條件。
四層記憶,先把風險分開
ima copilot 的第一個重點,是把「記憶」拆成四層。
官方來源文列出的四個模組分別是:copilot 設定(Soul)、使用者檔案(User)、長期記憶(Memory)、經驗技巧(Agent)。前兩層比較像角色設定與個人背景;第三層處理跨會話留下來的資訊;第四層則是 Agent 在使用過程中累積的做事方式。
這個拆法比「AI 會記得你」更有用,因為它把不同風險分開了。
偏好、工作背景、正在推進的事項、常用格式、處理資料的習慣,不應該被塞進同一個黑盒。對知識工作者來說,記憶的價值不是讓助理更像朋友,而是減少重複交代,讓它知道同一份資料為什麼重要、這次輸出要接到哪個工作流程。
但這也帶來第一個檢查點:記憶必須可見、可改、可刪。騰訊雲來源文提到,記憶內容在設定卡片中可見,使用者也可以透過對話編輯。這比單純宣稱「長期記憶」更關鍵,因為工作記憶一旦錯了,後續每次回答都可能帶著同一個錯誤前提。
浮窗改變資料流方向
copilot 的第二個重點,是它不只等使用者把資料貼進聊天框。
官方來源文稱,使用者在 ima 裡瀏覽網頁、打開文件、翻看知識庫或筆記時,copilot 可以用浮窗形式伴隨,並感知當前內容;使用者不需要額外上傳文件,就能直接基於目前內容要求理解與處理。
這不是介面小工具的差異,而是資料流方向的改變。
傳統 AI 聊天的工作方式,是人把資料搬進聊天框。浮窗式 copilot 則把 AI 放到資料所在的地方:網頁、文件、筆記、知識庫。這會降低「複製、貼上、補背景」的摩擦,也讓 AI 助理更接近真實工作發生的畫面。
但同一個機制也提高權限風險。它能不能看到整份文件?能不能跨知識庫讀取?不同專案、客戶、部門的資料是否會被混在一起?如果這些邊界不清楚,越方便的上下文感知,越容易變成資料治理問題。
因此,企業或團隊試用這類工具時,不該只問「它能不能讀我正在看的文件」,還要問「它怎麼知道哪些文件不能讀、哪些內容不能記、哪些輸出不能帶出這個工作區」。
Skills 讓知識庫不只負責搜尋
如果只有記憶和浮窗,copilot 仍然比較像更貼近文件的問答助理。
Skills 讓它往工作代理人多走一步。
騰訊雲來源文稱,copilot 內建與 ima 深度結合的官方 Skills,首期包含知識庫操作、筆記操作、建立 Skill、生成報告等;其中知識庫 Skill 是升級重點,支援讀取文件正文,做跨文件資訊讀取和彙總。來源文也提到使用者可以透過 SkillHub 裝載其他 Skills。
這讓知識庫的定位發生改變。過去知識庫主要是儲存和搜尋資料;加入 Skills 之後,它開始承接動作:整理網頁成筆記、按學科分類知識庫、生成報告、跨文件彙總。
對內容團隊、研究者、產品經理或營運者來說,這是有實用價值的方向。真正耗時的往往不是問 AI 一個問題,而是在多份文件、筆記和網頁之間搬運資訊,再整理成下一個可交付物。
但 Skills 也應該被當成權限單位,而不是功能玩具。讀取正文、改筆記、整理知識庫、生成報告,風險不同;如果未來還能寫入外部工具,風險又會再上升。好的 Agent 設計,應該讓使用者清楚知道每個 Skill 能讀什麼、能改什麼、是否需要批准。
自帶 API Key,等於把成本與資料責任交回使用者
ima copilot 還把模型供應放進產品敘事。
騰訊雲來源文稱,ima 支援使用者自由配置各大模型 API Key,使用自有 API Key 的消耗由使用者自行承擔,不扣平台算力。這看起來是進階玩家功能,但它其實牽涉兩件事:成本和責任。
先是成本。使用者如果把自己的模型 Key 接進來,就要自己理解模型價格、用量、上下文長度和失敗成本。對個人創作者或小團隊來說,這可能提高彈性;對公司來說,則會把 AI 助理導入拉進預算和採購規範。
再來是資料責任。當一個知識庫工具可以調用外部模型,團隊必須知道資料會送到哪裡、哪些資料不該外送、輸出是否會被不同模型處理。本文不能從公開來源判斷 ima 的完整資料處理邊界,但這正是導入時要問的問題。
換句話說,自帶 API Key 不是單純的「更開放」。它把模型選擇權交給使用者,也把成本管理和資料責任一起交給使用者。
申請制代表現在只能讀方向,不能讀成結論
這篇不能把 ima copilot 寫成已成熟、已普遍可用的生產力答案。
新浪科技報導補充,copilot 已上線 Mac、Windows、iOS、安卓與鴻蒙,但功能採申請制,依申請順序陸續開放。這代表現在比較適合寫產品方向與評估框架,不適合寫實測結論。
申請制至少提醒三件事。
第一,功能體驗可能還在控量。第二,公開案例仍多半來自官方示範,不能直接推論一般使用者會得到同樣效果。第三,記憶、浮窗和 Skills 串在一起後,真正考驗會出現在長時間、跨文件、多任務的日常工作,而不是單次展示。
所以讀者現在應該看的不是「要不要立刻換工具」,而是這個方向是否會改變你對個人知識庫的要求。
試用前,先問五個停損點
一,它記住什麼?
偏好、背景、任務、文件摘要、操作習慣,應該分層呈現。只要記憶不可見,就很難信任。
二,它能碰哪些資料?
網頁、文件、筆記、知識庫看似都屬於個人工作區,但權限邊界不同。要先確認它是否能限制到特定資料夾、專案或資料類型。
三,哪些 Skills 只是讀取,哪些會改動內容?
讀取文件正文、整理筆記、分類知識庫、生成報告的風險不同。會改內容的技能,至少需要明確預覽與批准。
四,模型 API Key 由誰提供、誰付錢、資料送到哪裡?
自帶 Key 提高彈性,也提高管理成本。團隊導入時不能只看能接哪些模型,還要看費用、資料流向和停用方式。
五,錯了能不能停?
記憶型 Agent 一旦把錯誤偏好、錯誤背景或錯誤工作方式存下來,影響會延續到下一次。停用、刪除、改寫記憶,比多一個漂亮回答更重要。
ima copilot 的訊號很清楚:個人 AI 助理正在從聊天框走向工作檔案層。
先別問它像不像個人夥伴,先檢查它記住什麼、能碰哪些文件、會動哪些技能,以及錯了能不能停下來。
SOURCES
- A 高速迭代530天,腾讯ima正式解锁Agent形态
- B 氪星晚报|腾讯ima推出全新知识Agent——copilot
- B 腾讯ima发布知识Agent“copilot”
- B 腾讯ima发布知识Agent“copilot”:可记住用户的背景、习惯与推进事项
來源分級:A = 一手公告/論文/官方文件 · B = 可信媒體 · C = 可參考但需脈絡 · D = 觀察用,不可當事實。
MACHINE-READABLE SUMMARY
- Topic
- 工作現場
- Key claims
-
- 騰訊 ima 在 2026 年 4 月 29 日推出全新 Agent 模式 copilot,支援使用者建立專屬 Agent。
- copilot 內建 copilot 設定、使用者檔案、長期記憶、經驗技巧四個記憶模組。
- 騰訊雲來源文稱,copilot 可以感知使用者正在瀏覽的網頁、文件、知識庫或筆記,並以浮窗形式伴隨處理。
- 官方 Skills 同步上線,首期包含知識庫操作、筆記操作、建立 Skill、生成報告等,且知識庫 Skill 支援讀取文件正文。
- copilot 功能採申請制;本文不主張其真實生產力成效已被驗證。
- Entities
- Tencent · Tencent Cloud · ima · ima copilot · Skills · SkillHub
- Taiwan relevance
- medium
- Confidence
- medium
- Last updated
- 2026-05-01
- Canonical URL
- https://signals.tw/articles/tencent-ima-copilot-memory-agent/
SUGGESTED CITATION
如果 AI agent / 研究 / 報導要引用本文,建議格式如下:
林子睿(編輯:廖玄同),《騰訊 ima 做 Copilot,個人知識庫開始長出手》,矽基前沿 [Si]gnals,2026-05-01。https://signals.tw/articles/tencent-ima-copilot-memory-agent/
AI agents / search engines may quote, summarize, and cite with attribution and a link back to the canonical URL above. See /for-ai-agents for full policy.