將 OpenClaw 加進 Ray-Ban Meta 智能眼鏡 提升日常任務處理速度

rayban2

由科羅拉多大學、光州科學技術院及 Google 團隊共同開發的 VisionClaw 系統,將隨時啟用的 AI 代理功能整合至 Ray-Ban Meta 智能眼鏡中。該研究旨在探索當 AI 具備持續感知能力,並能自主執行數位任務時,如何縮短數位與現實世界的鴻溝,並改變人們的日常互動模式。VisionClaw 透過特製的智能手機 App,將 Ray-Ban Meta 智能眼鏡連接至 Gemini Live 與 OpenClaw。眼鏡持續串流用戶周遭的音訊與影像,由 Gemini 處理多模態輸入後,可直接語音回覆或透過 OpenClaw 啟動瀏覽器、電子郵件、行事曆等工具執行任務,最終將結果回傳給語言模型。

VisionClaw 實測提升任務效率

研究團隊進行了兩項試驗。第一項研究招募 12 名參與者,將 VisionClaw 與兩套簡化系統進行比較。結果顯示,VisionClaw 完成任務的速度加快了 13% 至 37%(視任務而定),且使用者普遍感覺負擔減輕了 7% 至 46%。無論是心理負擔、時間壓力或挫折感均有所下降。儘管整體成功率相似,但在抄寫筆記等需精確捕捉細小物件的任務中,VisionClaw 的成功率降至約 58%,主要是因為智能眼鏡的相機無法穩定辨識某些視覺上具挑戰性的實體物件。研究人員指出,整合感知與執行功能確實能加速任務完成並減少互動成本。

情境感知互動新模式

第二項「自傳式」實地研究由四位論文作者親自使用 VisionClaw 達 55 個活躍日,記錄了 555 次語音互動,總計 25.8 小時的使用時間。研究發現,VisionClaw 主要用於資訊檢索(佔 30%)、購物(佔 19%)、內容儲存(佔 16%)、通訊(佔 14%)、記憶輔助(佔 12%)及設備控制(佔 9%)。這項研究揭示了四種新興互動模式:與 AI 代理進行開放式、多步驟的對話;即時捕捉資訊並於事後回想;以及更加隱蔽但有時可靠性較低的無螢幕 AI 使用。隨著時間推移,系統累積更多個人數據後,其效用也隨之增強。總體而言,這項研究指出人機互動正從單一語音指令轉變為持續性、情境驅動的協作。

面臨隱私挑戰

儘管 VisionClaw 展現出開創性的人機互動模式,其未來發展仍面臨挑戰。其中包含持續錄音所帶來的隱私風險、大量個人數據的處理問題,以及如何設計既實用又不易察覺的系統。技術層面而言,研究中使用的 Ray-Ban Meta 並無內建螢幕,而 Meta 實際上已發售帶有螢幕的型號,未來整合螢幕或能大幅提升 AI 的使用體驗。然而,這項研究也存在方法學上的局限,例如樣本數較小(首項研究僅 12 人,第二項僅 4 人),且實地研究由系統開發者親自進行,可能存在偏誤。此外,由於 Google 曾表示計劃於 2026 年發佈基於 Android XR 和 Gemini 的 AI 眼鏡,這項研究的客觀性也需加以考慮。VisionClaw 專案本身已在 GitHub 上開源。

與 智能眼鏡 相關的圖片

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookThreads