天天看點

幾秒完成人肉搜尋,Meta将智能眼鏡與人臉搜尋結合引發隐私擔憂

前不久,Meta 舉行了年度開發者大會(Meta Connect 2024)。

在 AI 的加持下,虛拟現實(VR,Virtual Reality)頭顯 Quest 3S 和增強現實(AR,Augmented Reality)眼鏡 Orion 格外引人注目。

Meta 還在大會上宣布了對現有雷朋智能眼鏡(Ray Bans)的更新,使其獲得了更多的 AI 功能。

這款智能眼鏡是 AI 領域最暢銷消費級硬體産品之一,預計今年的出貨量将超過 200 萬台。

不過,圍繞Meta 和這款智能眼鏡的隐私讨論一直存在:一方面是裝置可能被濫用的安全隐患,另一方面則是資料使用的透明度問題。

最近,美國哈佛大學兩名學生安福·阮(AnhPhu Nguyen)和凱恩·阿達菲奧(Caine Ardayfio)進行了一項技術實驗。

他們成功地将 Meta 雷朋智能眼鏡與人臉搜尋引擎 PimEyes 結合,開發出了一款名為 I-XRAY 的系統。

幾秒完成人肉搜尋,Meta将智能眼鏡與人臉搜尋結合引發隐私擔憂

圖 | I-XRAY 的介紹(來源:資料圖)

這個系統能夠僅通過觀察(捕捉人臉)就擷取陌生人的個人資訊,包括姓名、位址和電話号碼等隐私資料。

通過結合大模型的強大功能,該系統能夠在幾秒鐘内完成對目标人物的資訊收集和整合,這在過去可能需要耗費大量時間才能完成。

他們選擇了Meta 在 2023 年釋出的第二代智能眼鏡作為實驗裝置,原因也很簡單,即這款眼鏡與普通眼鏡外觀幾乎沒有差別。

此外,他們還在實驗過程中遮蓋了眼鏡錄制時會自動亮起的訓示燈,是以資料采集更加隐蔽,旁人難以發現。

在地鐵站進行的實地測試中,他們成功識别了數十位路人的身份資訊,并能夠利用擷取的資訊假裝是目标人物的熟人,來與其互動。

這種行為引發了人們對隐私洩露和個人安全的擔憂。

安福在社交平台 X 上表示,為了防止任何人被人肉搜尋或技術被濫用,他們選擇不公布代碼。

但他們在一份谷歌文檔中概述了工作原理,以及測試對象(随機路人)發現自己的隐私資訊如此輕易地被挖掘出來後的震驚。

兩位哈佛學生還強調,他們公開這項研究的主要目的是提高人們對隐私保護的認識。

他們還給出了從 PimEyes 等反向人臉搜尋引擎中删除個人資訊的詳細指南,以及從 FastPeopleSearch、CheckThem 和 Instant Checkmate 等人物搜尋資料庫中移除個人資料的具體方法。

與此同時,Meta 在 AI 訓練資料的使用政策也引發了争議。

據Meta 政策傳播經理埃米爾·瓦茲奎茲(Emil Vazquez)透露,任何經過 Meta AI 分析的圖像都可能被用于 AI 訓練。

這一政策的影響範圍極其廣泛,因為它不僅包括使用者主動分享的内容,還包括通過智能眼鏡的 AI 功能進行分析的所有圖像和視訊。

更令人擔憂的是,Meta 最近推出的實時視訊分析功能,會持續将圖像傳輸給 AI 模型。

該公司在今年的開發者大會上展示了這項新功能,使用者可以通過它來分析衣櫥内容并擷取穿搭建議。

然而,該公司并未在推廣時明确指出這些資料會被用于模型訓練。這種資訊不對等的狀況,引發了使用者對資料使用透明度的質疑。

幾秒完成人肉搜尋,Meta将智能眼鏡與人臉搜尋結合引發隐私擔憂

(來源:Meta)

Meta的資料保護曆史,導緻人們難以對其保持信任。

該公司此前因在 Facebook 上使用面部識别技術而陷入法律糾紛,最終以支付 14 億美元和解金收場。

值得注意的是,Meta 的隐私政策還規定,公司預設會儲存所有通過 Ray-Ban Meta 進行的語音對話記錄,用于訓練未來的 AI 模型。

雖然使用者可以選擇退出語音錄音的訓練用途,但這種預設加入的機制本身就值得商榷。

在歐盟,由于《通用資料保護條例》的存在,收集面部識别資料通常需要獲得當事人的同意,這在某種程度上限制了類似 I-XRAY 的技術。

但是在美國,由于缺乏統一的隐私保護法案,這類技術很容易被不法分子利用。

業内人士特别提到,Clearview AI 等公司正在開發類似的面部識别智能眼鏡。此前,該公司曾因隐私違規被罰款 3300 萬美元。

然而,Meta 和 PimEyes 對這些隐私擔憂的回應,似乎有些輕描淡寫。

Meta 對媒體表示,這些風險與個人照片釋出在網上的風險相同,而 PimEyes 則聲稱,他們的服務并不會“識别”個人,隻是提供照片連結。

這一系列事件凸顯了智能裝置、AI 技術與個人隐私保護之間的複雜關系。

在科技快速發展的今天,如何在技術創新與保護個人隐私之間取得平衡,已經成為一個亟待解決的重要課題。無論是科技公司、監管機構還是普通使用者,都需要認真思考這個問題。

而對于普通使用者來說,目前最有效的保護措施是謹慎使用 AI 分析功能,并主動從各類資料庫中删除個人資訊。

參考資料:

https://arstechnica.com/tech-policy/2024/10/harvard-students-make-auto-doxxing-smart-glasses-to-show-need-for-privacy-regs/

https://techcrunch.com/2024/10/02/meta-confirms-it-may-train-its-ai-on-any-image-you-ask-ray-ban-meta-ai-to-analyze/

排版:劉雅坤

繼續閱讀