Jangan lihat saya - ForkLog: cryptocurrency, AI, singularitas, masa depan

img-b3324e1a267cbfea-7852159350685838# 不要看我

在大都市中,普通的監控攝像頭早已被配備人工智慧的整套系統取代。不論是令人欣慰還是遺憾,許多我們曾在反烏托邦小說中讀到的情節,現實中正逐步成為事實。

克希斯托夫·什皮克分析了大城市街道上監控系統的運作方式,以及為何各國政府急於推廣這些系統。

Flock警察

2025年9月,丹佛克里桑娜·埃爾澤的家門口站著一名警察,手持傳票。她被指控偷取鄰近城市的包裹。

證據來自商業公司Flock Safety的自動監控系統數據,顯示埃爾澤的車輛。然而,警察拒絕與嫌疑人分享這些細節,並建議她將所有異議提交法院。

「你知道我們在那個城市有攝像頭。哪怕一口新鮮空氣,也不會在我們不知情的情況下飄過去,」— 警察解釋。

相信自己清白的埃爾澤開始收集證據。案發當天,她確實在附近——拜訪裁縫,但並未偷取任何包裹。

她從手機和汽車的GPS追蹤器、行車記錄器、口頭證詞,甚至當天穿著的衣服照片中收集資料。

經過多次徒勞的嘗試未能將信息傳達給當局後,嫌疑人直接寫信給警察局長。對方稱讚她的努力,並通知她傳票已被取消。

截至2025年12月,Flock Safety已提供對美國49個州的8萬個攝像頭的存取。

從貨車監視器到犯罪預測

街道、商店和機構的監控攝像頭已經是司空見慣的事。然而,現代智能攝像頭和數據處理技術,與傳統設備相比,已經大為不同。

模擬時代的閉路電視(CCTV)

曾幾何時,所謂的閉路電視(CCTV)系統指的是一個封閉的攝像頭網絡,信號傳送到幾個監視器前,供無聊的商場保安觀看。

技術上,僅限於視頻感應器、顯示屏和錄像設備。

自20世紀中葉起,安全部門就開始試驗監控系統。

1960年,英國警方在特拉法加廣場測試了兩台監控攝像頭,當時正值泰國國王和王后訪問。監視器被安置在一輛貨車內,靠近安裝位置。這次經驗揭示了多個技術問題,也引發了不同反應。

1979年,英國政府的Police Scientific Development Branch開發了基於光學字符識別(OCR)技術的ANPR系統。

到1990年代,十字路口和建築外牆的攝像頭已成常態。執法部門將CCTV和ANPR納入日常工具。

智能攝像頭

隨著計算機元件的微型化、普及的“連接性”以及人工智慧的出現,傳統CCTV逐漸被具有集中數據庫和自動分析系統的智能攝像頭取代。

這些設備配備自己的處理器、操作系統、存儲空間和本地及網絡接口,有時還配備麥克風進行音頻錄製。

配備ANPR功能的Flock Safety攝像頭。來源:Wikimedia

部分廠商在設備中集成AI加速器和NPU(神經處理單元)模塊,用於實時數據處理。其他則依賴外部硬件進行AI分析。

這些系統能識別物體、辨識車牌和人臉,並保存所見內容的摘要。功能範圍取決於軟件配置和供應商偏好。

背後的“超大腦”

智能攝像頭本身能辨識物體並記錄其識別碼——車牌號、臉孔或步態特徵。分析中心會收集這些數據,與其他來源的信息融合,並向操作員提供結論。

Flock Safety提供類似的系統,名為Nova——“公共安全數據平台”,不僅存取監控錄像,還包括數據洩露、數據經紀商資料庫和其他商業來源的信息。

此類系統建立了行動軌跡、偏好、瀏覽歷史、習慣、警方記錄及其他資料的檔案。

配備如此龐大資料的AI能推測人們的行為,並向操作員預警可疑情況。這一功能已向Flock的客戶開放。

公司聲稱,Nova能讓執法部門“一鍵結案”。

批評者則認為,這是繞過獲取搜查令的手段,也是大規模侵犯隱私的土壤。

彩色髮型與代碼注入

許多人對大規模監控漠不關心。對他們來說,這只是幫助破案和預防犯罪的工具。然而,也有人對個人自由的界限保持警惕。

智能攝像頭與希望保持私隱的群體之間的對抗,展開於多個層面。

除了國家層面的法律抗爭,愛好者還運用偽裝藝術和傳統破解技術。

釣魚(Spoofing)

對這些設備最具趣味的攻擊方式之一,是“釣魚”或“展示攻擊”。這類方法涉及操控攝像頭捕捉的圖像。

包括面具、反射器、特殊紋理等手段,用以“破壞”圖像,阻礙系統正確識別或辨認物體。

2016年,設計師斯科特·厄班的Reflectacles項目推出了一款反射眼鏡,能將紅外光反射回監控攝像頭,讓人臉圖像被過曝。

監控攝像頭上的Reflectacles視頻。來源:Kickstarter

這種“暴力破解”技術不會給單一攝像頭留下分析數據,但在多角度監控下效果有限。

柏林的研究員兼藝術家亞當·哈維開發了一系列CV Dazzle方案,用於對抗臉部識別系統。

2010年代的典型做法是非對稱髮型和化妝元素,旨在欺騙當時流行的Viola-Jones臉部識別算法。該算法通過分析眼下陰影、鼻子、對稱性和鼻樑位置來辨識臉孔。

藝術家採用不對稱的陰影配置和與膚色對比的色彩,來迷惑系統。

CV Dazzle Look 5。來源:Adam.harvey.studio

隨著臉部識別AI系統的出現,過去的方法逐漸過時。2020年,哈維提出了更新的化妝方案。

CV Dazzle Look 6和7。來源:Adam.harvey.studio。作者強調,展示的是技術而非固定圖案,最佳方案取決於監控條件。

類似的方法也適用於車牌識別系統。美國愛好者本·喬丹描述了創建“敵對”紋理以干擾ANPR的技術。

利用開源識別模型,喬丹訓練神經網絡生成視覺噪聲,將其覆蓋在車牌上,使模型讀取錯誤字符或完全無法識別。

視覺干擾方法的問題在於可靠性不足。其效果受條件和攝像頭數量影響較大。同時,監控系統供應商也在擴展識別特徵,如步態、車輛顏色及外觀修改。

研究人員仍在尋找繞過高級模型的方法,但對智能攝像頭系統的更大威脅,來自黑客攻擊。

裝置破解與網絡攻擊

與任何連網電腦一樣,無論是否配備AI,智能攝像頭及其伺服器架構都可能成為黑客攻擊的目標。

這些系統在運行中已被發現多種漏洞。

2021年,Hikvision監控攝像頭的代碼中發現了注入攻擊漏洞。安全漏洞允許攻擊者完全控制設備,安裝軟件,甚至訪問網絡中的其他攝像頭。

2023年,Axis公司智能攝像頭的操作系統中發現可在安裝ACAP應用時執行任意命令的漏洞。

2025年,Dahua的監控系統中發現兩個漏洞,涉及遠程命令執行和緩衝區溢出,攻擊者可獲得完全控制權。

另一個攻擊途徑是直接操作設備,這些設備常設置在公共場所。攻擊者可利用維護接口,存取本地存儲或篡改設備。

為防範此類攻擊,廠商採用數據加密、硬件驗證和數字簽名等措施。

經過安全加固的設備,不能輕易“重新刷機”或下載可用數據,但仍有疏漏。

2025年,404 Media報導,至少有60台Flock Safety的Condor AI攝像頭因追蹤功能未加密,存在未授權存取風險。

資安專家約翰·蓋恩斯和前述喬丹利用Shodan搜索引擎找到這些設備的IP地址,發現可以不用帳號密碼直接連接。

任何人都能觀看實時直播、下載過去30天的資料、修改設置或查看系統日誌。

供應商解釋此事件為“設定錯誤,影響少數設備”,並已修復問題。

同樣的,另一款Flock攝像頭提供開放WiFi點,只需按下機身按鈕即可獲得完全控制權。

蓋恩斯發布了包含55個點的詳細漏洞分析文件。

官方回應稱,這些問題早已知曉,潛在黑客主要依賴直接存取設備和“深入了解硬件內部”。

供應商強調,所有必要的更新都由廠商自動推送,無需用戶干預,系統安全有保障。

對抗“部分勝任”的系統

自動監控系統,尤其是結合AI的系統,已成為執法部門的重要工具。

廠商向客戶保證其解決方案的能力——嫌疑車輛、行動軌跡、地址一目了然,案件可一鍵結案。

人們很容易習慣這種便利。過度依賴自動化數據,成為一種認知偏誤。

AI自動化遵循相同原則:許多用戶傾向相信ChatGPT的回答是正確的,忽略潛在矛盾。在日常生活中,這可能扭曲用戶的認知,甚至引發精神障礙。

即使在完美工程設計和經過授權操作員嚴格監控的情況下,帶有AI分析的監控系統仍可能帶來危害。

2025年,美國當局展開調查,懷疑Flock Safety技術被用於非法監控。有人指控警方利用追蹤系統追蹤移民,監視跨州女性尋求墮胎的行動。

在這種情況下,系統運行正常,沒有被破解或篡改視頻。

不斷改進而非破壞

CCTV系統已經普及多年。結合AI的監控系統,已成為新常態。

即使是最具迷惑性的面具或完全遮擋的車牌,也無法在數據全面收集的情況下保障私隱。

像任何強大工具一樣,AI監控系統需要規範,以防止濫用和供應商的疏忽,保障安全。

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan