Humanity Protocol 實驗揭示 AI 如何繞過 KYC 並利用數字信任

簡要摘要

Humanity Protocol的受控實驗顯示,人工智慧(AI)可以創建令人信服的假冒個人資料,以繞過身份驗證,暴露傳統KYC系統的關鍵弱點,並突顯線上AI驅動詐騙日益增加的風險。

Humanity Protocol實驗揭示AI如何繞過KYC並利用數位信任

專注於開發互聯網信任層的科技新創公司Humanity Protocol,最近進行了一項受控社會實驗,探討如何利用AI創建高度逼真的假冒個人資料,繞過主要約會平台的身份驗證,並大規模與真實用戶互動。

結果凸顯了在生成式AI盛行的時代,傳統了解你的客戶(KYC)系統的有效性令人擔憂,以及這些漏洞可能被惡意行為者利用的潛在風險。

該實驗持續了兩個月,從2025年10月到12月,涉及Humanity Protocol的六名成員。團隊使用包括Reve AI、ChatGPT、Nanobanana和Midjourney在內的公開AI工具,生成了四個不同的Tinder個人資料,並配有照片和個人簡介。

為了保持活動的真實性,團隊使用了TinderGPT,一個在GitHub上的開源工具,使這些個人資料能夠在約會應用上同時管理超過100個與真實用戶的對話。儘管這些帳號是在葡萄牙、西班牙、塞爾維亞、印尼和泰國等多個國家創建的,但所有帳號都使用Tinder Gold將位置設置為葡萄牙。在實驗期間,這些AI生成的帳號與296名真實Tinder用戶互動,成功說服40人安排面見。

實驗在葡萄牙里斯本的一家餐廳倫理結束,所有參與者在抵達時都被告知情況,並由新創公司請客吃晚餐。實驗設計確保未造成任何財務、情感或身體傷害,並明確表示目的在於揭露系統性弱點,而非利用它們。

“這不是為了取笑人們,”Humanity Protocol創始人郭志豪在書面聲明中表示。“這是為了壓力測試我們所依賴的系統,並展示在AI參與下,信任是多麼容易被製造出來。如果一個小團隊能做出這樣的實驗,想像一下有組織的惡意行為者在有惡意意圖時能達成的事情,”他補充說。

KYC系統,提升線上安全與防詐騙的風險

這些發現凸顯了數位平台面臨的更廣泛挑戰:傳統的KYC規範是在生成式AI出現之前設計的,已經越來越不充分。像照片驗證、基本的活體檢測和文件上傳等標準驗證措施,難以跟上能產生超逼真圖像、聲音和行為,並令人信服模仿人類用戶的AI工具。

雖然對約會平台的直接影響可能僅限於浪費時間或情感操控,但在金融和安全領域,風險則高得多。根據美國聯邦貿易委員會(FTC)的數據,2022年,美國人因戀愛詐騙損失超過13億美元,成為最昂貴的消費者詐騙類別。隨著AI技術的不斷進步,善意實驗與大規模詐騙之間的界線正迅速縮小。如果沒有能適應生成式AI並驗證人類身份的KYC框架,線上平台將面臨成為下一代AI驅動剝削的主要目標的風險。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)