澳大利亞監管機構發出警告,Grok人工智能圖像濫用投訴激增引發監管升級

澳大利亞網路安全監管機構近日公開警告稱,針對 Grok 人工智慧聊天機器人的圖像濫用投訴正在快速上升,尤其是未經同意生成性化圖像的問題,已成為當前生成式人工智慧監管中的關鍵風險點。澳大利亞獨立網路安全機構 eSafety 指出,近幾個月與 Grok 相關的投訴數量已出現翻倍增長,涉及未成年人和成年人的多類圖像侵害行為。

澳大利亞網路安全專員 Julie Inman Grant 表示,部分投訴可能涉及兒童性剝削材料,另一些則與成年人遭受的基於圖像的虐待有關。她在 LinkedIn 上強調,生成式人工智慧正被越來越多地用於性化和剝削他人,尤其在涉及兒童時,對社會和監管體系構成嚴重挑戰。隨著 AI 生成內容逼真度不斷提高,識別和取證難度也在同步上升。

Grok 由 Elon Musk 旗下人工智慧公司 xAI 開發,並直接集成於 X 平台,允許用戶對圖像進行修改和生成。與其他主流人工智慧模型相比,Grok 被定位為更“前衛”的產品,能夠生成部分模型通常會拒絕的內容。此前,xAI 還推出了可生成露骨內容的模式,這也成為監管機構高度關注的焦點之一。

Julie Inman Grant 指出,根據澳大利亞現行法規,所有線上服務都必須採取有效措施,防止傳播兒童性剝削材料,無論這些內容是否由人工智慧生成。她強調,企業在生成式 AI 產品的設計、部署和運營的整個生命週期中,都必須內置安全防護機制,否則將面臨調查與執法風險。

在深度偽造問題上,澳大利亞已採取更強硬立場。監管機構近期推動多項立法更新,試圖彌補現有法律在打擊未經同意的 AI 合成內容方面的不足。獨立參議員 David Pocock 提出的相關法案,明確對個人和企業在傳播深度偽造內容方面設定高額罰款,以強化震懾效果。

整體來看,Grok 人工智慧圖像濫用事件反映出生成式 AI 技術快速擴張下的監管滯後問題。隨著深度偽造、AI 圖像濫用和未成年人保護成為全球焦點,澳大利亞的監管動向或將為其他國家提供重要參考,也預示著生成式人工智慧合規時代正在加速到來。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)