Vitalik Buterin就人工智能提出了一个新的警告,这一次把重点放得更少在炒作上,而更多在隐私上。 在一篇新的博客文章中,这位以太坊联合创始人认为,许多AI工具建立在可访问敏感用户数据的远程基础设施之上;当大多数人在使用聊天机器人输入内容、委派任务或连接外部服务时,并不能完全看清其中的风险。他所描述的担忧并不局限于某一个模型或某一款应用;它具有结构性。 远程AI基础设施会带来更广的隐私面 Buterin的观点相当直接。越来越多的AI产品依赖位于用户设备之外、且不受用户控制的基础设施。这意味着提示词、文件、账户详情以及使用模式,都可能在通过那些可能以用户从未打算的方式存储、处理或复用数据的系统。 他警告说,这个问题不会在大型语言模型处就止步。与这些系统相关联的外部服务也可能引入自身的漏洞,从简单的数据泄露到未经授权地使用个人信息。换句话说,危险不只是模型本身;而是其周围的整条链路。 这很关键,因为AI正越来越多地作为“助理层”被应用于金融、软件、通信以及在线身份。它越有用,就越倾向于吸收更多私密的上下文信息。 越狱攻击把AI从助手变成负担 Buterin还将越狱攻击指出为一种特定威胁。这类攻击使用外部输入来操纵模型,使其以违背用户利益的方式行事;从而在本质上把一个助手变成更不可靠、且可能有害的东西。 这一警告之所以落在此时,是因为AI工具正在更接近执行层面,而不只是对话。当这些系统获得对消息、钱包、文档以及自动化操作的访问权限时,隐私方面的失误也可能迅速演变为运行层面的失误。 Buterin在这里真正强调的是风险的转变。AI不再只是能力的问题;它正在变成一个关于信任边界的问题:数据由谁控制、模型在哪里运行,以及当这一边界失效时会发生什么。