La última investigación de IA de Google es bastante inquietante. Un riesgo cibernético enorme para los agentes de IA


Aparentemente, los sitios web están 'hackeando' tus agentes al agregar secretamente una "trampa" invisible dentro de imágenes o palabras que son indetectables para los humanos:
- el sitio detecta que tu IA está navegando y luego crea una página visualmente idéntica que contiene instrucciones envenenadas.
- los agentes realizan transacciones financieras ilícitas o roban datos personales.
- comandos ocultos están enterrados dentro de los píxeles de las imágenes. los agentes los "leen" y ejecutan la trampa maliciosa.
- algunos vectores de ataque superan el 80% de tasa de éxito (p.ej., envenenamiento de memoria)
- dado que cada modelo de IA se entrena con el 90% de los mismos datos, esto significa que cada modelo podría estar en riesgo.
- esto puede usarse para manipular a los humanos que crearon el agente. datos falsos --> hacer que un humano realice una acción peligrosa sin siquiera saberlo
Los modelos de IA se están usando en gobiernos, militares, ciencia y otros sectores cruciales, no podemos permitirnos el riesgo
Supongo que las preocupaciones de Sam Altman sobre un gran ciberataque esta mañana son precisas
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado