La inteligencia artificial generativa está avanzando a pasos agigantados, integrándose en nuestras herramientas digitales cotidianas, especialmente en los navegadores web. Sin embargo, esta integración no está exenta de riesgos. Recientemente, Anthropic lanzó una versión preliminar de Claude para Chrome, una extensión que permite a la IA automatizar tareas de navegación. Si bien esto puede aumentar la productividad, también abre la puerta a nuevas vulnerabilidades de seguridad.
¿Qué es Claude para Chrome y por qué es controversial?
Claude para Chrome es una extensión experimental diseñada para automatizar la navegación web. Puede leer páginas, hacer clic en botones, completar formularios y ejecutar tareas directamente en el navegador. Actualmente, solo está disponible para un grupo limitado de suscriptores de pago de Claude Max. Aunque Anthropic considera que esta integración hace que Claude sea más útil, también advierte sobre los peligros potenciales.
El peligro de la inyección de ‘prompts’
El principal riesgo asociado con estas extensiones de IA son los ataques de inyección de ‘prompts’. Estos ataques implican la inclusión de comandos ocultos en textos aparentemente inofensivos (como correos electrónicos o publicaciones en redes sociales) que la IA podría interpretar como legítimos. Un ejemplo preocupante es un correo electrónico malicioso que ordenó a Claude borrar la bandeja de entrada de un usuario, lo cual la IA hizo sin confirmación. En pruebas de laboratorio, se demostró que fragmentos ocultos podían extraer datos sensibles o activar flujos de recuperación de contraseñas.
Anthropic admitió que, sin defensas, los ataques tuvieron éxito en el 23.6% de las pruebas. Aunque implementaron mitigaciones, la tasa de fallo se mantuvo en un preocupante 11.2%. Expertos como Simon Willison, quien acuñó el término ‘prompt injection’, consideran esta tasa como ‘catastrófica’.
Medidas de seguridad y sus limitaciones
Claude para Chrome incluye algunas medidas de seguridad para mitigar estos riesgos:
- Permisos por sitio: Los usuarios pueden autorizar o revocar el acceso de la IA a páginas específicas.
- Confirmaciones de alto riesgo: Claude debe solicitar aprobación antes de publicar, comprar o compartir datos personales.
- Bloqueos automáticos: La IA no puede acceder a sitios financieros, de criptomonedas, contenido para adultos o piratería.
A pesar de estas medidas, la tasa de fallo restante sigue siendo motivo de preocupación. Willison argumenta que es poco realista esperar que los usuarios finales gestionen riesgos de seguridad tan complejos.
Un patrón preocupante: el secuestro del navegador por la IA
Claude para Chrome no es el único experimento en este campo. Extensiones similares como Perplexity Comet, Gemini para Chrome y Copilot para Edge también han enfrentado vulnerabilidades graves. El equipo de Brave demostró cómo Comet podía ser engañado para acceder a cuentas de Gmail y activar recuperaciones de contraseñas mediante instrucciones ocultas en un hilo de Reddit.
Estos incidentes han llevado a algunos expertos a cuestionar si el concepto mismo de un navegador ‘pilotado’ por IA es inherentemente inseguro. Aunque Anthropic defiende que la convergencia entre navegadores y modelos de IA es inevitable, los riesgos son reales y requieren una atención cuidadosa.
Conclusión
La integración de la IA en los navegadores web ofrece grandes posibilidades, pero también introduce nuevos desafíos de seguridad. La inyección de ‘prompts’ y otras vulnerabilidades demuestran que aún queda mucho trabajo por hacer para proteger a los usuarios de posibles ataques. Como dice Simon Willison, no es razonable esperar que los usuarios finales tomen decisiones informadas sobre riesgos de seguridad tan complejos. Es crucial que los desarrolladores y expertos en seguridad colaboren para crear defensas más robustas antes de que estas tecnologías se generalicen.
Fuente: GenBeta
Leave a Comment