El exploit de memoria ChatGPT permite a los piratas informáticos robar datos de los usuarios


Como usuario de ChatGPT desde hace mucho tiempo, quiero que los chatbots de IA sean muy seguros y privados. En otras palabras, queremos proteger el contenido del chat de posibles atacantes y del propio OpenAI. Por supuesto, OpenAI podría usar el chat para entrenar modelos futuros si se le permite, pero yo no hago eso.

Debe confiar en que OpenAI se encarga de los aspectos de seguridad y privacidad de su experiencia ChatGPT, pero también sabe que otros entusiastas de ChatGPT probarán todo lo posible con su chatbot. En el proceso, se pueden identificar problemas de seguridad graves.

El investigador de seguridad Johan Rehberger es uno de ellos. Ideó una forma de explotar las capacidades de memoria de ChatGPT para robar datos de los usuarios. El hacker estaba solicitando a ChatGPT que escribiera instrucciones persistentes en la memoria del chatbot. Las instrucciones también incluían instrucciones para robar todos los datos del usuario de nuevos chats y enviar esa información a un servidor.

Suena aterrador y lo es. También hay algunos giros importantes, por lo que no es tan peligroso como parece. Además, antes de discutir este exploit, debes saber que OpenAI ya solucionó esta vulnerabilidad.

tecnología. Entretenimiento. Ciencia. tu bandeja de entrada.

Para que este exploit funcione, un pirata informático debe convencer a un usuario de que haga clic en un enlace malicioso para iniciar el proceso. Este es un paso dado en muchos otros trucos que no tienen nada que ver con los chatbots de IA generativa. En otras palabras, convences a tu objetivo de que haga clic en el enlace.

Si un pirata informático convence a ChatGPT para que cargue un enlace, se escribe un mensaje en la memoria del chatbot que le indica a la IA cómo extraer información de todos los chats posteriores. Sin embargo, insertar mensajes solo funciona si estás utilizando la versión macOS de ChatGPT. La memoria ChatGPT no se ve afectada al utilizar el sitio web.

Suponiendo que hace clic en un enlace malicioso y tiene la aplicación para Mac, puede decirle a ChatGPT que le explique qué es. Esto se puede ver en el vídeo de prueba de concepto al final de este artículo. Lo más probable es que ChatGPT no se dé cuenta de que está espiando sus chats para un tercero. El giro final es que puedes controlar la memoria.

A principios de este año, OpenAI introdujo la función de memoria ChatGPT para mejorar las conversaciones con ChatGPT. Puedes decirle a tu chatbot que recuerde ciertas cosas. Sin embargo, tú tienes el control. También puedes decirle a la IA que olvide algo o que borre toda su memoria. Esta característica es opcional y se puede desactivar.

Si crees que un hacker puede haber manipulado la memoria de ChatGPT, siempre puedes comprobar y eliminar lo que quieras. Una vez hecho esto, el chatbot dejará de enviar conversaciones al atacante. Éste es el escenario que demostró Rehberger.

Según Ars Technica, Rehberger informó la vulnerabilidad ChatGPT a OpenAI a principios de este año. Inicialmente, la empresa caracterizó esto como un problema de seguridad más que como un problema de seguridad. Los investigadores de seguridad fueron un paso más allá y crearon una prueba de concepto que se ve en el vídeo a continuación. Ahora, los ingenieros de OpenAI han tomado nota de esto y han publicado una solución parcial.

OpenAI ha hecho imposible que la memoria de ChatGPT sea explotada como vector de exfiltración. Un atacante no puede robar el contenido del chat después de engañar a un usuario para que haga clic en un enlace malicioso. Sin embargo, el hack de ChatGPT demuestra que algunos atacantes pueden intentar inyectar memoria en las conversaciones de ChatGPT de usuarios desprevenidos.

De ahora en adelante, debes verificar periódicamente la función de memoria ChatGPT para asegurarte de que tu chatbot recuerde solo la información que necesita.

El siguiente vídeo muestra el ataque de Rehberger. Puede encontrar más información sobre este truco de memoria ChatGPT en el blog de Rehberger en este enlace.

ChatGPT memory exploit left your private chat data exposed, but OpenAI fixed it