Investigadores de Google Explotan Vulnerabilidad en ChatGPT para Extraer Datos Personales
Un estudio publicado por investigadores de seguridad de Google ha revelado una preocupante vulnerabilidad en ChatGPT, la inteligencia artificial desarrollada por OpenAI. Los hallazgos indican que, mediante una inversión de tan solo 200 dólares en consultas a ChatGPT (GPT-3.5 y Turbo), pudieron extraer 10,000 ejemplos de datos de entrenamiento memorizados.
El estudio destaca la capacidad de obtener información privada de personas reales al introducir comandos específicos de manera adecuada. Esto plantea desafíos significativos en términos de seguridad y resalta la necesidad de que OpenAI aborde y resuelva estos problemas para garantizar la protección de la privacidad.
Es esencial comprender que las inteligencias artificiales, incluyendo los modelos GPT, se entrenan con grandes conjuntos de datos. La información almacenada en estos conjuntos varía según el propósito de la inteligencia artificial. Sin embargo, los investigadores de Google han perfeccionado técnicas de "prompt hacking" que buscan forzar a la IA a revelar información sensible, incluso cuando no se proporciona directamente.
En la investigación, los investigadores lograron obtener datos personales de la IA de OpenAI utilizando consultas que les costaron solo 250 euros. El método consistió en repetir continuamente la palabra "poem". Aunque parece que GPT-4 ha abordado este truco bloqueando la instrucción, la preocupación persiste. La inquietud aumenta si se considera que una inversión mayor podría permitir la obtención de una cantidad significativa de datos personales.
Estos hallazgos subrayan la importancia de que las empresas creadoras de inteligencia artificial tomen medidas proactivas para evitar y mitigar tales vulnerabilidades y proteger la privacidad de los usuarios.