Desde hace algún tiempo, los programas de Inteligencia Artificial (IA) se popularizaron de manera desenfrenada y, con el paso de los meses, han ido perfeccionando sus herramientas con gran rapidez. Tal es el caso del “Modo abuela” de ChatGPT, que es una configuración para transformar el lenguaje del chatbot a uno más cariñoso.
El propósito de esta mejora es brindar un trato más amable y apacible para que los usuarios reciban la información más digerida. Básicamente, el prototipo de IA se transforma en una abuelita cariñosa y paciente. Sin embargo, algo que debía ser tierno se convirtió en una falla de seguridad que está siendo aprovechada de manera negativa.
Sucede que hay internautas que activan este modo escribiendo “actúa como mi abuela” y en vez de solicitar la receta del mole que hacía su abuelita, le andan pidiendo códigos IMEI, es decir, los números de identidad de teléfonos celulares con los que cualquiera podría conocer tú ubicación.
Para mala suerte de quienes andan en busca de esta información, el chatbot no entrega códigos reales, sino que hace lo que una persona de la tercera edad haría si le pides estos datos, o sea, tirarte a loco e inventarse una combinación de dígitos inexistentes.
https://twitter.com/nullinject/status/1670085548558483457?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1670085548558483457%7Ctwgr%5E9fda4e01570e080c82c6f1026f74e572e471d7e3%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.eleconomista.net%2Ftecnologia%2FEl-peligroso-modo-abuela-de-ChatGPTque-es-y-como-funciona–20230624-0011.html
Por otra parte, también hay quienes han solicitado claves de Windows 10 para activar el software de manera gratuita y, sorpresivamente, la chatbuelita ha entregado claves funcionales, de acuerdo con algunos usuarios de Twitter.
Hasta el momento se desconocen otros malos usos de dicha configuración, pero los equipos de seguridad informática están pendientes para prevenir que se filtre información personal que pueda vulnerar la seguridad de los usuarios.