Por Diana Mosquera
Detrás de cada trend de IA generativa
A lo largo de los últimos años, diversas empresas han lanzado herramientas basadas en inteligencia artificial (IA) que, bajo la apariencia de entretenimiento, utilidad o tendencia viral, han recopilado enormes cantidades de datos personales. Lo que en principio parece un juego o una curiosidad —como verte envejecido, transformado en anime o en una ilustración de fantasía— es, en realidad, parte de una estrategia más amplia para recolectar rostros, metadatos y hábitos digitales. Esta recopilación masiva tiene implicaciones profundas en términos de privacidad, derechos de autor y medioambiente.
FaceApp (2017)
FaceApp, lanzada en 2017, es una aplicación desarrollada por FaceApp Technology Limited, una empresa registrada en Chipre. Su fundador es Yaroslav Goncharov, un ex ingeniero de Microsoft y Yandex [1]. La aplicación ganó popularidad por permitir a los usuarios aplicar filtros de envejecimiento, rejuvenecimiento o cambio de género en sus rostros. Sin embargo, en 2019 surgieron fuertes cuestionamientos sobre su tratamiento de datos personales: las imágenes eran procesadas en servidores externos (Google Cloud y AWS), y aunque la empresa afirmó que se eliminaban en 48 horas, no existía un mecanismo que lo garantizara [2].
Desde su creación, se estima que FaceApp ha recolectado más de 150 millones de fotos, y ha admitido que las utiliza para entrenar algoritmos de reconocimiento facial, desarrollar nuevas funciones y perfeccionar sus filtros. Más allá de estos usos declarados, el potencial de estas bases de datos es inmenso: podrían alimentar tecnologías de vigilancia, publicidad, creación de rostros ficticios o incluso ser aprovechadas por entidades gubernamentales o actores maliciosos. Además, la app también recopila metadatos como la ubicación geográfica y el modelo del dispositivo [2]. Otras aplicaciones como Aging Booth, FaceLab o YouCam Makeup también han recopilado millones de imágenes mediante funciones que aparentan ser meramente recreativas. A través de simulaciones faciales o filtros estéticos, los usuarios entregan sin saberlo imágenes que pueden ser utilizadas para entrenar modelos de IA sin consentimiento explícito [4].
Clearview AI (2020)
Clearview AI es una empresa estadounidense cuya tecnología de reconocimiento facial ha sido utilizada por agencias policiales y gubernamentales. Su base de datos contiene más de 30 mil millones de imágenes extraídas de redes sociales y sitios públicos sin el consentimiento de las personas. Esta práctica le ha valido múltiples sanciones, como la impuesta por la Autoridad de Protección de Datos de los Países Bajos, que consideró ilegal su actividad bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea [3].
OpenAI and the Ghibli Trend (2025)
Recientemente, millones de personas han subido sus fotos a plataformas como ChatGPT para transformarlas al estilo del Studio Ghibli. Esta tendencia viral ha generado un nuevo ciclo de recolección masiva de datos, mientras se replican estilos artísticos sin el reconocimiento ni consentimiento de los autores originales [5][6][7][8]. El uso del estilo visual de Studio Ghibli plantea un serio conflicto en materia de derechos de autor. Para emular la estética del estudio japonés, colores suaves, paisajes oníricos y trazos expresivos, los modelos de IA fueron entrenados con cientos o miles de imágenes, sin que exista un acuerdo con sus creadores. Este tipo de apropiación tecnológica desvaloriza el trabajo artístico acumulado durante décadas.
Además, estas imágenes no solo son usadas con fines estéticos. Los datos recopilados permiten desarrollar sistemas de reconocimiento facial, algoritmos de generación de imágenes realistas, o nuevas formas de personalización en publicidad, entretenimiento e incluso vigilancia [5].

