BLOG POST
por DIANA MOSQUERA
Detrás de cada trend de IA generativa
A lo largo de los últimos años, diversas empresas han lanzado herramientas basadas en inteligencia artificial (IA) que, bajo la apariencia de entretenimiento, utilidad o tendencia viral, han recopilado enormes cantidades de datos personales. Lo que en principio parece un juego o una curiosidad —como verte envejecido, transformado en anime o en una ilustración de fantasía— es, en realidad, parte de una estrategia más amplia para recolectar rostros, metadatos y hábitos digitales. Esta recopilación masiva tiene implicaciones profundas en términos de privacidad, derechos de autor y medioambiente.
FaceApp (2017)
FaceApp, lanzada en 2017, es una aplicación desarrollada por FaceApp Technology Limited, una empresa registrada en Chipre. Su fundador es Yaroslav Goncharov, un ex ingeniero de Microsoft y Yandex [1]. La aplicación ganó popularidad por permitir a los usuarios aplicar filtros de envejecimiento, rejuvenecimiento o cambio de género en sus rostros. Sin embargo, en 2019 surgieron fuertes cuestionamientos sobre su tratamiento de datos personales: las imágenes eran procesadas en servidores externos (Google Cloud y AWS), y aunque la empresa afirmó que se eliminaban en 48 horas, no existía un mecanismo que lo garantizara [2].
Desde su creación, se estima que FaceApp ha recolectado más de 150 millones de fotos, y ha admitido que las utiliza para entrenar algoritmos de reconocimiento facial, desarrollar nuevas funciones y perfeccionar sus filtros. Más allá de estos usos declarados, el potencial de estas bases de datos es inmenso: podrían alimentar tecnologías de vigilancia, publicidad, creación de rostros ficticios o incluso ser aprovechadas por entidades gubernamentales o actores maliciosos. Además, la app también recopila metadatos como la ubicación geográfica y el modelo del dispositivo [2]. Otras aplicaciones como Aging Booth, FaceLab o YouCam Makeup también han recopilado millones de imágenes mediante funciones que aparentan ser meramente recreativas. A través de simulaciones faciales o filtros estéticos, los usuarios entregan sin saberlo imágenes que pueden ser utilizadas para entrenar modelos de IA sin consentimiento explícito [4].
Clearview AI (2020)
Clearview AI es una empresa estadounidense cuya tecnología de reconocimiento facial ha sido utilizada por agencias policiales y gubernamentales. Su base de datos contiene más de 30 mil millones de imágenes extraídas de redes sociales y sitios públicos sin el consentimiento de las personas. Esta práctica le ha valido múltiples sanciones, como la impuesta por la Autoridad de Protección de Datos de los Países Bajos, que consideró ilegal su actividad bajo el Reglamento General de Protección de Datos (GDPR) de la Unión Europea [3].
OpenAI and the Ghibli Trend (2025)
Recientemente, millones de personas han subido sus fotos a plataformas como ChatGPT para transformarlas al estilo del Studio Ghibli. Esta tendencia viral ha generado un nuevo ciclo de recolección masiva de datos, mientras se replican estilos artísticos sin el reconocimiento ni consentimiento de los autores originales [5][6][7][8]. El uso del estilo visual de Studio Ghibli plantea un serio conflicto en materia de derechos de autor. Para emular la estética del estudio japonés, colores suaves, paisajes oníricos y trazos expresivos, los modelos de IA fueron entrenados con cientos o miles de imágenes, sin que exista un acuerdo con sus creadores. Este tipo de apropiación tecnológica desvaloriza el trabajo artístico acumulado durante décadas.
Además, estas imágenes no solo son usadas con fines estéticos. Los datos recopilados permiten desarrollar sistemas de reconocimiento facial, algoritmos de generación de imágenes realistas, o nuevas formas de personalización en publicidad, entretenimiento e incluso vigilancia [5].
Lo que las apps también recolectan
No solo se entregan rostros: las imágenes capturan nuestros hogares, mascotas, nuestra intimidad, fotos de menores de edad y otros elementos del entorno. A menudo, los usuarios otorgan sin saberlo licencias amplias y perpetuas sobre sus imágenes, abriendo la puerta a usos imprevistos o maliciosos. A esto se suma la falta de regulación en muchas regiones, especialmente en América Latina. Las empresas cambian sus políticas de privacidad sin aviso, habilitando usos más agresivos de nuestros datos. Casos como:
* Facebook, que entregó conversaciones privadas al gobierno de EE.UU. en un caso judicial.
* Twitter/X (2023), que actualizó su política para permitir el uso de datos públicos y privados para entrenamiento de IA.
* Experian (2020), que modificó sus términos para excluir reclamos legales sin notificación.
* GoodRx and BetterHelp (2023), que compartieron datos médicos con fines publicitarios.
* Cerebral and Monument (2024), que violaron sus propias políticas al compartir información sensible con terceros.
Estos ejemplos muestran cómo la privacidad se erosiona silenciosamente.
El impacto ambiental de la IA generativa
Detrás de cada tendencia viral impulsada por IA hay un costo ambiental que rara vez se menciona. Modelos como Stable Diffusion XL, GPT-4 o DALL·E requieren enormes cantidades de energía. Se estima que una sola sesión de generación de imágenes puede emitir tanto CO₂ como un viaje corto en automóvil [9]. El entrenamiento de un modelo avanzado puede superar las 500 toneladas de CO₂, equivalentes a las emisiones anuales de 100 automóviles [10]. Además, los centros de datos utilizan agua para enfriar los servidores. Microsoft reportó un aumento del 34% en su consumo de agua en 2022, mientras que Google también registró incrementos notables [11]. Un análisis reveló que una conversación de 20 a 50 prompts con ChatGPT puede consumir el equivalente a medio litro de agua [11]
La acumulación de datos biométricos, el uso no autorizado de obras artísticas y el daño ambiental nos recuerdan que lo que parece un simple filtro o una imagen divertida tiene consecuencias reales. Importa y mucho a quién le entregamos nuestros datos, y qué hacen con ellos.Recuperar nuestra privacidad no es solo un acto individual, sino un esfuerzo colectivo que exige regulaciones claras, decisiones informadas y un compromiso ético compartido. En la era digital, la pérdida de privacidad está directamente relacionada con el debilitamiento de la democracia [12]; por eso, proteger los datos personales es esencial para resguardar nuestras libertades, tanto individuales como colectivas. Solo así podremos construir una verdadera 'inmunidad de rebaño' frente a la explotación tecnológica.
Referencias
[1] Wikipedia. (s.f.). FaceApp. https://es.wikipedia.org/wiki/FaceApp
[2] BBC Mundo. (2019, 17 julio). FaceApp: qué hay detrás de la aplicación que transforma tu rostro. https://www.bbc.com/mundo/noticias-49012256
[3] Autoridad de Protección de Datos de los Países Bajos. (s.f.). https://autoriteitpersoonsgegevens.nl
[4] Vidnoz. (s.f.). Cómo envejecer rostros online con IA. https://es.vidnoz.com/inteligencia-artificial/envejecer-rostros-online-gratis.html
[5] El País. (2025, 2 abril). Por qué la locura de ChatGPT con imágenes estilo Ghibli no es solo un meme. https://elpais.com/tecnologia/2025-04-02
[6] La Nación. (s.f.). Cómo usar ChatGPT para hacer imágenes al estilo Ghibli. https://www.lanacion.com.ar/tecnologia
[7] CNN en Español. (2025, 28 marzo). Studio Ghibli IA e imágenes virales. https://cnnespanol.cnn.com/2025/03/28
[8] OpenAI. (2025). Introducing 4o Image Generation. https://openai.com/index/introducing-4o-image-generation
[9] SMOWL. (s.f.). Impacto ambiental de la IA. https://smowl.net/es/blog/impacto-ambiental-ia
[10] GTA Ambiental. (s.f.). La IA y el medioambiente. https://gtaambiental.com/inteligencia-artificial/
[11] La Vanguardia. (2023, 15 abril). ChatGPT y su consumo de agua. https://www.lavanguardia.com/vida/20230415
[12] Ethic. (s.f.). No es coincidencia que esta pérdida de democracia se dé al mismo tiempo que el auge de la tecnología digital. https://ethic.es/entrevistas/entrevista-carissa
Regresar ⇐