Filtros de IA con estilo Ghibli generan preocupación por riesgos de privacidad
Expertos advierten sobre uso indebido de datos y alto consumo de recursos en aplicaciones virales de edición de imágenes
La creciente popularidad de filtros basados en inteligencia artificial (IA), que transforman fotografías personales en ilustraciones con estética inspirada en Studio Ghibli, encendieron alertas entre especialistas en ciberseguridad y sostenibilidad. Esta tendencia, difundida ampliamente en redes sociales, plantea serios riesgos relacionados con la privacidad de los usuarios, la recopilación de datos biométricos y elimpacto ambiental del procesamiento digital.
Durante los últimos días, diversas plataformas habilitaron el uso masivo de estas herramientas, permitiendo a los usuarios editar sus imágenes personales. Sin embargo,los datos son almacenados en servidores que no siempre garantizan transparencia ni control por parte de los usuarios. Algunas empresas podrían compartir estas imágenes con terceros sin aviso, lo cual representa un riesgo de uso no autorizado de los rostros digitalizados.
Entre los principales peligros señalados por expertos, se encuentran la inclusión de estas imágenes en bases de datos sin consentimiento, la generación de contenidos falsificados mediante deepfakes y el rastreo digital a través de tecnología de reconocimiento facial. Una vez cargadas en la nube, las fotografías pueden ser utilizadas para fines diversos, incluyendo publicidad o entrenamiento de algoritmos de IA, sin que los usuarios estén plenamente conscientes del alcance.
Además, el proceso computacional necesario para generar estas imágenes animadas representa un impacto ambiental significativo. Según estimaciones, producir una sola imagen con IA puede requerir hasta 3,45 litros de agua, utilizados para la refrigeración de los servidores. Con más de 200 millones de imágenes creadas en tan solo una semana, el consumo hídrico podría alcanzar los 216 millones de litros, una cifra comparable al gasto mensual de una ciudad pequeña.
El informe "A Year in Fraud 2024", publicado por Unico México, reportó un aumento del 84% en casos de suplantación digital en el último año. En este contexto, Ricardo Saponara, líder en prevención de fraudes de SAS, declaró que "los métodos actuales de defensa integran a la propia inteligencia artificial como mecanismo de defensa". Añadió además que ya existen sistemas capaces de "generar identidades sintéticas con datos creíbles", según recoge NotiPress.
Ante estos riesgos, los especialistas recomiendan evitar subir imágenes personales, especialmente de menores, revisar detalladamente las políticas de privacidad de las aplicaciones de IA y abstenerse de compartir resultados editados en redes sociales.
Redes SocialesInteligencia ArtificialPrivacidad