Foto de Zulfugar Karimov en Unsplash
Una polémica que cuestiona la moderación en las tiendas de aplicaciones
Apple y Google se encuentran en el centro de una creciente controversia tras un informe del Tech Transparency Project (TTP) que revela que ambas compañías estarían mostrando a los usuarios aplicaciones capaces de desnudar digitalmente a personas reales mediante inteligencia artificial. Estas herramientas, denominadas habitualmente “apps de nudificación” o “nudify apps”, pueden generar imágenes o vídeos pornográficos falsos a partir de fotografías ordinarias.
El estudio señala que, pese a las políticas explícitas de ambas empresas contra el contenido sexual o pornográfico, las aplicaciones siguen disponibles en las tiendas y, en algunos casos, incluso son promovidas a través de publicidad dentro de los resultados de búsqueda. Muchas de ellas aparecen clasificadas como adecuadas para todos los públicos, lo que incrementa la inquietud sobre el acceso de menores a este tipo de contenido.
Economía del engaño digital
De acuerdo con el informe, se identificaron 18 apps de este tipo en la App Store de Apple y 20 en Google Play. Juntas, habrían alcanzado unos ingresos estimados de 122 millones de dólares y más de 480 millones de descargas a nivel global. Aunque algunas se presentan como herramientas de entretenimiento inocente o de intercambio facial, sus funciones permiten crear deepfakes sexuales, lo que agrava las preocupaciones por el uso indebido de imágenes personales.
Desde el TTP, su directora Katie Paul advierte que el problema no se limita a la falta de control, sino a que las propias plataformas estarían dirigiendo tráfico hacia esas aplicaciones, beneficiándose económicamente de su popularidad. Tanto Apple como Google han asegurado haber eliminado o suspendido varias de las apps señaladas, pero el ritmo de reaparecimiento de nuevas versiones pone en cuestión la eficacia de sus mecanismos de revisión.
El impacto legal y ético de los deepfakes sexuales
El auge de herramientas de IA que generan contenido explícito sin consentimiento ha impulsado a distintos gobiernos a proponer medidas más severas. En el Reino Unido, la Comisionada de la Infancia ha pedido la prohibición total de apps que creen imágenes sexuales de menores, mientras que en Estados Unidos y otros países se están impulsando leyes para castigar la creación y difusión de deepfakes explícitos. Las autoridades argumentan que la falta de supervisión tecnológica y la velocidad de desarrollo de estas herramientas están desbordando los marcos legales existentes.
La proliferación de este tipo de aplicaciones no solo plantea desafíos sobre privacidad y consentimiento, sino también sobre la responsabilidad ética de las plataformas digitales en la moderación de contenidos creados con IA. La industria tecnológica se enfrenta al reto urgente de equilibrar innovación, libertad de desarrollo y protección de derechos fundamentales.
Este caso vuelve a demostrar que la inteligencia artificial, en las manos equivocadas, puede amplificar prácticas nocivas y dañar la confianza digital. Controlar su uso y fomentar una regulación responsable será esencial para garantizar que la IA siga siendo una aliada de la sociedad, no una amenaza para su integridad.
