Este es el impacto ambiental y de ciberseguridad que tienen las virales imágenes hechas con inteligencia artificial

Captura-de-pantalla-2025-04-07-a-las-1.38.40 p.-m.png

Los expertos comentan que los datos biométricos, escaneos faciales, huellas dactilares o patrones de iris, son susceptibles a ser comprometidos con el uso de la IA.

La inteligencia artificial ha democratizado la creación de imágenes con un nivel de realismo impresionante. Sin embargo, lo que parece una revolución creativa también trae consigo riesgos invisibles, desde la expansión de deepfakes que amenazan la seguridad digital hasta el alto costo energético de entrenar estos modelos. Expertos advierten que estamos ante una crisis que requiere regulación urgente y educación digital.

Imágenes generadas por IA, innovación de doble filo

Herramientas como Chat GPT, DALL·E, Midjourney y Stable Diffusion han puesto en manos de cualquier usuario la capacidad de crear imágenes realistas en segundos. Mientras algunos ven en estas herramientas una evolución del diseño y la publicidad, otros alertan sobre sus implicaciones.

Isabel Manjarrez, investigadora de seguridad en Kaspersky, advierte que estas imágenes sintéticas no solo tienen aplicaciones legítimas, sino que también facilitan la creación de contenido falso con fines malintencionados. Los ciberdelincuentes pueden manipular contenido multimedia y generar deepfakes hiperrealistas que facilitan fraudes financieros y engaños en plataformas digitales”explica.

El problema se agrava con la falta de educación digital: según datos de Kaspersky, más del 50% de los usuarios en Colombia desconocen qué es un deepfake, lo que los convierte en blanco fácil de engaños.

Un reto para la ciberseguridad: autenticación en riesgo

El avance de los deepfakes representa una amenaza crítica para los sistemas de autenticación biométrica. Daniel Molina, vicepresidente de iProov para América Latina, señala que “la competencia entre la generación y detección de imágenes generadas por IA se está intensificando, lo que dificulta cada vez más distinguir entre imágenes auténticas y sintéticas”. Esto significa que los métodos tradicionales de verificación visual son insuficientes.

Los ataques con rostros clonados ya han burlado sistemas de seguridad en bancos y empresas. Además, el uso indebido de datos biométricos va más allá del fraude financiero: “Existen preocupaciones sobre el mal uso de estos datos por parte de gobiernos con fines de vigilancia, así como su explotación en bases de datos sin consentimiento de los usuarios”, advierte Molina.

Para mitigar estos riesgos, expertos recomiendan autenticación multifactor, almacenamiento seguro de datos biométricos y la implementación de tecnologías como la detección de vida, que verifica la presencia física del usuario en tiempo real.

El costo ambiental de la IA: un problema creciente

Más allá de la ciberseguridad, el impacto ambiental de las imágenes generadas por IA es otro tema alarmante. Modelos como Stable Diffusion requieren enormes cantidades de energía para entrenarse y operar. Un estudio del MIT reveló que entrenar un solo modelo de IA puede generar hasta 626.000 libras de dióxido de carbonoel equivalente a las emisiones de cinco autos a lo largo de toda su vida útil.

La industria tecnológica ya enfrenta cuestionamientos sobre la sostenibilidad de estos avances. “Cada vez que se genera una imagen por IA, se activa una red de servidores de alto consumo energético”, explica un reporte de la Universidad de California. A medida que estas herramientas se popularizan, su huella de carbono se incrementa exponencialmente.

¿Qué sigue? Regulación y educación digital

El auge de las imágenes sintéticas no tiene vuelta atrás, pero la falta de regulación y concienciación agrava sus riesgos. Es fundamental establecer normativas claras sobre el uso de deepfakes, reforzar los sistemas de ciberseguridad y promover una educación digital que prepare a los usuarios para detectar contenido manipulado.

Como concluye Manjarrez: “Navegar en un entorno digital seguro requiere no solo herramientas de detección avanzadas, sino también un cambio en la forma en que entendemos la autenticidad en línea”. La pregunta ya no es si la IA cambiará el mundo visual, sino cómo nos aseguramos de que ese cambio no nos tome por sorpresa.

Fuente: Forbes Chile

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

scroll to top