Las limitaciones respecto al uso de esta tecnología y los debates sobre su regulación son algunos de los temas que acaparan la mirada y el análisis de expertos en la industria.
No cabe duda que la IA ha avanzado a pasos agigantados, cambiando el rumbo de los más diversos sectores productivos tales como la salud, educación, industria, recursos humanos, entre otros, con desarrollos sorprendentes a nivel mundial. Sin embargo, también ha mostrado su lado más vulnerable reflejado en los delitos financieros, la usurpación de identidad, o aspectos vinculados a la propiedad intelectual, hechos que han motivado la importancia de legislar sobre los alcances de esta tecnología.
Es por ello que en diciembre de 2023, la Unión Europea (UE) marcó un hito histórico al consensuar la primera Ley de Inteligencia Artificial (IA), conocida como “IA Act”, la cual se estima entre en vigencia recién a fines de 2026.
Pero una vez implementada esta Ley u otras que podrían ser promulgadas próximamente en otros países, surge la pregunta sobre si los gobiernos lograrán controlar y regular lo que, precisamente, busca esta misma en cuanto a la prevención de los efectos asociados a la IA.
En opinión de Federico dos Reis, CEO de INFORM Latam, es fundamental cambiar la manera de legislar. “Las burocracias gubernamentales no están preparadas hoy para hacerle frente al acelerado desarrollo de la IA. Los gobiernos deberían legislar con mayor premura frente a la velocidad a la que estábamos acostumbrados hace 10 años. La idea es poder adelantarnos a los posibles peligros que conlleva el mal uso de esta tecnología, permitiendo la aprobación de leyes cortas mucho más rápidas que lo que actualmente demoran en ser aprobadas. En este sentido, las instituciones gubernamentales deben tomar un rol preventivo y no reactivo frente a los avances de esta herramienta y el uso ético de la misma”, sostiene el ejecutivo.
IA generativa
En el marco de la conformación de esta Ley de Inteligencia Artificial (IA) de la UE, uno de los aspectos ampliamente discutidos fue la importancia de los sistemas de inteligencia artificial generativo, en los que se basan modelos como ChatGPT, implementándose reglas específicas para garantizar la transparencia y la gestión de riesgos.
En esta línea, los usuarios, por ejemplo, tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía fueron creados por IA. Asimismo, obligaciones más estrictas para los modelos de “alto impacto”, como evaluaciones de riesgos y garantías de ciberseguridad, entre otros factores.
Desafíos de gobernanza de la IA
Para las Naciones Unidas, la IA también conlleva efectos negativos, como la desinformación y la información falsa, el afianzamiento del sesgo y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos, lo que podría desestabilizar, incluso, las democracias.
Por ello, uno de los desafíos es poner en marcha un consenso sobre la regulación que guíe el desarrollo y la implementación de la IA en relación con los “Objetivos Globales” establecidos por el organismo internacional.
Y si bien hay países como China y Estados Unidos que ya están regulando el uso de la IA, para dos Reis esta tecnología “no conoce fronteras”. “El desafío es que ya tenemos que empezar a alinearnos no a nivel regional, sino global, ya que es una temática que impacta a la humanidad como un todo, por lo que es primordial ser ágiles y tener directrices claras en el uso y alcance de la IA. En INFORM, por ejemplo, promovemos un enfoque transparente y responsable de esta revolucionaria herramienta tecnológica, donde la última decisión siempre la tienen las personas, pudiendo en cualquier momento obviar una sugerencia o propuesta realizada por el sistema”, asegura el líder de INFORM Latam.