Los «hackers de sombrero rojo» se han convertido en los guardianes esenciales de la ciberseguridad en la era de la inteligencia artificial. Empresas como Microsoft, Google, Nvidia o Meta compiten por hacerse con un puñado de ellos entre su plantilla dados sus conocimientos.
La actualidad manda y si sigues las noticias diarias, seguro que te has encontrado con multitud de ellas hablando de ciberataques o peligros potenciales que podrían poner al borde del desfiladero a grandes empresas como Google, Meta, Nvidia o Microsoft.
Para hacer frente a todo esto, existe una fuerza invisible pero realmente vital para garantizar la seguridad y el buen funcionamiento de estas grandes compañías debido, sobre todo, al gran auge de la inteligencia artificial.
Estos son los «hackers de sombrero rojo», y en estas grandes compañías se han convertido en una parte fundamental de su estrategia de seguridad.
Pero, ¿quiénes son exactamente los hackers de sombrero rojo y por qué son tan valiosos en el mundo de la ciberseguridad y la IA?
Hackers de sombrero rojo: guardianes indispensables de la seguridad en la era de la IA
La práctica del software de estos equipos existe desde la década de 1960, cuando se simulaban ataques para hacer que los sistemas fueran lo más resistentes posible.
En pocas palabras, se trata de una élite de expertos en seguridad informática cuya labor es poner a prueba las tecnologías desde todos los ángulos posibles para detectar errores, vulnerabilidades y posibles peligros que podrían poner en jaque a cualquier empresa y la privacidad y seguridad de los usuarios.
A través de rigurosas pruebas de penetración, análisis exhaustivos y unos grandes cerebros trabajando de forma continua, estos profesionales buscan asegurarse de que los sistemas sean resistentes a todo tipo de ataques.
Un ejemplo reciente de la importancia de estos hackers de sombrero rojo se encuentra en la experiencia de OpenAI con la prueba de sus modelos de IA, como ChatGPT.
Antes del lanzamiento público de sus productos, esta compañía contrató a un experto para verificar la presencia de estereotipos perjudiciales en las respuestas generadas por la IA, con el objetivo de evitar que los modelos de IA perpetúen prejuicios o generen contenido peligroso.
Otro claro caso es el de Facebook (Meta) en julio de 2023, que contrató a 350 empleados más para asegurarse que su nuevo modelo de lenguaje, Llama 2, no tuviese ningún fallo o potencial peligro para ser atacado.
Por otro lado, Daniel Fabian, jefe del nuevo equipo rojo de IA de Google, prueba productos como Bard para detectar contenido ofensivo antes de que la compañía agregue novedades. «El lema de nuestro equipo rojo de IA es ‘Cuanto más sudas en el entrenamiento, menos sangras en la batalla'», comenta.
Los equipos de empresas como Meta o Google, como ves, están compuestos por profesionales altamente especializados que se dedican a buscar incansablemente vulnerabilidades en sistemas de inteligencia artificial y software.
El rol de estos va más allá de la simple detección de problemas evidentes. Utilizan tácticas avanzadas, como la inyección de datos de identificación personal, para evaluar la capacidad de los modelos de IA para manejar información sensible.
Cristian Canton, líder de ingeniería de IA en Meta, explica en Forbes que «más allá de consultar un modelo de IA para generar respuestas tóxicas, los equipos de sombrero rojo usan tácticas como extraer datos de entrenamiento que revelan información de identificación personal como nombres, direcciones y números de teléfono».
Este proceso, conocido como poisoning (envenenamiento), les permite identificar fallos en el modelo para luego eliminarlos y evitar así posibles riesgos de seguridad.
Además, el auge de la inteligencia artificial está creando nuevas oportunidades laborales, y los hackers de sombrero rojo se encuentran en una posición envidiable. La demanda de profesionales con experiencia en ciberseguridad y pruebas de penetración está en constante aumento.
«Cuanto más útil puedas hacer un modelo, más posibilidades tendrás de aventurarte en algún área que pueda terminar produciendo una respuesta insegura», comenta Cristian Canton. Aquí es donde brillan estos profesionales.
Fuente: Computer Hoy