Por Redacción
Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a hackear sus propios productos de inteligencia artificial para identificar vulnerabilidades antes de su lanzamiento. Esta práctica, que la empresa atribuye haber pionerizado desde 2021, forma parte de su estrategia para garantizar la seguridad y el cumplimiento de principios éticos en el desarrollo de tecnologías avanzadas.
Brad Smith, presidente de Microsoft, destacó que la compañía opera bajo principios definidos y publicados que funcionan como guardarraíles. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo. Smith añadió que la gestión de la tecnología no solo implica decidir cuándo usarla, sino también reconocer cuándo no debe ser utilizada.
El enfoque del ‘red teaming’ tiene sus raíces en prácticas militares y de ciberseguridad aplicadas durante décadas. En el contexto actual, este método adquiere relevancia ante el debate sobre el uso de la inteligencia artificial en escenarios de conflicto. Antecedentes recientes incluyen la demanda de la empresa Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, lo que subraya la sensibilidad del sector respecto a la aplicación bélica de estas herramientas.
Aunque la investigación no detalla la composición específica del equipo ni los métodos técnicos de hacking empleados, la existencia de este grupo interno refleja la prioridad que la corporación otorga a la autocrítica tecnológica. La estrategia busca anticipar riesgos y asegurar que los sistemas de IA se comporten dentro de los márgenes establecidos por la compañía antes de llegar al mercado.
La implementación de estos equipos de prueba representa un mecanismo de control interno en una industria donde la velocidad de innovación suele superar la regulación externa. Al asumir el rol de adversario dentro de su propia estructura, Microsoft busca fortalecer la robustez de sus algoritmos frente a posibles usos malintencionados o fallos operativos críticos.