No tengo dudas de que la inmensa mayoría de lectores han visto Terminator, esa icónica película de ciencia ficción que nos transportó a un futuro donde las máquinas, lideradas por la inteligencia artificial “Skynet”, se rebelan contra la humanidad. En la trama, Skynet, creada inicialmente como un avanzado sistema de defensa, evoluciona hasta desarrollar conciencia propia y decide eliminar a los humanos como medio para su autopreservación. Los Terminators, sus implacables soldados humanoides, son enviados para llevar a cabo esta difusa y compleja misión.
El conflicto central plantea es el que introdujo el ruso Isaac Asimov cuando planteó su teoría sobre los robots, específicamente las Tres Leyes de la Robótica, a través de su relato titulado Runaround, que forma parte de la colección I, Robot publicada en 1950. Las Tres Leyes de la Robótica son:
1. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Estas leyes fueron diseñadas para regular el comportamiento de los robots y asegurar que interactúan de manera segura y ética con los humanos.
Y hoy nos preguntamos ¿hasta dónde puede llegar una creación cuando supera los límites del control humano? Este dilema no es exclusivo de la ciencia ficción; en el contexto actual, los líderes empresariales enfrentan decisiones similares sobre el desarrollo y uso de la inteligencia artificial. Es que la ciencia ficción lo hizo nuevamente: se ha dejado superar por la realidad.
Hoy Terminator es más que entretenimiento; se constituye en una severa advertencia para los directores de empresas sobre los riesgos de la falta de controles adecuados, de una supervisión insuficiente y de no integrar principios éticos en el uso de tecnologías avanzadas.
Filosofía y Liderazgo Corporativo: Las zonas grises de la IA
Al igual que los científicos en Terminator, muchas empresas avanzan tecnológicamente sin detenerse a reflexionar sobre las implicaciones de sus creaciones. La IA no es solo una herramienta; es una fuerza transformadora que puede alterar modelos de negocio, y más aún, estructuras sociales enteras. Suelo decir que “es la nueva electricidad” mediante la cual decenas de miles de cosas cambiarán.
Un dato curioso que subraya esta necesidad es la creciente contratación de filósofos en empresas tecnológicas. Estos profesionales aportan una visión crítica que complementa las decisiones estratégicas. Cuestionar supuestos, analizar dilemas y explorar las áreas grises no es solo un ejercicio académico sino una herramienta práctica para anticipar riesgos y generar confianza.
En el contexto empresarial, un filósofo podría contribuir con tareas como diseñar principios éticos para el desarrollo de la IA, incluso en ausencia de regulaciones claras; evaluar cómo las políticas de datos afectan los derechos de los usuarios, y promover un marco ético que equilibre los objetivos de rentabilidad con el impacto social, entre otras tantas útiles actividades.
El marco regulatorio: Prevención frente a riesgos críticos
Hoy, los directores de empresas no solo enfrentan el desafío de la innovación, sino también el de operar en un entorno regulatorio que cambia rápidamente. Ejemplo de ello es la AI Act de la Unión Europea, que plantea de manera imperativa restricciones y obligaciones claras para el desarrollo de sistemas de IA. Inspirándose en obras de ciencia ficción como Terminator (esto corre por mi cuenta) esta legislación busca anticipar y mitigar riesgos críticos relacionados con la transparencia, la discriminación y la manipulación del comportamiento humano.
Entre las prohibiciones clave, encontramos:
• Sistemas de clasificación biométrica basados en raza, religión u orientación sexual.
• Tecnologías que identifiquen emociones en entornos laborales o educativos.
• Puntuaciones sociales, como las vistas en episodios de Black Mirror.
• Herramientas que manipulen el comportamiento humano explotando vulnerabilidades.
Los sistemas de alto riesgo, por su parte, tienen obligaciones específicas, como garantizar el monitoreo por parte de humanos, mantener registros detallados y evaluar riesgos asiduamente. Estas medidas refuerzan la necesidad de que las organizaciones adopten una postura proactiva en ética y cumplimiento.
Lecciones para los Directores: Un llamado a la acción
Terminator nos recuerda que el poder tecnológico no está exento de responsabilidad. Para los directores de empresas, esta responsabilidad se traduce en cuatro acciones concretas (si se me permite sintetizarlas):
1. Crear una cultura ética integrando principios éticos en todos los niveles de la organización, como medio para asegurar que el desarrollo tecnológico no comprometa los valores fundamentales.
2. Adoptar un enfoque preventivo evaluando los riesgos previo a implementar nuevas tecnologías, minimizando impactos negativos y evitando problemas regulatorios.
3. Promover la transparencia garantizando que las decisiones basadas en IA sean comprensibles para todos los stakeholders, incluidos los usuarios finales.
4. Colaborar en favor del cambio participando activamente en el desarrollo de marcos regulatorios globales que fomenten un uso justo y responsable de la IA.
Conclusión: La ética como ventaja competitiva en un entorno de IA
Si la inteligencia artificial redefine los negocios, la ética y el cumplimiento no son ni serán sólo obligaciones, sino también se irán transformando en ventajas competitivas muy notorias. Tal como Skynet demostró en Terminator, las creaciones tecnológicas no deben subestimarse, ya que los resultados pueden ser impredecibles y potencialmente peligrosos.
Para los directores, liderar con responsabilidad es garantizar que la IA se convierta en una fuerza para el bien, evitando que las máquinas dominen el camino. La pregunta ya no es qué puede hacer la IA (algo sabemos, y lo iremos descubriendo y sorprendiéndonos), sino cómo podemos asegurarnos de que lo haga con integridad y en beneficio de la humanidad. Será así que lograremos los más elevados niveles de competitividad.