Durante los meses de mayo y junio, el IGEP realizó el primer Taller sobre Inteligencia Artificial para Directores de Empresas.
Con la participación de más de 50 socios y graduados del IGEP, en las charlas del Taller de IA para Directores de empresas, conversamos sobre las novedades en la tecnología, los avances y las últimas noticias sobre la IA aplicada a la vida social, en la vida profesional de las personas y ya en la administración de las empresas.
Como decía el Presidente del IGEP, Santiago Gallichio, en el Newsletter pasado, “aunque a muchos nos cueste admitir la seriedad de su presencia… IA se nos subió a la mesa del directorio y nos obliga a tratarla en serio.”
Para los Directorios, es fundamental centrarse en los aspectos estratégicos, beneficios empresariales y desafíos asociados con la adopción de IA en sus empresas. La Gestión de la IA desde el Directorio debe incluir en análisis de los riesgos de su incorporación.
Para esto, es imprescindible entender las herramientas existentes, saber de qué se trata la IA generativa, las formas de uso y aplicación en las empresas y los puntos en los que hay que prestar más atención para el mejor funcionamiento del Directorio, para el cumplimiento de la responsabilidad de los Directores profesionales y una mejor Gobernanza en las empresas.
En el Taller, luego de una breve introducción a la Inteligencia Artificial, conversamos sobre los distintos tipos de IA y su evolución, el aprendizaje automático, las redes neuronales, el procesamiento del lenguaje natural y la aplicación práctica de las herramientas que son parte de la IA.
Sin duda, la AI generativa sorprende y al mismo tiempo, alerta al mundo de los negocios.
A medida que los dispositivos, los sensores y las nuevas plataformas tecnológicas generan cada vez más datos, las organizaciones tienen nuevas oportunidades para obtener información importante que puede estimular la innovación, traer nuevos productos y servicios al mercado y crear una ventaja competitiva para las empresas.
Pero a menos que las organizaciones comiencen a tratar los datos como un activo clave que es tan importante como sus activos financieros, esas oportunidades se perderán.
Para esto, en las primeras charlas, conversamos sobre el impacto estratégico de la IA en los Negocios, con los Casos de éxito en diferentes industrias (retail, finanzas, salud etc) y cómo la IA puede transformar modelos de negocio existentes.
Hablamos también de los aspectos éticos y regulatorios de la IA (consideraciones éticas en el uso de IA, privacidad y protección de datos, regulaciones y políticas de IA a nivel global). Así como también sobre los desafíos y riesgos en la implementación de IA (las barreras técnicas y organizativas, la gestión del cambio y resistencia cultural y los riesgos de seguridad y posibles soluciones).
Tal y como dijo Marta Monacci en la primera actividad del Taller, para sobrevivir y prosperar en la Era de los grandes datos, las organizaciones deben implementar nuevos modelos de gobierno, crear paneles de información compartida en toda la empresa, fomentar un entorno de “experimentar y escalar”, y cultivar una cultura que incorpore datos en las actividades diarias del negocio.
¿Qué conclusiones nos dejó el Taller de IA?
Es difícil resumir todos los conceptos vertidos en los 3 días de esta actividad de actualización profesional pero rescataremos algunas frases importantes como conclusiones del Taller.
El Liderazgo de Datos exige un Gobierno de los datos. La “Data Governance” juega un papel importante en el crecimiento de la empresa.
Las empresas de valor y crecimiento serio tienen C-suites que están comprometidas con los datos como un activo, con la gestión y la protección de los datos. Esto, debe llegar al Directorio naturalmente.
El Directorio debería poner foco en la importancia del análisis de los riesgos relacionados con la aplicación de la IA. Y para eso, debemos pensar en la:
• Desinformación y toma de decisiones erróneas: La falta de comprensión sobre IA puede llevar a decisiones estratégicas incorrectas, basadas en expectativas poco realistas o en la mala interpretación de los resultados generados por IA.
• Ciberseguridad: Los sistemas de IA pueden ser vulnerables a ataques cibernéticos, comprometiendo datos sensibles y la integridad de la organización.
• Privacidad de los datos: El uso indebido de datos personales para entrenar algoritmos de IA puede resultar en violaciones de la privacidad y sanciones regulatorias.
• Discriminación y sesgo: Si no se supervisan adecuadamente, los algoritmos de IA pueden perpetuar o exacerbar sesgos existentes, lo que puede resultar en decisiones injustas y perjudicar la reputación de la empresa.
• Cumplimiento regulatorio: El incumplimiento de las normativas y regulaciones específicas sobre IA puede llevar a multas significativas y a responsabilidades legales.
• Pérdida de empleos y moral del personal: La implementación de IA sin una planificación adecuada puede generar incertidumbre laboral y afectar la moral del personal, además de resultar en la pérdida de empleos.
• Dependencia tecnológica: Una dependencia excesiva de la IA puede limitar la capacidad de la empresa para tomar decisiones estratégicas de manera independiente y resiliente.
• Innovación y competitividad: Ignorar los avances en IA puede dejar a la empresa rezagada frente a competidores que sí aprovechan estas tecnologías para mejorar la eficiencia y desarrollar nuevos productos o servicios.
• Responsabilidad y rendición de cuentas: La falta de claridad sobre quién es responsable de las decisiones tomadas por sistemas de IA puede complicar la rendición de cuentas en caso de errores o fallos.
• Costo y Retorno de Inversión: Sin un entendimiento claro, los proyectos de IA pueden resultar en costos inesperados y un retorno de inversión inferior al previsto, afectando negativamente la situación financiera de la empresa.
Debemos ser conscientes de estos riesgos permiten al directorio tomar decisiones informadas, mitigar potenciales problemas y maximizar los beneficios de la implementación de IA en la organización.
Es indispensable el desarrollo de un equipo con visión transformacional. Encargado de la gestión de la transición y del diagnóstico de soluciones existentes, y comprometido con la construcción de una práctica responsable del uso de la IA.
Para una adopción exitosa, hay que tener una visión holística del valor de IA en el negocio.
La IA se puede aplicar a todos los temas relacionados con las empresas, al desarrollo y fortalecimiento del negocio, al análisis de riesgo, pero también a la Gobernanza.
Es hora de que un especialista en IA sea parte del Directorio.
Como explicó claramente Roberto Cruz en la segunda charla del Taller, el Directorio no solo tiene que conocer qué es la IA, conocer la IA para el negocio y conocer los aspectos de compliance, sino también establecer un Gobierno de la IA alimentado de las mejores prácticas y las competencias organizacionales.
Roberto Cruz cerró su charla con una frase importante de Fei-Fei Li, co-Directora del Standford Human-Centered AI Institut que nos deja mucho para pensar y hacer: “Si quieres ser relevante, debes adoptar la IA no solo como una herramienta, sino como un aspecto fundamental de tu reinvención y estrategia a largo plazo”.
En la tercera actividad del Taller con Matías Grinberg, dimos un paso más al interior de la IA y la relacionamos también con la neurociencia como base para entender el funcionamiento de la IA generativa. Pero Matías también hizo hincapié en la aplicación práctica de la IA en las empresas.
¿Qué tiene que ver la neurociencia con la “computación”?
Antes de referirme a esta última exposición, confieso que me llamó la atención la presentación que hizo Marta Monacci del joven experto, Matías Grinberg, experto en Ingeniería de IA, que a su vez es Licenciado en Psicología con orientación a la Neurociencias por la Universidad Favaloro, con programas de formación en Neurociencias Computacionales por la UBA y Seminarios del Lab. de Inteligencia Artificial Aplicada, entre otros títulos.
Por eso le pedí al chatGPT que haga un resumen de la relación entre la neurociencia y la IA y los resultados fueron interesantes.
La relación entre la neurociencia y la IA generativa es cada vez más relevante para los directores de empresas, ya que ambas disciplinas pueden ofrecer insights y herramientas valiosas para mejorar la toma de decisiones, optimizar operaciones y potenciar la innovación.
La neurociencia ayuda a comprender cómo los líderes y empleados procesan información, toman decisiones y reaccionan ante el estrés y la presión. La IA generativa, puede analizar grandes volúmenes de datos para ofrecer recomendaciones basadas en patrones que podrían no ser evidentes para los humanos.
En las empresas, ya se puede hablar de la relación entre la personalización y experiencia del cliente y que la neurociencia estudia cómo los clientes responden emocionalmente a diferentes estímulos y productos, lo que ayuda a las empresas a entender mejor las necesidades y deseos de sus clientes y la IA generativa utiliza estos insights para crear contenido y ofertas personalizadas, mejorando la experiencia del cliente y aumentando la satisfacción y lealtad. Lo mismo ocurre con la innovación en productos y servicios donde la neurociencia proporciona conocimientos sobre la creatividad y el pensamiento innovador, ayudando a los equipos a desarrollar nuevas ideas y la IA puede generar nuevas ideas de productos, diseños y estrategias, acelerando el proceso de innovación y permitiendo la experimentación rápida.
En el análisis de Mercado y tendencias, la neurociencia ofrece perspectivas sobre el comportamiento del consumidor y las tendencias emergentes y la IA generativa, utiliza estos datos para predecir cambios en el mercado, identificar oportunidades de negocio y ajustar estrategias de marketing en tiempo real. Lo mismo en la optimización de procesos cuando la neurociencia puede identificar cómo los procesos cognitivos afectan la eficiencia y la eficacia de las operaciones empresariales y la IA automatiza y optimiza procesos, reduciendo costos y aumentando la eficiencia operativa.
Pero además puede significar mucho en la optimización de Recursos Humanos ya que la neurociencia contribuye a entender mejor la motivación, el bienestar y la productividad de los empleados y la IA puede crear programas personalizados de formación y desarrollo, diseñar estrategias para mejorar la satisfacción laboral y predecir tendencias en el rendimiento de los empleados.
En resumen, la integración de la neurociencia y la IA generativa puede ofrecer a los Directores de empresas una combinación poderosa de insights basados en el comportamiento humano y capacidades avanzadas de análisis y generación de contenido, lo que les permite tomar decisiones más informadas, personalizar experiencias y productos, y optimizar sus operaciones y recursos humanos de manera más efectiva.
Volviendo a las ideas prácticas que compartió Matías, los ejemplos de casos reales y las posibilidades que brinda la IA, nos presentó soluciones para las empresas de distintos rubros, costos, alternativas, equipamiento necesario, configuración a medida y todas las opciones existentes en el mercado y que se está utilizando en las empresas para el mejor rendimiento de las mismas.
Asimismo nos llamó la atención sobre los peligros de la utilización de distintas formas de IA y la necesidad de diseñar una IA segura.
AI Safety es un campo interdisciplinario que se ocupa de prevenir accidentes, mal uso u otras consecuencias perjudiciales que podrían resultar de los sistemas de inteligencia artificial, incluye la ética de la IA y el alineamiento de la IA, que buscan hacer que los sistemas de IA sean morales y beneficiosos. También abarca problemas técnicos como la monitorización para detectar riesgos y hacerlos altamente confiables.
“Más allá de la investigación en IA, implica el desarrollo de normas y políticas que promuevan la seguridad. Es un paraguas amplio que involucra temas como sesgos en procesos y deploy de self-driving cars, ḿás allá de la AGI”, aseguró Grinberg.
Diseñar una IA que haga lo que los humanos quieren que haga, es posible.
La alineación o el alineamiento (en inglés, AI alignment) busca formas de dirigir los sistemas de IA en conformidad con los objetivos, intereses y principios éticos de sus diseñadores.
Si un sistema persigue objetivos que no han sido previstos por los investigadores, se dice que no está alineado.
Sin dudas, es necesario que la IA sea robusta, que tenga monitoreo y esté alineada.
Volviendo a algo más que dijo Santiago Gallichio en la nota Editorial del NL publicado en mayo, este Taller fue el “precalentamiento para abordar el tema en toda su profundidad en la Jornada Técnica de este año” que se realizó el 13 de junio durante toda la mañana.
Seguiremos con el tema en este 2024 ya que la IA debe estar presente en la mesa del Directorio.