Las empresas enfrentan un momento crítico entre la innovación y la responsabilidad ética en la era de la inteligencia artificial (IA). En diversas industrias, la IA brinda oportunidades de eficiencia, productividad e innovación. Las soluciones impulsadas por la IA revolucionan la forma en que funcionan las empresas, utilizando algoritmos que soportan las decisiones y los procesos.
Sin embargo, esta fuerza transformadora también incluye importantes consideraciones éticas que no se deben ignorar. Existen países y regiones que están implementando leyes que buscan regular el uso de la IA. La Unión Europea, por ejemplo, presentó la primera ley integral de la IA del mundo, el “EU AI Act”. Los legisladores de la Unión Europea alcanzaron un acuerdo político en diciembre de 2023.
El primer reglamento establece un marco común para el uso y el suministro de sistemas de IA en la UE que ofrece una clasificación con diferentes requisitos y obligaciones, adaptando un enfoque basado en los riesgos. Cabe mencionar que no todos los sistemas de IA de “alto riesgo”, que pueden tener un impacto perjudicial en la salud, la seguridad o los derechos fundamentales de las personas, son prohibidos. En otras palabras, es posible que se autoricen ciertos sistemas de IA de alto riesgo, pero están sujetas a un conjunto de requisitos y obligaciones para obtener acceso al mercado de la UE.
Aunque en muchas regiones del mundo todavía no existen este tipo de leyes o regulaciones, las empresas tienen la responsabilidad de asegurar de que sus sistemas de IA sean construidas e implementadas de acuerdo con los principios éticos y cuidando los derechos humanos. Esto incluye, por ejemplo, la transparencia respecto a la toma de decisiones basada en los algoritmos, la responsabilidad por sus resultados y la protección de la privacidad. Los stakeholders exigen transparencia sobre la información recopilada, cómo se utiliza y las consecuencias potenciales de las decisiones impulsadas por la IA.
Los sesgos en los algoritmos de IA plantean un desafío ético importante. Los sistemas de IA pueden mantener y fomentar los sesgos si no se controlan de manera activa, ya sea que se trate de un sesgo derivado de los datos en la fase de entrenamiento o de la persistencia de prejuicios sociales. De esta manera, las empresas deben enfocarse en la identificación y prevención de sesgos cuando se desarrollan e implementan soluciones de IA.
Para eso se requieren equipos diversos e inclusivos, protocolos de pruebas rigurosas y el monitoreo continuo. Se sugiere que los negocios adopten una estrategia proactiva y holística en la gestión de IA para abordar estos desafíos éticos. Esto incluye establecer estándares éticos claros que aseguren el desarrollo y la aplicación de la IA, incorporen la ética en el proceso de diseño desde el principio y fomenten una cultura de conciencia ética y responsabilidad en todo el negocio.
La colaboración con los stakeholders es esencial para incluir activamente información, la retroalimentación y supervisión desde diversas perspectivas. Así, las empresas pueden asegurar que sus iniciativas de IA se alinean con los valores y expectativas de la sociedad.
Por otro lado, está la utilización responsable de la IA que se convirtió en una divisa estratégica para las empresas. Al priorizar la ética en la IA, las empresas pueden construir confianza con los clientes, mejorar la reputación de la marca, mitigar los riesgos legales y reglamentarios, y aprovechar todo el potencial de la innovación impulsada por la IA.
En conclusión, las implicaciones éticas de la IA en los negocios son complejas y multidisciplinarias, que requieren una consideración metódica e iniciativas proactivas. A medida que las empresas continúen adoptando tecnologías de IA, es importante reconocer las responsabilidades éticas que conllevan y esforzarse para poder aprovechar las posibilidades de la IA de una manera ética, equitativa y sostenible.
La autora es profesora de EGADE Business School de la Escuela de Negocios del Tecnológico de Monterrey.
Artículo publicado originalmente en El Financiero.