Las tecnologías biométricas ya forman parte de nuestro día a día. A través de nuestra huella digital, el reconocimiento facial o escaneo de iris podemos desbloquear el teléfono celular, acceder a apps móviles o ingresar en nuestras oficinas. Así, las empresas privadas refuerzan la seguridad y agilizan procesos o experiencias de consumo.
Por su parte, los gobiernos también emplean estas tecnologías en sistemas de identidad y control migratorio, integrándolas en pasaportes electrónicos, visas y trámites oficiales; además, son clave para el registro de población, licencias y servicios de seguridad pública.
La expansión de las tecnologías biométricas promete mayor seguridad, eficiencia y control organizacional, pero también abre una frontera ética inquietante: ¿cómo impactan en la dignidad humana?
Los datos biométricos no solo resguardan identidades y previenen riesgos, sino que también pueden vigilar, deshumanizar y perpetuar desigualdades. Estas herramientas pueden actuar como una espada de doble filo. En un mundo marcado por el capitalismo de vigilancia, el reto para las organizaciones no es si adoptan la biometría, sino cómo lo hacen sin sacrificar el valor intrínseco de las personas.
El artículo “Supporting and Humiliating Dignity with Biometric Technologies: An Affordance Perspective” (Journal of Business Ethics, 2024), coescrito con Jayson Killoran (Universidad de Victoria, Canadá), Jasmin Manseau (Telfer School of Management, Canadá) y Andrew Park (Universidad de Victoria, Canadá), analiza los impactos éticos de las tecnologías biométricas en la dignidad humana, un tema poco explorado frente a debates más frecuentes sobre privacidad y discriminación.
En este estudio, proponemos un marco conceptual basado en la teoría de los affordances (posibilidades de acción que ofrece una tecnología) para explicar cómo los biométricos pueden simultáneamente apoyar y humillar la dignidad de las personas en contextos organizacionales.
Evolución de la biometría
El desarrollo de la biometría puede entenderse en tres grandes generaciones, cada una marcada por avances técnicos y por dilemas éticos específicos.
- ¿Quién eres?: La primera generación, que se popularizó a finales de los años noventa, se enfocó en responder la pregunta “¿quién eres?”. Su objetivo era autenticar la identidad de una persona a partir de atributos fisiológicos estáticos, como la huella digital, el iris o la retina. Ejemplos cotidianos incluyen el uso de huellas para desbloquear cajeros automáticos, abrir la puerta de un automóvil o ingresar a edificios con acceso restringido.
El riesgo ético predominante en esta etapa fue la invasión de la privacidad, ya que el almacenamiento masivo de datos biométricos personales planteó interrogantes sobre quién tenía acceso a esta información y cómo se usaba.
- ¿Cómo eres?: Con la segunda generación, que comenzó a consolidarse en la década de 2010, la pregunta cambió a “¿cómo eres?”. El foco ya no estaba únicamente en la verificación de la identidad, sino en la interpretación de comportamientos dinámicos. Tecnologías como el reconocimiento de voz, los patrones de tecleo, los movimientos del cursor o el análisis de la forma de caminar empezaron a emplearse tanto en sectores de seguridad como en entornos laborales y de consumo. Por ejemplo, los bancos adoptaron sistemas de análisis de escritura digital para detectar fraudes, mientras que call centers comenzaron a usar reconocimiento de voz para evaluar el tono emocional de sus empleados.
Sin embargo, esta generación introdujo un nuevo dilema ético: la discriminación. Al identificar género, edad, etnia u orientación sexual, estos sistemas podían reforzar sesgos y prácticas excluyentes, como negar oportunidades laborales a ciertos grupos o generar perfiles de riesgo que perpetuaban estigmatización.
- ¿Por qué eres así? / ¿Qué ocurrirá después?: En los últimos años ha emergido una tercera generación de biometría, que busca responder preguntas más profundas: “¿por qué eres así?” y “¿qué ocurrirá después?”. Impulsada por la inteligencia artificial (IA) y el aprendizaje profundo, esta etapa va más allá de la simple identificación o monitoreo de comportamientos para adentrarse en la interpretación de intenciones y predicción de resultados futuros. Ejemplos ilustrativos incluyen el uso de cámaras con IA en Amazon para analizar las expresiones faciales y el estado emocional de sus repartidores, con el fin de corregir conductas de riesgo antes de que ocurra un accidente. Otro caso es el de la minera BHP Billiton, que incorporó cascos inteligentes capaces de detectar signos de fatiga en sus trabajadores y anticipar cuándo sus tareas podrían volverse inseguras. Asimismo, aplicaciones de salud y fertilidad recopilan datos de temperatura corporal o ritmos menstruales para predecir ciclos reproductivos, lo que ha generado controversia sobre la venta de esta información a aseguradoras sin consentimiento explícito.
Esta tercera generación, aunque ofrece beneficios en términos de prevención de accidentes, personalización de servicios y mejora de la salud laboral, plantea un dilema mayor: el capitalismo de vigilancia. En este modelo, la información biométrica se convierte en un recurso para controlar y monetizar la conducta humana. Así, los datos íntimos de las personas dejan de ser simples indicadores para convertirse en mercancía valiosa, consolidando el poder de unas pocas corporaciones tecnológicas y amenazando con deshumanizar a los individuos al reducirlos a meros flujos de datos.
Reivindicar vs humillar la dignidad humana
Hablar de tecnologías biométricas implica más que discutir sobre seguridad, eficiencia o privacidad. En el centro del debate se encuentra un valor fundamental que atraviesa la filosofía, la ética y la vida organizacional: la dignidad humana. Este concepto remite al reconocimiento del valor intrínseco de toda persona y a la obligación de tratar a los individuos con respeto, sin reducirlos a simples instrumentos de control o producción.
Desde Kant hasta los marcos contemporáneos de derechos humanos, la dignidad se ha entendido como el núcleo de la condición humana, pero sus expresiones pueden variar: desde la dignidad inherente que todos poseen por el hecho de existir, hasta aquella que se construye mediante el comportamiento virtuoso o se reconoce a través de logros y estatus sociales. Así, se distinguen tres formas de dignidad:
- Inherente: valor intrínseco de todo ser humano.
- Conductual: derivada de vivir conforme a normas y virtudes sociales.
- Meritocrática: asociada a logros, estatus o reconocimiento social.
La biometría puede reivindicar estas formas de dignidad (claims) o humillarlas (affronts), por ejemplo al proteger la seguridad de un trabajador o, por el contrario, reducirlo a un conjunto de datos. Por ello, resulta clave para comprender sus verdaderas implicaciones éticas en el ámbito laboral y organizacional.
Seis affordances biométricos
Los affordances son las posibilidades de acción que ofrece un objeto, tecnología o entorno a una persona que lo usa. Los datos biométricos ofrecen distintas posibilidades de uso que transforman la manera en que personas, empresas y gobiernos interactúan con esta tecnología y gestionan la identidad. Los principales affordances de la biometría se dividen en dos categorías:
A) Inhibidores (control):
- Autenticación: permiten verificar la identidad de forma rápida y segura sin necesidad de contraseñas. Por ejemplo, el uso de e-pasaportes o huellas digitales para brindar una capa adicional de autenticación en la seguridad aeroportuaria o en cajeros automáticos.
- Control de conducta: permite optimizar las operaciones al restringir el movimiento humano, por ejemplo, reduciendo actividades ineficientes. Por ejemplo, el uso de reconocimiento facial y análisis de la forma de caminar (gait analysis) para supervisar las acciones de empleados en el lugar de trabajo y corregir comportamientos considerados ineficientes.
- Adhesión a la seguridad: permite reducir accidentes y lesiones en el lugar de trabajo. Un ejemplo es el caso de BHP Billiton mencionado anteriormente, donde cascos inteligentes detectan signos de fatiga en mineros y notifican a los supervisores para ajustar turnos y prevenir lesiones laborales.
B) Aumentadores (conocimiento y feedback):
- Adquirir visión estratégica: permite aprovechar datos organizacionales agregados con fines de oportunidades estratégicas orientadas al futuro. Es el caso de empresas que usan reconocimiento facial en almacenes para analizar movimientos de empleados, productividad e ineficiencias, con el fin de rediseñar el espacio y optimizar la recuperación de inventario.
- Facilitar el intercambio de conocimiento: permite fomentar el aprendizaje y el intercambio de conocimiento en toda la organización. Por ejemplo, los call centers que emplean biometría conductual para analizar patrones de voz en situaciones de agresión, y en tiempo real sugerir al personal ajustar su tono, facilitando entrenamientos y aprendizajes compartidos en la organización.
- Digitalizar retroalimentación personal: permite proporcionar datos objetivos a las personas empleadas como retroalimentación sobre su desempeño. Por ejemplo, existen dispositivos wearables (Fitbit, Apple Watch) que capturan indicadores de salud como ritmo cardiaco o temperatura; estos datos pueden usarse para que las personas empleadas demuestren mejoras de rendimiento y justifiquen promociones o compensaciones. También pueden servir como evidencia objetiva en casos de maltrato o acoso laboral.
Tensiones paradójicas de la biometría
El análisis de los affordances biométricos muestra que estas tecnologías no solo tienen la capacidad de apoyar la dignidad, sino también de humillarla. Esto genera un conjunto de tensiones éticas que en el estudio conceptualizamos como paradojas, ya que presentan fuerzas contradictorias que coexisten simultáneamente. A continuación, se explican seis de las tensiones más relevantes.
- Mantener la seguridad vs imponer vigilancia: Las tecnologías biométricas pueden contribuir a proteger la integridad física de los trabajadores al identificar riesgos antes de que se materialicen. Sin embargo, ese mismo monitoreo constante puede convertirse en una forma de vigilancia invasiva, donde cada movimiento es observado y evaluado. Así, lo que en principio busca salvaguardar la dignidad inherente —el derecho a un trabajo seguro— puede terminar socavando la dignidad conductual, al restringir la autonomía y generar un ambiente de desconfianza.
- Mejorar la rendición de cuentas vs omitir el contexto: La recopilación de datos biométricos permite que las organizaciones atribuyan responsabilidades con precisión: saber quién accedió a un área restringida o quién cometió un error operativo. Esto apoya la dignidad meritocrática, pues garantiza que el reconocimiento o la sanción recaigan en la persona correcta. No obstante, esta misma objetividad puede volverse ciega al contexto humano. Una cámara puede registrar que un empleado llegó tarde, pero no captar que estaba cuidando a un familiar enfermo. Al ignorar las circunstancias, la organización corre el riesgo de etiquetar como negligencia lo que en realidad responde a factores legítimos, humillando así la dignidad de quien es injustamente juzgado.
- Fortalecer la seguridad vs perpetuar la discriminación: El uso de biometría para autenticar identidades ofrece altos niveles de seguridad en accesos a bancos, aeropuertos o dispositivos móviles. Este potencial respalda la dignidad conductual, ya que protege a las personas de usurpaciones o fraudes. Sin embargo, los algoritmos de reconocimiento facial y otras herramientas no son neutrales: investigaciones han demostrado que pueden presentar sesgos raciales o de género, incrementando la vigilancia sobre ciertos grupos y reproduciendo prácticas de exclusión. En este caso, el mismo mecanismo que busca proteger puede terminar humillando la dignidad inherente, al tratar a unas personas como menos confiables que otras.
- Proporcionar retroalimentación vs deshumanizar al empleado: Los datos biométricos ofrecen una fuente valiosa de feedback objetivo: un trabajador puede usar registros de desempeño para solicitar un ascenso o mejorar sus prácticas laborales. Esto fortalece la dignidad meritocrática al reconocer logros con base en evidencia concreta. Sin embargo, cuando las métricas biométricas se convierten en el único criterio de evaluación, los empleados corren el riesgo de ser vistos como simples números o patrones fisiológicos. En lugar de valorar la complejidad de su experiencia y creatividad, se reduce su humanidad a datos medibles, humillando la dignidad inherente.
- Estandarizar la capacitación vs homogeneizar el desempeño: La biometría permite a las empresas identificar conductas óptimas y diseñar programas de entrenamiento que eleven la calidad del trabajo. Esto apoya la dignidad conductual al ofrecer a los empleados la oportunidad de alinearse con valores y buenas prácticas de la organización. Sin embargo, cuando la capacitación se estandariza en exceso, se corre el riesgo de anular la diversidad de talentos. Los trabajadores dejan de destacar por sus capacidades únicas y se ven presionados a encajar en un molde uniforme, lo que limita la posibilidad de alcanzar distinciones y reconocimiento individual. De este modo, la dignidad meritocrática se ve humillada, ya que se restringe la oportunidad de sobresalir.
- Liberar autonomía vs fomentar metas cortoplacistas: Algunos sistemas biométricos ofrecen información que ayuda a fijar objetivos claros y medibles, permitiendo que los empleados elijan libremente cómo alcanzarlos. Esto respalda la dignidad inherente al reconocer su capacidad de autodeterminación. Sin embargo, la autonomía también puede derivar en conductas miope, donde los trabajadores priorizan recompensas inmediatas —como cumplir metas de ventas mensuales— a costa de objetivos más sostenibles. Así, aunque se respete la libertad individual, se corre el riesgo de humillar la dignidad conductual, al incentivar acciones poco éticas o contrarias al bien común de la organización.
En conjunto, estas tensiones ponen de manifiesto que la biometría es una herramienta de doble filo: puede ser un mecanismo para proteger, reconocer y potenciar a las personas, pero también para vigilarlas, homogeneizarlas y deshumanizarlas. La responsabilidad ética de las organizaciones consiste en reconocer estas paradojas y gestionarlas conscientemente, para que el valor de la dignidad humana no se sacrifique en nombre de la eficiencia o el control.
En nuestro artículo sostenemos que las empresas deben asumir la responsabilidad ética de gestionar estas tensiones, equilibrando la creación de valor con la protección de la dignidad humana. La teoría de affordances ofrece un marco para diseñar políticas y prácticas que reconozcan tanto los riesgos como las oportunidades de la biometría en el trabajo.