Las empresas ya usan algoritmos con IA para saber si aceptarías trabajar por menos dinero antes de contratarte

Sistemas de IA recopilan datos públicos, historial laboral y señales de vulnerabilidad económica para ajustar salarios y bonificaciones en tiempo real. La consecuencia es clara: dos personas pueden cobrar distinto por el mismo trabajo sin saberlo.

Las empresas llevan años ajustando precios según lo que saben de cada cliente. Ahora, esa misma lógica empieza a aplicarse al empleo. El llamado “salario de vigilancia” ya no afecta solo a repartidores o conductores de la gig economy, también se está extendiendo a recursos humanos para condicionar subidas salariales, incentivos e incluso el salario base que una persona estaría dispuesta a aceptar.

Cómo funciona el salario de vigilancia que ajusta tu sueldo en tiempo real

El mecanismo, en realidad, es más simple de lo que parece. Las empresas usan sistemas de IA que recopilan información pública, actividad en redes sociales, historial laboral y datos de comportamiento para calcular cuál es el salario mínimo aceptable para cada trabajador.

¿El problema? Que esa cifra no se fija por experiencia, capacidad o productividad, sino también por necesidad económica. Según Nina DiSalvo, directora de políticas de Towards Justice, algunos sistemas utilizan señales ligadas a la vulnerabilidad financiera, como haber pedido un préstamo rápido o tener un saldo elevado en la tarjeta de crédito, para inferir cuánto estaría dispuesto a aceptar un candidato. Y ojo, no se queda en la fase de contratación. Una vez dentro, el trabajador sigue siendo monitorizado.

Qué datos usan las empresas para decidir cuánto pagarte por trabajar

Los informes citados advierten de que estas herramientas observan cómo reacciona cada empleado ante las peticiones de la empresa. Con esa información, ajustan remuneración e incentivos.

Dato o señal detectadaPara qué lo usa el sistema
Frecuencia con la que acepta turnosMedir su disposición a trabajar por menos
Rapidez al responder ofertasAjustar salario o bonificaciones
Sueldo en empleos anterioresCalcular el mínimo aceptable
Préstamos o deudas pendientesInferir vulnerabilidad económica

El Washington Center for Equitable Growth analizó 500 empresas de IA dedicadas a la gestión laboral e identificó a 20 proveedores con alto riesgo de discriminación salarial algorítmica. De esos 20, un total de 16 integraban sus productos con plataformas de nómina o gestión de personal, lo que les daba acceso continuo a datos especialmente sensibles.

Qué riesgos genera este modelo salarial y qué frenos legales empiezan

Aquí está el quid de la cuestión: dos personas pueden hacer exactamente el mismo trabajo y cobrar cantidades distintas sin saber por qué. El trabajador no conoce qué datos se usan ni cómo se calcula su sueldo, porque estos sistemas funcionan como cajas negras.

El Worker Institute de Cornell University detectó que el 42% de los trabajadores de plataformas digitales en Nueva York aseguró haber cobrado menos de lo acordado y sin vías claras para reclamar. Además, la investigadora Veena Dubal lleva años documentando cómo estas plataformas bajan la remuneración de forma individualizada. Ante este escenario, ya empiezan a plantearse límites:

  • Colorado tramita el proyecto HB26-1210 para regular herramientas algorítmicas en la fijación de salarios.
  • En España, la Ley Rider introdujo cambios en el artículo 64.4 del Estatuto de los Trabajadores para dar acceso al algoritmo que organiza jornadas y pedidos.
  • La normativa europea de transparencia retributiva busca impedir grandes diferencias salariales entre personas que hacen el mismo trabajo.

En otras palabras, cuanto más vulnerable es el trabajador, más expuesto queda a cobrar menos. Y esa es precisamente la parte más preocupante de un sistema que, por ahora, opera casi siempre fuera de la vista de quien lo sufre.

Deja un comentario