Usarán una IA de Google para decidir si una persona es apta o no para un subsidio de desempleo
Un nuevo trabajo está a punto de ser remplazado. Nevada se convertirá en el primer estado de Estados Unidos en implementar una inteligencia artificial para decidir si los desempleados pueden recibir subsidios. La IA será utilizada para analizar y emitir recomendaciones sobre las apelaciones de personas que han solicitado este tipo de ayudas, una tarea que, hasta el momento, estaba exclusivamente en manos de funcionarios públicos.
El proyecto ha generado una mezcla de reacciones: desde aquellos que ven en la tecnología una oportunidad para acelerar procesos burocráticos, hasta los que alertan sobre los peligros de delegar en una IA decisiones que podrían cambiar la vida de miles de personas.
Cómo funcionará la IA para decidir la entrega de subsidios
El Departamento de Empleo, Formación y Rehabilitación de Nevada (DETR, por sus siglas en inglés) ha contratado los servicios de Google Vertex AI Studio, una plataforma que permitirá a la IA procesar los datos de las apelaciones de subsidios de desempleo. La inversión realizada para su implementación asciende a 1′383,838 de dólares.
Según lo informado, esta tecnología está diseñada para analizar las transcripciones de audiencias y entrevistas relacionadas con las solicitudes de ayuda, comparando la información obtenida con casos anteriores.
El sistema tiene como objetivo reducir el tiempo necesario para que los funcionarios redacten informes sobre las apelaciones. En la actualidad, los empleados del DETR tardan un promedio de tres horas en completar un solo informe, pero con la ayuda de la IA, este tiempo podría reducirse drásticamente a cinco minutos.
Esta mejora en la eficiencia es vista como una solución crucial, ya que Nevada enfrenta un atraso de 40.000 solicitudes de subsidio de desempleo, muchas de las cuales se acumularon durante la pandemia de COVID-19.
El DETR ha asegurado que las recomendaciones emitidas por la IA no serán definitivas y que un funcionario humano tendrá la responsabilidad de revisar cada una de ellas antes de emitir un fallo final. Según el director del departamento, Christopher Sewell, no habrá decisiones escritas por la IA que no pasen por una “interacción humana”.
Uno de los temores más extendidos es que los funcionarios puedan sentirse presionados para aceptar las recomendaciones de la IA sin una revisión exhaustiva, simplemente para reducir la acumulación de casos y acelerar el proceso. Este tipo de presión podría tener consecuencias graves para los solicitantes, ya que cualquier error o sesgo en las recomendaciones de la IA podría pasar desapercibido.
Además, se ha señalado un problema potencial relacionado con el sistema judicial. En palabras de Elizabeth Carmona, abogada senior de Servicios Legales de Nevada, las decisiones basadas en hechos que emitan los árbitros de apelación pueden ser difíciles de revertir en los tribunales si el error proviene de una recomendación de la IA. Esto significa que un fallo erróneo podría no tener un recurso adecuado en la corte, lo que añade una capa de vulnerabilidad al sistema.
Qué podría salir mal en este proceso
El uso de IA en un contexto tan sensible como el de las decisiones sobre ayudas económicas para personas desempleadas ha desatado un debate sobre la fiabilidad de este tipo de tecnologías. Las IA generativas, como la que se utilizará en Nevada, son conocidas por su tendencia a cometer errores, sesgos y, en algunos casos, a generar información falsa o “alucinaciones”.
Google ha afirmado que trabajará en conjunto con Nevada para identificar y corregir posibles sesgos, las preocupaciones persisten. Con la idea de evitar sesgos relacionados con género, raza y otros factores, lo que podría llevar a decisiones injustas para ciertos grupos de personas. En un estado como Nevada, donde la diversidad racial y cultural es significativa, este aspecto cobra mayor relevancia.
El hecho de que una IA de primera generación, todavía en proceso de maduración, esté encargada de hacer recomendaciones que impactarán directamente en la vida financiera de miles de ciudadanos ha sido visto como un riesgo considerable. A medida que la tecnología avanza, es evidente que no es infalible y que, en muchos casos, sus decisiones pueden estar lejos de ser correctas.
Según informes de Gizmodo, el sistema comenzará a funcionar en los próximos meses, y con ello, el temor de que los errores de la IA puedan traducirse en decisiones inapelables o difíciles de revertir.