Por qué fracasan las políticas corporativas de IA: Descuidar la gobernanza interfuncional de la IA

Allison Spagnolo CIPP / Jacqueline Pluta ACAMS / Morgan Maiorino 14 de noviembre de 2024

Al principio del uso generalizado de la IA, su capacidad para producir resultados rápidos y aparentemente fiables distrajo a muchas empresas y particulares de los peligros de utilizar herramientas de IA como un "juguete nuevo". Una vez pasada la novedad, los usuarios de IA se encuentran con la realidad de que los modelos de IA son simplemente una herramienta para ayudar a encontrar una solución, no la solución en sí misma. Centrarse demasiado en el componente de IA de una solución mientras se descuida su gestión y supervisión puede dar lugar a varios problemas, como resultados sesgados o inexactos, violaciones de datos y responsabilidad legal.

Por ejemplo, pensemos en una empresa que integra rápidamente la IA en su proceso de contratación para agilizar la selección de candidatos. Al principio, la herramienta de IA parece funcionar excepcionalmente bien, filtrando rápidamente miles de solicitudes e identificando a los mejores candidatos. Sin embargo, con el tiempo, surge un patrón preocupante en el que el sistema de IA comienza a mostrar un sesgo significativo, favoreciendo desproporcionadamente a los solicitantes de determinados orígenes y discriminando inadvertidamente a otros. Este sesgo resulta en un desastre de relaciones públicas, que conduce a acusaciones de prácticas de contratación injustas y desafíos legales. La reputación de la empresa sufrirá sin duda un duro golpe, y los costes financieros de rectificar la situación serán considerables.

Este ejemplo subraya la importancia crítica de implantar un sólido marco de gestión de riesgos de IA interfuncional para identificar, supervisar y mitigar posibles problemas antes de que se conviertan en problemas graves. La IA está evolucionando tan rápidamente que muchas empresas están desarrollando e implantando la tecnología antes de crear por completo el marco de gestión de riesgos correspondiente. Sin embargo, nunca es demasiado tarde para trabajar con todos los departamentos afectados en la implantación de una sólida política corporativa de IA que aborde la gestión y supervisión de los riesgos de la IA. Esto incluye la creación de estructuras claras de gobernanza de la IA, la definición de funciones y responsabilidades, y el establecimiento de protocolos para auditorías y revisiones periódicas.

La integración de la supervisión humana multifuncional en el ciclo de vida de la IA permite a los responsables gestionar de forma proactiva y mantener el pulso de los posibles problemas. Los revisores humanos pueden ayudar a detectar errores que los sistemas automatizados podrían pasar por alto y proporcionar un contexto valioso que los modelos basados en datos podrían pasar por alto.

Un elemento clave de la gobernanza de datos es establecer políticas y procedimientos claros de IA sobre cómo se recopilan, almacenan y utilizan los datos. La supervisión de estas políticas debe basarse en el riesgo, ser continua y abarcar diversas métricas como la seguridad, la precisión y la imparcialidad. De este modo, las organizaciones pueden identificar y abordar de forma proactiva nuevos problemas, actualizar los controles de los ya existentes y garantizar que el sistema de IA siga siendo fiable y eficaz.

Tanto si su organización está empezando a explorar la IA como si busca perfeccionar las políticas de IA existentes, nuestros expertos están preparados para ayudar a garantizar que su organización implemente una estrategia de IA responsable y segura. Nuestro equipo se dedica a colaborar con las empresas para navegar por las complejidades de la gobernanza, la privacidad y el cumplimiento de la IA.

Alison Spangolo con el pelo rizado lleva una chaqueta negra y una camisa a cuadros

Allison Spagnolo CIPP

Director General de Protección de Datos

Como directora de privacidad y directora ejecutiva sénior, Allison Spagnolo dirige la práctica de Inteligencia Artificial (IA), garantizando la gobernanza y el cumplimiento para el uso de la IA por parte de los clientes, y los compromisos de cumplimiento en sectores como las instituciones financieras, la sanidad y los contratistas gubernamentales. Esto incluye la revisión de las cuestiones relacionadas con la lucha contra el blanqueo de capitales (AML) y las sanciones (OFAC) para los bancos globales y las empresas multinacionales, así como el asesoramiento sobre cuestiones de cumplimiento de delitos financieros específicos para los intercambios de criptomoneda y las empresas Fintech. Ha viajado extensamente por Europa y Asia con el fin de dirigir y llevar a cabo inspecciones y revisiones in situ relacionadas con supervisiones del NYDFS y la Reserva Federal, auditorías BSA/AML y otros asuntos de cumplimiento.

Jacqueline Pluta ACAMS

Analista

Jacqueline Pluta es analista en Guidepost Solutions y trabaja en una gran variedad de asuntos relacionados con diversos sectores. Recientemente, la Sra. Pluta llevó a cabo una revisión de cumplimiento para un banco comunitario con 13 sucursales, donde desarrolló varios procedimientos de revisión para comprobar el cumplimiento del banco con los requisitos reglamentarios, incluida la Ley de Igualdad de Oportunidades de Crédito y la Ley de Veracidad en el Ahorro.

Morgan Maiorano con camisa de rayas sonríe a la cámara

Morgan Maiorino

Analista principal

Morgan Maiorino es analista de cumplimiento e investigaciones en Guidepost Solutions. Apoya a los grupos de práctica de Investigaciones + Inteligencia de Negocios, Riesgo Corporativo + Cumplimiento, Integridad Institucional e Inmigración + Servicios Fronterizos.

InvestigaciónLíneas directas