Cómo crear una estrategia para mitigar los riesgos de la IA

Allison Spagnolo CIPP / Jacqueline Pluta ACAMS / Morgan Maiorino 31 de octubre de 2024

En la rápida evolución de la inteligencia artificial, las empresas se ven a menudo seducidas por las numerosas ventajas que puede ofrecer la IA, desde la mejora de la eficiencia y la productividad hasta la obtención de una ventaja competitiva. Sin embargo, muchas empresas tienden a pasar por alto riesgos significativos de la IA debido a la falta de conciencia sobre las complejidades y los posibles escollos, el exceso de confianza en la infalibilidad de la tecnología, la inmensa presión para innovar y las limitaciones de recursos que hacen que la aplicación de marcos sólidos de gobernanza de la IA sea un reto. El panorama normativo de la IA está aún en fase de formación, y las distintas jurisdicciones adoptan enfoques variados, lo que crea confusión e incertidumbre para las empresas. Algunas empresas subestiman el impacto de los riesgos de la IA en sus operaciones y reputación, creyendo que los beneficios superan con creces los inconvenientes o asumiendo que pueden gestionar los riesgos a medida que surgen. Ignorar los riesgos de la IA es un error fatal y puede socavar las ventajas que la IA pretende ofrecer.

Las empresas deben encontrar un equilibrio entre la adopción de la innovación de la IA y la aplicación de marcos sólidos de gestión de riesgos de la IA mediante la sensibilización interna, la dedicación de recursos y la adhesión a normas éticas para mitigar los riesgos de la IA y garantizar el éxito de su adopción.

LOS 3 RIESGOS AI QUE NUNCA DEBE IGNORAR

Cumplimiento normativo: A medida que la IA se hace más omnipresente, las empresas que la adoptan deben dirigir su uso en un panorama normativo incierto. La IA ha superado los controles a su alrededor, obligando a los legisladores a adoptar normativas reactivas que han desarrollado enfoques diferentes para las distintas jurisdicciones. Las empresas deben navegar por estas normativas para garantizar que sus políticas corporativas de IA cumplen leyes como el Reglamento General de Protección de Datos (RGPD) en Europa, la Ley de Inteligencia Artificial de la UE en la UE, la Orden Ejecutiva 14110 en Estados Unidos y otras leyes locales. La falta de normativas estandarizadas en las distintas regiones expone a las empresas multinacionales a un mayor riesgo de incumplimiento. A pesar de los retos que plantean las diferentes normas de cumplimiento, todas las normativas sobre IA se centran en las mismas preocupaciones generales que existían antes del uso generalizado de la IA, como la privacidad de los datos y la parcialidad, y hacen hincapié en adoptar un enfoque basado en el riesgo con controles adecuados para mitigar el riesgo específico de la empresa.

Robo de datos: Si bien la IA puede reforzar las medidas de ciberseguridad mediante la detección de amenazas y el análisis rápido de grandes conjuntos de datos, también presenta nuevas vulnerabilidades, como el robo de datos. Los actores maliciosos pretenden explotar las vulnerabilidades de los controles de IA para llevar a cabo sofisticados ciberataques, como la violación de datos, el ransomware y la distribución de malware. Las amenazas también pueden surgir desde dentro de la empresa. Los empleados pueden violar inadvertidamente las leyes de privacidad de datos introduciendo información sensible en herramientas de IA que no garantizan la protección de los datos.

Para combatir esta situación, los responsables de la gestión de los riesgos de ciberseguridad pueden tener que reevaluar la importancia relativa de los activos de datos, actualizar el inventario de activos de datos y tener en cuenta las nuevas amenazas y riesgos. Esto es especialmente importante en sectores como la sanidad y las finanzas, que protegen datos personales y confidenciales.

Desinformación: Los sistemas de IA, especialmente los que generan contenidos, pueden utilizarse para difundir información falsa, lo que puede acarrear responsabilidades legales y pérdida de reputación. Las políticas y procedimientos de las empresas deben dejar claro que los usuarios de IA deben verificar toda la información recibida a través de la IA. La SEC y el DOJ advirtieron recientemente a las empresas públicas contra el "lavado de IA", un fenómeno en el que las empresas exageran las capacidades de sus sistemas de IA para atraer clientes o inversores. Seguir las mejores prácticas y crear controles en torno a la transparencia y la precisión coloca a las empresas en la mejor posición para mantener el cumplimiento de las leyes de protección del consumidor. Además, contribuirá a fomentar un entorno de confianza entre las empresas y sus clientes.

Atravesar las complejidades de la gobernanza de la IA requiere algo más que buenas intenciones; exige un enfoque estratégico que alinee las necesidades operativas con los mandatos normativos y los riesgos emergentes. A medida que el panorama normativo sigue evolucionando y los riesgos de la IA se vuelven más sofisticados, asociarse con un consultor externo experimentado puede ser la diferencia entre ir por delante de los retos o quedarse atrás. Guidepost aporta una profunda experiencia en cumplimiento normativo, gestión de riesgos y desarrollo de políticas, garantizando que su marco corporativo de IA sea exhaustivo y resistente. Con evaluaciones personalizadas, orientación práctica y pruebas sólidas, Guidepost puede ayudar a su organización a mitigar los riesgos de la IA y aprovechar todo su potencial.

Alison Spangolo con el pelo rizado lleva una chaqueta negra y una camisa a cuadros

Allison Spagnolo CIPP

Director General de Protección de Datos

Como directora de privacidad y directora ejecutiva sénior, Allison Spagnolo dirige la práctica de Inteligencia Artificial (IA), garantizando la gobernanza y el cumplimiento para el uso de la IA por parte de los clientes, y los compromisos de cumplimiento en sectores como las instituciones financieras, la sanidad y los contratistas gubernamentales. Esto incluye la revisión de las cuestiones relacionadas con la lucha contra el blanqueo de capitales (AML) y las sanciones (OFAC) para los bancos globales y las empresas multinacionales, así como el asesoramiento sobre cuestiones de cumplimiento de delitos financieros específicos para los intercambios de criptomoneda y las empresas Fintech. Ha viajado extensamente por Europa y Asia con el fin de dirigir y llevar a cabo inspecciones y revisiones in situ relacionadas con supervisiones del NYDFS y la Reserva Federal, auditorías BSA/AML y otros asuntos de cumplimiento.

Jacqueline Pluta ACAMS

Analista

Jacqueline Pluta es analista en Guidepost Solutions y trabaja en una gran variedad de asuntos relacionados con diversos sectores. Recientemente, la Sra. Pluta llevó a cabo una revisión de cumplimiento para un banco comunitario con 13 sucursales, donde desarrolló varios procedimientos de revisión para comprobar el cumplimiento del banco con los requisitos reglamentarios, incluida la Ley de Igualdad de Oportunidades de Crédito y la Ley de Veracidad en el Ahorro.

Morgan Maiorano con camisa de rayas sonríe a la cámara

Morgan Maiorino

Analista principal

Morgan Maiorino es analista de cumplimiento e investigaciones en Guidepost Solutions. Apoya a los grupos de práctica de Investigaciones + Inteligencia de Negocios, Riesgo Corporativo + Cumplimiento, Integridad Institucional e Inmigración + Servicios Fronterizos.

InvestigaciónLíneas directas