La IA generativa obliga a tomar medidas de prevención del fraude en las empresas

La IA generativa obliga a tomar medidas de prevención del fraude en las empresas

El phishing, los deepfakes y la clonación de voz, suponen una amenaza para las empresas, ya que la IA convierte estas estafas en impecables.

 

La inteligencia artificial (IA) representa una herramienta potente que puede aumentar la productividad y eficiencia en las empresas, pero también tiene una cara negativa: la utilización para llevar a cabo fraudes. Según un estudio de FICO España, el 76% de los españoles ha sido víctima de algún tipo de estafa a través de mensajes, correos electrónicos o llamadas telefónicas. Sorprendentemente, un 8% realizó el pago a pesar de las advertencias de su banco, y solo el 19% informó a la entidad financiera sobre la suplantación.

Felipe García, abogado y socio del despacho Círculo Legal Madrid, advierte sobre la evolución de la detección de fraudes, ya que la inteligencia artificial generativa, como ChatGPT, es capaz de producir textos impecables que los delincuentes utilizan para realizar phishing y otros tipos de fraudes. García destaca la necesidad de reforzar la seguridad en el ámbito corporativo mediante el cumplimiento normativo (compliance) como una herramienta efectiva para prevenir estos ataques.

El abogado reconoce que esta tecnología representa un problema real tanto para empresas como para ciudadanos, y aboga por una regulación en el uso y desarrollo de la inteligencia artificial, especialmente en el caso de la IA generativa, sugiriendo limitar su aplicación. Según García, la suplantación de identidad, utilizada para abrir cuentas y acceder a grandes sumas de dinero, se ha vuelto cada vez más frecuente. Advierte que si no se controla el uso de esta tecnología, los problemas de fraude aumentarán de manera exponencial en los próximos meses. Destaca la necesidad de una rápida reacción por parte de la Unión Europea y los Estados Miembros, ya que la realidad supera a menudo a la regulación y a las fuerzas de seguridad del Estado, que carecen de margen de maniobra en muchos casos.

La importancia del compliance

La solución a estas amenazas se encuentra en la prevención y la formación. El abogado destaca que «las empresas deben revisar sus políticas de riesgo y, si observan un aumento potencial en el fraude, realizar las inversiones necesarias para prevenir estos comportamientos irregulares». Según Transunion, casi el 5% de las transacciones digitales realizadas en España en la primera mitad del año fueron sospechosas de fraude.

Relacionados  Avances tecnológicos en la Vall d'uixó con la 'Smart City'

En opinión de García, la inversión para abordar este problema debe abarcar tanto aspectos técnicos como humanos. «Es crucial contar con equipos liderados por personas que impulsen planes de formación específicos para prevenir fraudes en todas sus modalidades. Los sistemas, modelos o programas por sí solos no son suficientes; es necesario que haya personas que involucren a la organización en acciones de formación destinadas a prevenir el fraude en todas sus formas», sostiene. En este contexto, destaca la figura fundamental del Compliance Officer como el protagonista principal para afrontar estos desafíos. ¿Quién mejor que él para asumir estos retos?

Regulación necesaria

Para finales de año, se espera que se llegue a un acuerdo en el Consejo Europeo sobre el lanzamiento de la Ley de Inteligencia Artificial de la UE, una norma pionera que establecerá obligaciones para proveedores y usuarios según el nivel de riesgo, colocando a la UE a la vanguardia de la regulación en este ámbito.

Según García, este reglamento es «muy necesario para regular el desarrollo y uso de la IA, una tecnología líder, disruptiva y muy útil, pero con un potencial lesivo de considerable alcance».

El portavoz de Círculo Legal Madrid destaca que España contará con un regulador específico: la Agencia Estatal para la Supervisión de la Inteligencia Artificial (Aesia), un organismo estatal con sede en A Coruña cuya entrada en funcionamiento está prevista antes de que finalice el 2023.

García menciona la implementación de un «sandbox» para poner a prueba esta regulación en las empresas que se encuentren en este nuevo entorno desregulado. Además, señala que la IA no se limita solo a la protección de datos, ya que afecta a otros derechos fundamentales. Destaca la importancia de examinar cuidadosamente su implementación y cómo se coordina con el regulador existente en materia de privacidad, que es la Agencia Española de Protección de Datos (AEPD).