Extracción de datos, prevención de fraude y uso de inteligencia artificial en la era digital

Dr. José Luis Hernández Sánchez, socio fundador y director general de White Bx Project.

Dos hechos han acelerado recientemente el debate sobre el uso de sistemas de inteligencia artificial: El primero lo encontramos con el Chat GPT y lo que hoy se conoce como “Inteligencia Artificial Generativa”. El segundo está en la carta firmada por más de un millar de empresarios, intelectuales e investigadores relacionados con esta tecnología solicitando una moratoria en su desarrollo para primero crear el andamiaje legal que permita su uso regulado. En México tanto el Senado de la República como la Cámara de Diputados ya han iniciado las discusiones sobre el tema. Tenemos el gusto de entrevistar al doctor José Luis Hernández quien nos explica estos temas desde el enfoque de la prevención de fraudes y la extracción de datos.

Doctor Hernández: ¿Qué es la inteligencia artificial?

Gracias a USECNETWORK por este espacio. La inteligencia artificial se ha venido definiendo de diversas maneras desde 1956. Pero creo la definición más actual nos la da la Comisión Nacional de Seguridad en Inteligencia Artificial de los Estados Unidos, al tomar las aportaciones de científicos como Andrew Moore, Martial Hebert y Shane Shaneman. Para ellos la inteligencia artificial es una constelación de tecnologías que dependen de elementos interrelacionados que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física similares a las humanas; que pueden aprender y actuar de forma autónoma, ya sea como agentes de software o robots incorporados. El proceso de aprendizaje basado en Machine Learning o Deep Learning (Redes Neuronales Convolucionales Profundas), contempla “algoritmos de caja negra” que son los parámetros y ordenes en que basa un agente de software o robot para realizar una actividad. El funcionamiento de estos algoritmos ha traído exigencias éticas hacia las empresas, y también, cargas regulatorias.

¿Qué son los algoritmos de caja negra?

El término “algoritmo de caja negra” puede referirse a un sistema cuyo funcionamiento es “opaco” y del cual no es posible dar una interpretación en lenguaje natural; podemos observar sus entradas y salidas, pero no podemos decir cómo una se convierte en la otra. Algo que se está analizando por los expertos es la generación de “sesgos algorítmicos” producidos dentro de esas cajas negras.

¿Qué son los sesgos algorítmicos?

Los “sesgos algorítmicos” derivan del funcionamiento de determinados modelos de IA que utilizan Machine Learning o Deep Learning y pueden afectar, directa o indirectamente, a las personas en sus derechos humanos. Algunos factores como la clase socioeconómica o el nivel educativo, el sexo, la raza, la orientación sexual, la edad, alguna discapacidad y otros atributos relacionados con la dignidad de la persona (la vida, su imagen, la libertad, entre otros) son estudiados por expertos para construir normas de protección social por el uso de IA.

¿En el ámbito de la seguridad y prevención de fraudes existen casos de afectación a derechos humanos?

Desde mi punto de vista, los modelos de inteligencia artificial basados en Machine Learning y Deep Learning están generando resultados muy positivos en el sector de la seguridad. Si bien existen casos documentados sobre el inadecuado uso de sistemas de inteligencia artificial para la identificación facial, la mayoría de los modelos de inteligencia artificial no impactan a derechos humanos en el sector de la seguridad (y también en muchos otros). Existe un amplio abanico de delitos que requieren de herramientas de inteligencia artificial para lograr investigaciones con estándares probatorios acorde a nuestro sistema de justicia. La inteligencia artificial es la herramienta ideal para eficientar el trabajo de las personas responsables de la seguridad física y de la seguridad lógica. Las personas responsables de la seguridad en una empresa o aquellas que están realizando investigaciones para preservar el Estado de Derecho, requieren de estas herramientas. De lo contrario su trabajo se vuelve ineficiente y se obstaculiza sin razón.

White Bx Project trajo a México las auditorías algorítmicas y el uso de inteligencia artificial para la extracción de datos en teléfonos móviles, smartwatchs y nube. ¿Nos puede dar más detalles de estos temas?

Una auditoría algorítmica es un análisis que se hace para detectar y mitigar los riesgos que genera el uso de determinados tipos de inteligencia artificial (Machine Learning o Deep Learning) y sus procesos de aprendizaje; analizar lo aprendido y sus resultados para evaluar si se generan sesgos algorítmicos y su impacto a los derechos humanos. Las auditorías algorítmicas contribuyen a la protección de las empresas de seguridad que utilizan inteligencia artificial, ante posibles multas, sanciones o procedimientos legales que derivan de incumplimientos normativos. Esto es una buena práctica recomendada a nivel internacional. Por otra parte, la extracción de datos contenidos en teléfonos móviles, smartwatch y la nube es indispensable para la labor de las áreas de prevención de fraude interno de cualquier empresa y, a la par, de las fiscalías, secretarías de seguridad pública, unidades de inteligencia, personal militar y naval, entre otros. Nosotros estamos preocupados por el fortalecimiento del Estado de Derecho en México y decidimos entrar en conversaciones comerciales con Compelson, una empresa con sede en Praga que tiene uno de los softwares más avanzados para la extracción de datos y el único que extrae datos de smartwatches. A partir de junio, White Bx Project comenzó la comercialización oficial de este producto y sumó a su paquete de cursos de capacitación para empresas y gobiernos que están encargados del fortalecimiento del Estado de Derecho en nuestro país. Lo llamamos “Right Solutions for Law-Enforcement”.

¿Qué beneficios trae el uso de MobilEdit para las empresas de seguridad y para los gobiernos?

Mobiledit es un software que utiliza inteligencia artificial para la extracción de datos de telefonía móvil, smartwatches y la nube. Analiza las aplicaciones a una velocidad y con un detalle que difícilmente podría lograrlo un ser humano. Además, puede encontrar información eliminada, se actualiza permanentemente en línea y es compatible tanto con sus competidores como con una gran variedad de teléfonos. Sus reportes son bastante completos y de una estructura muy útil para ofrecer evidencias digitales en procedimientos internos de las empresas o ante autoridades ministeriales y judiciales. Los reportes están divididos en secciones y clasificados conforme las categorías de datos que existen en el propio teléfono. También se pueden personalizar por el investigador. El formato del reporte puede hacerse en PDF, HTML, XML, XLS. Se pueden hacer copias de seguridad con información analizada o sin información analizada. Es posible comprimir el informe y encriptarlo. Existe una versión premium para el sector público que tiene una función de desbloqueo de teléfonos muy potente, lo que le permite al investigador omitir la pantalla de bloqueo. Es decir, los protectores de pantalla, los PIN y las contraseñas ya nos son un obstáculo para la extracción de datos.

¿Qué funciones destacan del software MobilEdit?

Camara Ballistics es una aplicación que puede identificar imágenes en el teléfono y analizar el momento en el que fueron tomadas por la cámara del teléfono usando la huella digital del sensor. Esta función ofrece un análisis de las imágenes y genera un informe completo para su presentación como evidencia. Mobiledit cuenta con un módulo que localiza y reconoce automáticamente fotos de armas, drogas, desnudez, dinero, documento. El Photo Recognizer utiliza Machine Learning para analizar una cantidad ilimitada de fotos y está diseñado para que el investigador ahorre tiempo en la búsqueda manual. Cada fotografía se categoriza para que el investigador mantenga el control del caso y pueda presentar su informe con un contenido de alta efectividad. También cuenta con un comparador de caras que permite la búsqueda de personas (Face Matcher); solo se tiene que proporcionar fotos de los rostros que se desean localizar y Mobiledit hace el trabajo con una exactitud sorprendente.

¿Qué le recomendaría a los lectores que están interesados en el uso de la inteligencia artificial en el sector de la seguridad de las empresas o en las actividades de seguridad pública?

La inteligencia artificial llegó para quedarse. No habrá campo de la industria o los servicios que no sea guiado por las tendencias de la inteligencia artificial. Hay un sismo de el uso de la inteligencia artificial que inicia a partir de 2018 y que son las potentes Redes Neuronales Convolucionales Profundas. La manera en que los seres humanos toman decisiones irá cambiando paulatinamente. Y esto trae grandes beneficios al permitir el ahorro de recursos económicos y la disminución de tiempos. Incrementará la productividad y los niveles de prevención de fraudes. Yo recomiendo quitar los mitos sobre el uso de la inteligencia artificial. Capacitar a nuestro equipo de colaboradores, al sector empresarial que ya utiliza las nuevas tecnologías; rediseñar planes de estudio en todos los niveles educativos. Y en el ámbito de la seguridad privada y la seguridad pública, adquirir sistemas de inteligencia artificial para la protección de fraudes, la prevención del soborno y el lavado de dinero. Las empresas que no evolucionen sus sistemas de inteligencia artificial tradicional a modelos basados en Deep Learning, incrementarán sus niveles de riesgos y sus procesos de supervisión y de monitoreo de operaciones estarán cada vez más endebles. Además, quiero decir que a diferencia de otros tiempos, en los que se requería grandes cantidades de recursos, infraestructura física y personal capacitado, en la actualidad eso ya no es obstáculo. La inteligencia artificial está al alcance de todos.

Social Share Buttons and Icons powered by Ultimatelysocial