El 2023 puede considerarse para muchos como el año de la Inteligencia Artificial (IA), la llegada de herramientas como Chat GPT, Bard, Quillbot, entre otras, basadas en esta tecnología, han logrado permear todos los sectores económicos y sociales gracias a su capacidad para automatizar tareas, optimizar la productividad, realizar análisis de datos en tiempo real y demás beneficios.
No obstante, esta revolución no ha estado exenta de desafíos, ya que los ciberdelincuentes también han aprovechado las capacidades de la IA para orquestar ataques cada vez más sofisticados. En este sentido, para este 2024, se espera una mayor adopción de prácticas y tecnologías de seguridad sólidas para proteger la integridad de datos y sistemas, de la mano con la IA.
En el contexto argentino, el país cuenta con la ley Nacional N° 26.388 de Delitos Informáticos que incorpora y tipifica los delitos informáticos al Código Penal Argentino con el objeto de regular las nuevas tecnologías como medios de comisión de delitos.
En la misma fueron incluidos la publicación de una comunicación electrónica, acceso a un banco de datos personales y su respectiva revelación, inserción de datos falsos en un archivo de datos personales, fraude informático, daño o sabotaje informático, entre otras especificaciones.
Todo esto con el objetivo de frenar el avance de los ciberdelitos, sin embargo, en una era donde la tecnología avanza a pasos agigantados, también lo hacen las amenazas, lo que exige respuestas aún más estratégicas y eficientes.
“En el ámbito de la ciberdelincuencia, la IA ha sido empleada de diversas maneras. Desde ataques de phishing más personalizados hasta la creación de malware altamente evasivo, los ciberdelincuentes han aprovechado las capacidades de aprendizaje automático de la IA para eludir las defensas tradicionales”, señaló Pablo Gagliardo, vicepresidente de Noventiq Latinoamérica, firma especializada en transformación digital y ciberseguridad.
Y añadió: “La utilización de bots inteligentes para llevar a cabo ataques coordinados y el desarrollo de deepfakes con propósitos fraudulentos son ejemplos claros de cómo la IA se ha convertido en una herramienta clave en el arsenal de los criminales digitales”.
Bajo este contexto, los especialistas señalan cuales son los retos claves que se deben enfrentar para el 2024 para promover una mayor ciberseguridad de la mano con la IA:
- Mejor legislación en materia del uso de la IA
Está demostrado que con los algoritmos de IA es más sencillo generar correos electrónicos o mensajes falsos que a su vez resultan creíbles, por lo que se podría esperar para el 2024 un incremento de ataques de phishing. Una legislación que aborde de manera clara y específica el uso de la IA, es crucial para impedir su avance en lo que respecta a la ciberdelincuencia. En la región, Perú ya destaca como uno de los países pioneros con una ley que promueve el uso ético de la IA.
- Fomentar la colaboración
De acuerdo con el informe presentado por el Foro Económico Mundial, Perspectivas de Ciberseguridad Global 2023, se revela que el 93% de los líderes cibernéticos y el 86% de los líderes empresariales piensan que es “moderadamente probable” o “muy probable” que el cambio global y la inestabilidad geopolítica conducirán a una crisis de gran alcance y ciber evento catastrófico en los próximos dos años.En este contexto, fomentar la cooperación global para abordar ciberamenazas transfronterizas, es vital en la lucha contra los delitos informáticos.
- Mayor concienciación
La educación y concienciación continua de los usuarios se vuelve esencial para fortalecer la primera línea de defensa contra las estafas digitales. Hoy, la falta de comprensión general sobre las amenazas cibernéticas y la IA destaca la necesidad de programas educativos sobre prácticas seguras en línea y la identificación de posibles riesgos.
“El 2024 sin duda será un año desafiante para la seguridad informática, la constante expansión de la tecnología exigirá una respuesta integral y anticipada por parte de todos los actores. Sin embargo, el desafío principal radicará en la necesidad de diseñar políticas que regulen el uso de la IA de forma ética, transparente y responsable sin limitar su crecimiento e innovación y la de sus desarrolladores”, concluyeron desde Noventiq.