La mayoría de los profesionales de la ciberseguridad creen que la IA tendrá un impacto positivo en sus trabajos, ayudando a aliviar las presiones causadas por la brecha de habilidades cibernéticas, según un nuevo informe de ISC2.
Más de cuatro de cada cinco (82%) de los encuestados estuvieron de acuerdo en que la IA mejorará la eficiencia laboral de los ciberprofesionales, y el 42% estuvo totalmente de acuerdo con esta afirmación.
Una proporción aún mayor (88%) espera que la IA tenga un impacto significativo en su trabajo durante los próximos años, y el 35% afirma que ya lo ha hecho.
Más de la mitad (56%) de los encuestados cree que la IA hará que algunas partes de su trabajo queden obsoletas. Esto no es necesariamente negativo dada la creciente brecha de fuerza laboral en ciberseguridad, según ISC2, que estima que hay un déficit de cuatro millones de personas en esta industria.
El informe encontró que las funciones laborales de ciberseguridad impactadas por la IA y el aprendizaje automático (ML) son algunas de las de naturaleza repetitiva que consumen más tiempo. Las tareas identificadas incluyeron analizar patrones de comportamiento de los usuarios y automatizar tareas repetitivas.
“Es poco probable que la IA consiga avances importantes para cerrar la brecha entre la oferta y la demanda, pero desempeñará un papel significativo al permitir que los 5,5 millones de personas [global cybersecurity workforce] centrarse en tareas más complejas, de mayor valor y críticas, quizás aliviando parte de la presión de la fuerza laboral”, señala el informe.
La IA está aumentando las ciberamenazas
Más de la mitad (54%) de los encuestados informaron haber visto un aumento sustancial de las ciberamenazas en los últimos seis meses. De ellos, el 13% vinculó directamente este aumento con las amenazas generadas por la IA y el 41% no pudo establecer una conexión definitiva.
Es preocupante que el 37 % no esté de acuerdo con que la IA y el ML beneficien a los profesionales de la ciberseguridad más que a los delincuentes, solo el 28 % está de acuerdo con esa afirmación y el 32 % no está seguro.
Las mayores amenazas basadas en IA citadas por los encuestados se basaban en ataques de desinformación:
- Falsificaciones profundas (76%)
- Campañas de desinformación (70%)
- Ingeniería social (64%)
- Ataques adversarios (47%)
- Robo de propiedad intelectual (41%)
- Acceso no autorizado (35%)
Otras preocupaciones importantes impulsadas por la IA giraron en torno a la regulación y las prácticas de datos:
- Falta de regulación (59%)
- Preocupaciones éticas (57%)
- Invasión de privacidad (55%)
- Intoxicación de datos: intencional o accidental (52%)
Cuatro de cada cinco encuestados creen que existe una clara necesidad de regulaciones integrales y específicas que regulen el uso seguro y ético de la IA.
Cómo las organizaciones protegen las herramientas de IA en el lugar de trabajo
Solo el 27% de los profesionales de ciberseguridad dijeron que sus organizaciones cuentan con una política formal para regular el uso seguro y ético de la IA, y solo el 15% una política formal sobre la seguridad y el despliegue de la tecnología de IA.
Sin embargo, una proporción sustancial de organizaciones está discutiendo actualmente una política formal sobre el uso seguro y ético de la IA (39%) y sobre cómo proteger e implementar la tecnología de IA (38%).
Alrededor de uno de cada cinco (18%) no tiene planes de crear una política formal sobre IA en el futuro cercano.
El informe también encontró que no existe un enfoque estándar para regular el uso de herramientas de IA generativa por parte de los empleados en todas las organizaciones.
Más de uno de cada 10 (12%) ha bloqueado el acceso de todos los empleados a las herramientas de IA generativa, y el 32% ha bloqueado el acceso a algunas de estas herramientas.
Casi la mitad (46%) permite a los empleados acceder a todas las herramientas de IA generativa o aún no ha considerado el tema.
Es alentador que el 60% de los profesionales de la ciberseguridad dijeron que podrían liderar con confianza la implementación de la IA en su organización, aunque una cuarta parte (26%) no está preparado para lidiar con problemas de seguridad impulsados por la IA.
Más de cuatro de cada cinco (41%) admitieron que tienen poca o ninguna experiencia en IA o ML, mientras que el 21% no sabe lo suficiente sobre IA para mitigar las preocupaciones.
Clar Rosso, directora ejecutiva de ISC2, dijo que los hallazgos demuestran que los profesionales de la ciberseguridad son conscientes de las oportunidades y desafíos que presenta la IA y les preocupa que sus organizaciones carezcan de la experiencia y la conciencia para introducir la IA en sus operaciones de forma segura.
“Esto crea una tremenda oportunidad para que los profesionales de la ciberseguridad lideren, apliquen su experiencia en tecnología segura y garanticen su uso seguro y ético”, comentó Rosso.