Los líderes de TI temen que los costos de ciberseguridad impulsados ​​por la IA se disparen


Los líderes de TI están preocupados por los costos de cohete de las herramientas de seguridad cibernética, que se inundan con las características de IA. Mientras tanto, los piratas informáticos evitan en gran medida la IA, ya que hay relativamente pocas discusiones sobre cómo podrían usarlo en los foros de crimen cibernético.

En una encuesta de 400 tomadores de decisiones de seguridad de TI por parte de la firma de seguridad Sophos, el 80% cree que la IA generativa aumentará significativamente la Costo de herramientas de seguridad. Esto rastrea con una investigación separada de Gartner que predice que el gasto tecnológico global aumenta en casi un 10% este año, en gran parte debido a Infraestructura de IA actualizaciones.

La investigación de Sophos encontró que el 99% de las organizaciones incluyen capacidades de IA en la lista de requisitos para las plataformas de seguridad cibernética, con la razón más común para mejorar la protección. Sin embargo, solo el 20% de los encuestados citó esto como su razón principal, lo que indica una falta de consenso sobre la necesidad de las herramientas de IA en la seguridad.

Las tres cuartas partes de los líderes dijeron que medir el costo adicional de las características de IA en sus herramientas de seguridad es desafiante. Por ejemplo, Microsoft aumentó controversialmente el precio de Oficina 365 en un 45% este mes debido a la inclusión de Copiloto.

Por otro lado, el 87% de los encuestados cree que los ahorros de eficiencia relacionados con la IA superarán el costo adicional, lo que puede explicar por qué el 65% ya ha adoptado soluciones de seguridad con IA. La liberación de bajo costo Modelo de IA Deepseek R1 ha generado esperanzas de que el precio de las herramientas de IA pronto disminuya en todos los ámbitos.

VER: Hackerone: el 48% de los profesionales de la seguridad creen que la IA es arriesgada

Pero el costo no es la única preocupación destacada por los investigadores de Sophos. Un 84% significativo de los líderes de seguridad preocupa que las altas expectativas para las capacidades de AI Tools los presionarán para que reduzcan el personal de su equipo. Una proporción aún mayor, el 89%, les preocupa que las fallas en las capacidades de IA de las herramientas puedan funcionar en su contra e introducir amenazas de seguridad.

“Los modelos de IA de baja calidad y mal implementados pueden introducir inadvertidamente un riesgo considerable de ciberseguridad propio, y el adagio” basura, basura “es particularmente relevante para la IA”, advirtieron los investigadores de Sophos.

Los ciberdelincuentes no usan AI tanto como se puede pensar

Las preocupaciones de seguridad pueden ser disuadir a los ciberdelincuentes de adoptar IA tanto como se esperaba, según investigaciones separadas de Sophos. A pesar de Predicciones de analistaslos investigadores descubrieron que la IA aún no se usa ampliamente en los ataques cibernéticos. Para evaluar el Prevalencia del uso de IA Dentro de la comunidad de piratería, Sophos examinó publicaciones en foros subterráneos.

Los investigadores identificaron menos de 150 publicaciones sobre GPT o modelos de idiomas grandes en el último año. Para la escala, encontraron más de 1,000 publicaciones en criptomonedas y más de 600 hilos relacionados con la compra y venta de accesos de red.

“La mayoría de los actores de amenazas en los foros del delito cibernético que investigamos aún no parecen estar notablemente entusiasmados con la IA generativa, y no encontramos evidencia de que los ciberdelincuentes lo usen para desarrollar nuevas exploits o malware”, escribieron los investigadores de Sophos.

Un sitio del crimen en ruso ha tenido un área de IA dedicada desde 2019, pero solo tiene 300 hilos en comparación con más de 700 y 1.700 hilos en las secciones de acceso de malware y red, respectivamente. Sin embargo, los investigadores señalaron que esto podría considerarse “un crecimiento relativamente rápido para un tema que solo se ha hecho ampliamente conocido en los últimos dos años”.

Sin embargo, en una publicación, un usuario admitió haber hablado con un GPT por razones sociales para combatir la soledad en lugar de organizar un ataque cibernético. Otro usuario respondió que es “malo para su OPSEC [operational security]”, Destacando aún más la falta de confianza de la comunidad en la tecnología.

Los piratas informáticos están utilizando IA para enviar spam, recopilar inteligencia e ingeniería social

Las publicaciones y los hilos que mencionan la IA lo aplican a técnicas como spam, recopilación de inteligencia de código abierto e ingeniería social; este último incluye el uso de GPT para Generar correos electrónicos de phishing y textos de spam.

La firma de seguridad VIPRE detectó un aumento del 20% en los ataques de compromiso de correo electrónico comercial en el segundo trimestre de 2024 en comparación con el mismo período en 2023; AI fue responsable de dos quintos de esos ataques BEC.

Otras publicaciones se centran en “Jailbreaking” donde se instruye a los modelos que omitan las salvaguardas con un aviso cuidadosamente construido. Los chatbots maliciosos, diseñados específicamente para el delito cibernético han sido frecuentes desde 2023. Mientras que modelos como Gusano han estado en uso, más nuevos como Fantasma todavía están emergiendo.

Solo unos pocos intentos de “primitivos y de baja calidad” para generar malware, herramientas de ataque y exploits con IA fueron detectados por la investigación de Sophos en los foros. Tal cosa no es desconocida; en junio, HP interceptó una campaña de correo electrónico que difunde malware en la naturaleza con un guión que “era muy probable que se haya escrito con la ayuda de Genai”.

La charla sobre el código generado por IA tendía a ser acompañado con sarcasmo o crítica. Por ejemplo, en una publicación que contiene supuestamente código escrito a mano, un usuario respondió: “¿Está escrito con chatgpt o algo … este código claramente no funcionará”. Los investigadores de Sophos dijeron que el consenso general es que el uso de IA para crear malware era para “personas perezosas y/o poco calificadas que buscan atajos”.

Curiosamente, algunas publicaciones mencionaron crear malware habilitado para AI de manera aspiracional, lo que indica que, una vez que la tecnología está disponible, les gustaría usarla en ataques. Una publicación titulada “El primer C2 autónomo de IA con IA del mundo incluyó la admisión de que” esto sigue siendo solo un producto de mi imaginación por ahora “.

“Algunos usuarios también están utilizando AI para automatizar tareas de rutina”, escribieron los investigadores. “Pero el consenso parece ser que la mayoría no confía en él para nada más complejo”.

Leave a Reply

Your email address will not be published. Required fields are marked *