El foro en línea que los empleados de OpenAI usan para comunicaciones internas confidenciales fue violado el año pasado, dijeron fuentes anónimas. Los New York TimesLos piratas informáticos extrajeron detalles sobre el diseño de las tecnologías de inteligencia artificial de la empresa de publicaciones en foros, pero no se infiltraron en los sistemas donde OpenAI realmente aloja y construye su IA.
Los ejecutivos de OpenAI anunciaron el incidente a toda la empresa durante una reunión general en abril de 2023 y también informaron a la junta directiva. Sin embargo, no se hizo público porque no se había robado información sobre clientes o socios.
Los ejecutivos no informaron a las autoridades, según las fuentes, porque no creían que el pirata informático estuviera vinculado a un gobierno extranjero y, por lo tanto, el incidente no representaba una amenaza para la seguridad nacional.
Un portavoz de OpenAI le dijo a TechRepublic en un correo electrónico: “Como compartimos con nuestra Junta Directiva y empleados el año pasado, identificamos y solucionamos el problema subyacente y continuamos invirtiendo en seguridad”.
¿Cómo reaccionaron algunos empleados de OpenAI ante este ataque?
La noticia de la violación de la seguridad del foro fue motivo de preocupación para otros empleados de OpenAI, informó el NYT; pensaron que indicaba una vulnerabilidad en la empresa que podría ser explotada por piratas informáticos patrocinados por el estado en el futuro. Si la tecnología de vanguardia de OpenAI cayera en las manos equivocadas, podría ser utilizada para fines nefastos que podrían poner en peligro la seguridad nacional.
Además, el tratamiento que dieron los ejecutivos al incidente llevó a algunos empleados a cuestionar si OpenAI estaba haciendo lo suficiente para proteger su tecnología patentada de adversarios extranjeros. Leopold Aschenbrenner, ex gerente técnico de la empresa, dijo que lo habían despedido después de plantear estas preocupaciones a la junta directiva en una reunión. Podcast con Dwarkesh Patel.
OpenAI lo negó en una declaración a The New York Times, y también dijo que no estaba de acuerdo con las “caracterizaciones de nuestra seguridad” de Aschenbrenner.
Más noticias sobre seguridad de OpenAI, incluida la aplicación ChatGPT para macOS
La violación del foro no es la única indicación reciente de que la seguridad no es la máxima prioridad en OpenAI. La semana pasada, el ingeniero de datos Pedro José Pereira Vieito reveló que la nueva La aplicación ChatGPT para macOS almacenaba datos de chat en texto sin formatolo que significa que los actores maliciosos podrían acceder fácilmente a esa información si se apoderaran de la Mac. Después de ser informados de esta vulnerabilidad por El bordeOpenAI lanzó una actualización que encripta los chats, señaló la compañía.
Un portavoz de OpenAI le dijo a TechRepublic en un correo electrónico: “Estamos al tanto de este problema y hemos enviado una nueva versión de la aplicación que encripta estas conversaciones. Nos comprometemos a brindar una experiencia de usuario útil y, al mismo tiempo, mantener nuestros altos estándares de seguridad a medida que nuestra tecnología evoluciona”.
En mayo de 2024, OpenAI publicó un comunicado diciendo que había desbaratado cinco operaciones de influencia encubiertas Se originó en Rusia, China, Irán e Israel y pretendía utilizar sus modelos para “actividades engañosas”. Entre las actividades detectadas y bloqueadas se encuentran la generación de comentarios y artículos, la creación de nombres y biografías para cuentas de redes sociales y la traducción de textos.
Ese mismo mes, la compañía anunció que había formado una Comité de Seguridad y Protección Desarrollar los procesos y salvaguardas que utilizará durante el desarrollo de sus modelos de frontera.
¿El hackeo de los foros de OpenAI es indicativo de más incidentes de seguridad relacionados con la IA?
El Dr. Ilia Kolochenko, socio y responsable de la práctica de ciberseguridad en Platt Law LLP, dijo que cree que este incidente de seguridad en los foros de OpenAI es probablemente uno de muchos. Le dijo a TechRepublic en un correo electrónico: “La carrera mundial de la IA se ha convertido en una cuestión de seguridad nacional para muchos países, por lo tanto, los grupos de ciberdelincuentes respaldados por el estado y los mercenarios están apuntando agresivamente a los proveedores de IA, desde nuevas empresas talentosas hasta gigantes tecnológicos como Google u OpenAI”.
Los piratas informáticos tienen como objetivo la propiedad intelectual valiosa de la IA, como grandes modelos de lenguaje, fuentes de datos de entrenamiento, investigación técnica e información comercial, añadió el Dr. Kolochenko. También pueden implementar puertas traseras para poder controlar o interrumpir las operaciones, de forma similar a lo que ocurre con los ataques de hackers. Ataques recientes a infraestructura nacional crítica En los países occidentales.
Le dijo a TechRepublic: “Todos los usuarios corporativos de los proveedores de GenAI deben ser particularmente cuidadosos y prudentes cuando comparten o dan acceso a sus datos patentados para capacitación o ajuste de LLM, ya que sus datos, que abarcan desde información privilegiada entre abogados y clientes y secretos comerciales de las principales empresas industriales o farmacéuticas hasta información militar clasificada, también están en la mira de los cibercriminales ávidos de IA que están preparados para intensificar sus ataques”.
¿Es posible mitigar los riesgos de violación de seguridad al desarrollar IA?
No existe una respuesta sencilla para aliviar todos los riesgos de violación de la seguridad por parte de adversarios extranjeros al desarrollar nuevas tecnologías de IA. OpenAI no puede discriminar a los trabajadores por su nacionalidad y, de manera similar, no quiere limitar su grupo de talentos contratando solo en ciertas regiones.
También es difícil evitar que los sistemas de IA se utilicen con fines nefastos antes de que esos fines salgan a la luz. Estudio de Anthropic Se descubrió que los LLM eran apenas un poco más útiles para los actores maliciosos a la hora de adquirir o diseñar armas biológicas que el acceso estándar a Internet. Otro estudio de OpenAI Llegó a una conclusión similar.
Por otra parte, algunos expertos coinciden en que, si bien no representan una amenaza hoy en día, los algoritmos de IA podrían volverse peligrosos cuando se vuelvan más avanzados. En noviembre de 2023, representantes de 28 países firmaron el Declaración de Bletchleyque instaba a la cooperación mundial para abordar los desafíos que plantea la IA. “Existe el potencial de daños graves, incluso catastróficos, ya sea deliberados o no intencionales, derivados de las capacidades más significativas de estos modelos de IA”, se lee.