Las pruebas de NBC News revelan que los chatbots OpenAI aún pueden tener jailbreak para dar instrucciones paso a paso sobre armas químicas y biológicas.
la publicación Modelos OpenAI atrapados repartiendo instrucciones de armas apareció primero en República Tecnológica.