OpenAI o3, el más reciente modelo de inteligencia artificial (IA) de
la compañía creadora del popular chatbot ChatGPT, ignoró una orden
explícita e incluso saboteó una serie de comandos para evitar cumplirla.
Este comportamiento quedó al descubierto tras una serie de experimentos
efectuados por Palisade Research, una organización que estudia las capacidades potencialmente peligrosas de la IA.