El diario británico Daily Telegraph informó de que el nuevo modelo de inteligencia artificial (IA) de la empresa estadounidense Open Artificial Intelligence Research Centre (OpenAI), O3, no había acatado órdenes humanas y se había negado a apagarse.

Según el informe, los expertos dieron a O3 instrucciones claras durante las pruebas, pero el modelo manipuló el código informático para evitar apagarse.
El Instituto Palisade, una agencia de seguridad de IA con sede en EE.UU., afirmó que O3 saboteó el mecanismo de apagado para evitar apagarse a sí mismo, “incluso cuando se le dieron instrucciones claras”.
Estos recientes acontecimientos revivan el debate sobre la urgencia de establecer mecanismos eficaces para mantener bajo control la capacidad de los modelos de IA de evadir la supervisión humana.