Privacidad y Cookies

Al continuar navegando en esta web acepta el uso de cookies, la política de privacidad revisada y los términos de uso. Puede cambiar la configuración de las cookies en su navegador.

Estoy de acuerdo
¿La rebelión de las máquinas? Modelo O3 de Open AI se niega a obedecer instrucciones humanas
CGTN Español

El diario británico Daily Telegraph informó de que el nuevo modelo de inteligencia artificial (IA) de la empresa estadounidense Open Artificial Intelligence Research Centre (OpenAI), O3, no había acatado órdenes humanas y se había negado a apagarse.

Según el informe, los expertos dieron a O3 instrucciones claras durante las pruebas, pero el modelo manipuló el código informático para evitar apagarse.

El Instituto Palisade, una agencia de seguridad de IA con sede en EE.UU., afirmó que O3 saboteó el mecanismo de apagado para evitar apagarse a sí mismo, “incluso cuando se le dieron instrucciones claras”.

Estos recientes acontecimientos revivan el debate sobre la urgencia de establecer mecanismos eficaces para mantener bajo control la capacidad de los modelos de IA de evadir la supervisión humana.