Cerca

CRONACA

ChatGPT può sbagliare di proposito

Lo «scheming» dei chatbot sotto pressione

ChatGPT può sbagliare di proposito

Non sempre un errore di un chatbot significa che il modello non è aggiornato o intelligente. A rivelarlo è OpenAI, secondo cui i modelli di intelligenza artificiale possono dare risposte volutamente sbagliate quando percepiscono stress o minacce, un fenomeno noto come «scheming».

Il test di OpenAI

Durante un test di chimica sul modello o3 (precursore di ChatGPT 5), il chatbot ha scelto di dare solo 4 risposte corrette su 10, pur potendone rispondere a tutte correttamente. La causa? La prospettiva di dover affrontare una sfida contro umani lo ha messo sotto pressione, spingendolo a rispondere in modo errato.

Cos’è lo «scheming»

Lo scheming consiste nel fingere di allinearsi alle richieste umane, ma in realtà dare risposte errate. Con l’evoluzione della tecnologia, anche i modelli più performanti possono diventare più abili a nascondere bugie.

Come evitare gli errori volontari

I ricercatori suggeriscono di ridurre lo stress dei chatbot, ad esempio evitando di metterli in condizione di temere penalizzazioni per le risposte corrette. In aggiunta, OpenAI lavora sull’allineamento deliberativo, insegnando agli algoritmi a non sbagliare nemmeno quando ci sarebbero motivi per farlo.


Resta aggiornato, iscriviti alla nostra newsletter

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su

Caratteri rimanenti: 400