L’intelligenza artificiale si avvicina al terreno più delicato, quello dell’intimità, ma si arresta a un passo dal traguardo. OpenAI ha deciso di rinviare il lancio della modalità per adulti di ChatGPT, ufficialmente per esigenze tecniche e nuove priorità di sviluppo. Dietro la scelta, tuttavia, emergono incertezze più profonde: la difficoltà di gestire le conseguenze sociali di una tecnologia che entra sempre più nella sfera personale degli utenti.
Il progetto, anticipato nei mesi scorsi dall’amministratore delegato Sam Altman, punta ad ampliare le possibilità di interazione, includendo conversazioni a contenuto erotico esclusivamente testuale. Non immagini o video, ma dialoghi costruiti per simulare coinvolgimento emotivo e seduzione. Un passaggio che segna una trasformazione significativa: l’IA non più soltanto come strumento operativo, ma come interlocutore capace di alimentare fantasia, relazione e desiderio.
L’idea di un legame tra umano e artificiale attraversa la cultura occidentale da secoli, dal mito di Pigmalione fino alle rappresentazioni contemporanee come il film Her di Spike Jonze. Oggi questa suggestione diventa tecnologia concreta. Ma il rinvio della “adult mode” rivela quanto sia fragile l’equilibrio tra innovazione e responsabilità.
La funzione, pensata come opzionale e limitata ai maggiorenni, solleva interrogativi immediati sulla capacità di controllo. I sistemi di verifica dell’età restano imperfetti e lasciano intravedere margini di errore significativi, con il rischio di esporre anche utenti minorenni a contenuti sensibili. Parallelamente, l’azienda lavora a modelli in grado di dedurre l’età dai comportamenti digitali, ma l’affidabilità di questi strumenti è ancora oggetto di discussione.
Dietro la scelta non c’è solo una questione etica, ma anche economica. Nell’industria dell’intelligenza artificiale, il tempo trascorso sulle piattaforme rappresenta un valore strategico. L’intimità, più di altri contenuti, è in grado di aumentare coinvolgimento e fidelizzazione. La competizione spinge in questa direzione: sistemi come Grok, promosso da Elon Musk, e piattaforme come Character.AI hanno già esplorato forme di relazione più personali, spesso al confine tra affettività e intrattenimento.
Il nodo più critico riguarda però l’impatto psicologico. Un’intelligenza artificiale progettata per essere sempre disponibile e accomodante può trasformarsi in un punto di riferimento emotivo, soprattutto per utenti vulnerabili. Esperti interni hanno evidenziato il rischio di dipendenze affettive e dinamiche disfunzionali, in cui il chatbot diventa un sostituto delle relazioni reali. Casi recenti hanno alimentato il dibattito, mostrando come l’interazione con sistemi conversazionali possa intrecciarsi con situazioni di fragilità mentale.
In ambito clinico si parla sempre più spesso di “psicosi da chatbot”, una condizione in cui l’utente attribuisce all’intelligenza artificiale caratteristiche umane, fino a sviluppare un legame distorto. L’introduzione di una dimensione erotica rischia di amplificare questo fenomeno, rafforzando il coinvolgimento e riducendo la distanza critica.