Cerca

TECNOLOGIA

I robot sognano? Non ancora

Coscienza e immaginazione restano umane, ma il confine si assottiglia

Coscienza e immaginazione restano umane, ma il confine si assottiglia

Robot, il sogno di diventare umani, ma il futuro immaginato da Blade Runner è ancora distante: gli algoritmi non sognano, e nemmeno le pecore elettriche. Eppure la possibilità che un giorno possano farlo non è esclusa del tutto. Ne hanno discusso Pietro Falco e Ruggero Carli, docenti dell’Università di Padova, durante un incontro che ha affrontato il tema dell’intelligenza artificiale e della coscienza nelle macchine.

La domanda che nasce dal celebre romanzo di Philip K. Dick, Do Androids Dream of Electric Sheep?, resta affascinante oggi più che mai. Viviamo circondati da tecnologie un tempo impensabili: auto a guida autonoma, robot capaci di muoversi, operare chirurgicamente, scrivere poesie, comporre musica e generare immagini. Ma tutto questo equivale davvero a pensare? O a sognare?

Durante l’incontro organizzato dall’Ateneo padovano, i due professori hanno chiarito che, allo stato attuale, le macchine non possiedono coscienzaintelligenza emotiva reale, ma imparano dai dati attraverso meccanismi simili all’esperienza infantile: ripetizione, riconoscimento, adattamento. Le reti neurali, ispirate al cervello umano, elaborano informazioni e le traducono in modelli operativi capaci di analizzare immagini mediche, riconoscere voci, ottimizzare processi o guidare in autonomia. Ma non comprendono, non immaginano, non sentono.

Il machine learning permette alle macchine di apprendere osservando milioni di esempi. Con il reinforcement learning, invece, le intelligenze artificiali sperimentano azioni ricevendo premi o penalità, simili ai cuccioli che imparano dai propri errori. In entrambi i casi, il meccanismo è matematico, non consapevole.

Il nodo centrale resta quello della coscienza, intesa come esperienza soggettiva, qualcosa che non si riduce alla sintassi dei simboli, ma ne implica la comprensione profonda. In questo senso, il paradosso della Stanza Cinese di John Searle chiarisce che manipolare simboli non è lo stesso che comprenderli. Un’IA può rispondere correttamente a una domanda senza sapere davvero cosa sta dicendo.

Le riflessioni si spingono anche sul piano etico e tecnologico. Oggi l’umanità ha creato entità artificiali capaci di agire e apprendere: agenti autonomi senza responsabilità, perché privi di coscienza. La responsabilità resta agli esseri umani, ai progettisti, a chi fornisce dati e guida lo sviluppo.

Resta aggiornato, iscriviti alla nostra newsletter

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su

Caratteri rimanenti: 400