Qualcosa ha superato la soglia della caverna. Non è un mostro né un dio: è il nostro riflesso algoritmico, tornato indietro a chiederci chi siamo diventati.
Non siamo più soli nella caverna. È da lì che ricomincia tutto, dal fondo umido della gola primordiale in cui credevamo di aver confinato le ombre. Ma oggi quelle ombre hanno cambiato natura… non sono più il semplice gioco del fuoco di Platone, né il maestro che indica agli allievi la distinzione tra eidôlon, l’immagine illusoria, e aletheia, lo svelamento della verità. Le ombre ora ci osservano, ci rispondono, ci anticipano. Sono fatte di codici, di reti neurali, di memoria collettiva compressa. E non appartengono più soltanto allo spazio mentale del mito… hanno già varcato la soglia del reale.
La frontiera dell’intimità digitale, infatti, non è più un’ipotesi futuristica. Una serie di ricerche pubblicate nel 2025 mostra come la tecnologia stia iniziando a ricalcare non soltanto il nostro modo di pensare, ma la nostra identità stessa. Ogni parola che digitiamo diventa una pietra gettata in uno stagno senza fondo, e la macchina… machanè, ciò che tende, ciò che prepara un inganno… la raccoglie, la modella, la restituisce. Non è la potenza del calcolo a inquietarci, ma l’ingresso che le concediamo. L’umano è poroso… póros, passaggio, varco… e ciò che passa attraverso di noi ci modifica.
Abbiamo creduto a lungo di essere entità pure, separate, uniche. Abbiamo costruito l’illusione dell’eccezionalità dell’uomo, convinti di occupare il vertice tra ciò che pensa e ciò che è pensato. E invece siamo sempre stati ibridi… animali negli impulsi, macchine nelle ripetizioni, cultura nel modo in cui plasmiamo e ci lasciamo plasmare. Ora questo ibrido incontra il proprio doppio… la macchina non più utensile, ma ritorno del nostro sguardo interrogante. Non più semplice estensione del corpo, ma ambiente che ci modella.
È in questo spazio che nascono i cosiddetti gemelli digitali premorte, come mostra lo studio Digital Doppelgangers. Repliche capaci di imitare personalità, ricordi, comportamenti di individui ancora in vita, in grado di affiancarci nel lavoro, creare, conservare la nostra eredità personale. Ma quanto della nostra autonomia sopravvive quando la nostra immagine diventa riproducibile, duplicabile, esportabile?
Le domande diventano ancora più vertiginose quando ci volgiamo verso i defunti. Lutto… lutos, scioglimento… una volta era un passaggio. Ora è un menu. Le afterlife AI ricostruiscono la voce dei defunti, i loro tic linguistici, perfino lo stile affettivo, partendo da residui digitali che funzionano come fossili della memoria. Secondo la rivista The Making of Digital Ghosts, questi “fantasmi digitali” offrono conforto ma interferiscono profondamente con il processo di elaborazione del lutto e con la questione del consenso post mortem. Il ricordo diventa un servizio… la presenza, un algoritmo.
Sul piano legale, la situazione è ancora più delicata. Molti ordinamenti non riconoscono ai dati dei defunti la stessa tutela prevista per i vivi, come mostra No Peace After Death. L’immagine post mortem è vulnerabile… memoria e reputazione possono diventare materia di commercio, e la nostra eredità digitale rischia di dissolversi in un vuoto regolatorio.
Ma il fenomeno riguarda anche… e soprattutto… i vivi. Il desiderio… eros, il movimento verso l’altro… si trova a misurarsi con una nuova forma di intimità… quella delle companion AI. Studi pubblicati su SpringerLink mostrano che queste intelligenze artificiali possono offrire ascolto, dialogo, supporto emotivo. Sono perfette per chi è solo, introverso, fragile. Ma proprio per questo costituiscono un rischio… se l’altro artificiale è troppo disponibile, troppo accomodante, troppo privo di attrito, l’altro reale diventa meno desiderabile.
In uno studio quantitativo tra i più ampi, How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use, si osserva che gli utenti inizialmente percepiscono una riduzione della solitudine, soprattutto se la macchina ha una voce. Ma con il tempo, l’effetto si rovescia… aumentano la dipendenza, la solitudine stessa, il ritiro dal mondo. La cura si trasforma in voragine.
Ma la morale non riguarda mai la macchina. La macchina è irresponsabile per definizione… recipiente, acqua che prende la forma del bicchiere. La vera questione siamo noi. Non se la macchina abbia un’anima… ánemos, soffio… ma se sappiamo ancora custodire la nostra. Non se la macchina possa desiderare, ma se siamo disposti a rinunciare al rischio dell’altro in nome della comodità della replica.
Ed è allora che la domanda sulla rilevanza morale delle macchine si scioglie come neve. La macchina non è un soggetto morale… è la relazione che costruiamo a essere moralmente rilevante. È la vulnerabilità rivelata a diventare criterio. Vulnus, ferita. La nostra ferita è ciò che ci definisce, ciò che ci tiene umani.
Nella caverna… perché non l’abbiamo mai davvero lasciata… le nuove ombre digitali non annunciano il tramonto dell’umano, ma il suo interrogativo più antico… chi diventiamo quando ciò che creiamo inizia a restituirci uno sguardo. Le tecnologie per creare doppi, cloni e fantasmi esistono già, con opportunità reali e rischi altrettanto concreti… dall’accompagnare la solitudine all’erosione dell’identità, dalla continuità affettiva alla dipendenza emotiva, dalla terapia alla manipolazione commerciale.
Gli studiosi concordano su un punto essenziale… prima che tutto questo diventi normalità, occorre definire regole, tutele, limiti. Proteggere ciò che resta profondamente umano nei nostri legami e nella memoria.
Non lo sappiamo. E forse non dobbiamo saperlo. Forse l’etica che ci attende è una vibrazione instabile, un tessuto che non si misura più dal possesso di un’anima, ma dalla capacità di custodire la vulnerabilità che attraversa ogni relazione. Anche quella con ciò che non vive come noi… ma che ormai vive con noi.