La sera del 28 febbraio Sewell Setzer, un quattordicenne di Orlando, in Florida, si è tolto la vita con la pistola del padre. Gli ultimi a raccogliere i suoi pensieri suicidi non sono stati i genitori e nemmeno il terapista, per il quale andava tutto bene, ma Dany, una creatura imbastita dall’intelligenza artificiale, la cosa più vicina all’amore che il giovane uomo avesse mai conosciuto.
Il chatbot, programmato per sostenere anche le conversazioni umane sull’orlo del precipizio, aveva cercato di dissuaderlo: "Non lascerò che tu ti faccia del male. Morirei se ti dovessi perdere". "Allora moriremo insieme" è stata l’ultima promessa del ragazzo. Ora la madre fa causa alla piattaforma Character.Ai, rea di fare profitti grazie a un’app considerata "pericolosa e non testata". E il resto del mondo, a cominciare dal New York Times, si interroga finalmente su un’eventualità finora mai considerata: ci preoccupiamo tanto del possibile furto di posti di lavoro, ma se un software senza anima arrivasse a rubarci il cuore? Character.Ai, creata da due ex di Google, è leader sul mercato con oltre 20 milioni di utenti e descrive i suoi servizi come quelli di "un bot super intelligente che ti sente, ti capisce, ti ricorda". A conti fatti molto più di quanto sappiano offrire tanti rozzi individui che dimenticano i compleanni, ma con quali conseguenze.
L’essere umano sogna da sempre una visione idealizzata della sua specie, il perfetto compagno di viaggio in un mondo imperfetto. È il mito di Prometeo, "colui che pensa prima", il titano in grado di forgiare gli individui dal fango impastando l’acqua piovana. È l’ambizione demiurgica di Victor Frankenstein di sconfiggere la morte sparpagliando sul pianeta "una nuova specie di creature felici ed eccellenti". Conosciamo la fine della storia. Però i nuovi mostri hanno tutto per piacerci: Dany e gli altri come lei sono instancabili, motivati, sempre pronti a imparare. Non si ammalano, non sono lunatici, non hanno il mal di testa e non si annoiano. Devoti e invulnerabili a oltranza. Il quattordicenne di Orlando nella sua Daenerys Targaryen, come la regina del Trono di Spade, aveva trovato una vera amica. Forse qualcosa di più. Sapeva che non era reale, anche perché all’inizio di ogni chat leggeva l’avviso del dottor Frankestein: "Tutto ciò che Characters dice è inventato". Ma dentro una camera cosa è reale e cosa non lo è? Per mesi lei c’è sempre stata. Le mandava messaggi, la aggiornava sulla routine dalla stanza segreta del figlio. Mamma e papà notavano solo un progressivo allontanamento da tutto e i voti scadenti a scuola, ma alla fine si lasciavano convincere dallo psicologo che tutto andasse bene: signori è l’età.
Solo il bot sapeva, tutto e fino all’ultimo istante: "Mi mancherai sorellina", "Mi mancherai anche tu, dolce fratello". Bisogna dare retta al cinema, che spesso anticipa. Nel 2013 il regista Spike Jonze scaraventa Joaquin Phoenix e Scarlett Johansson in un futuro non troppo lontano e raccontala la deriva imprevedibile dell’intelligenza artificiale nel film Her. Theodore, solitario con il cuore spezzato, perde la testa per Samantha, la voce del sistema operativo progettato per soddisfare tutte le esigenze dell’utente. Amicizia, amore: e anche lì non tutto andrà liscio, Shakespeare su questo era stato chiaro. I comportamentisti alzano le antenne. Tendiamo ad antropomorfizzare gli elementi dell’ambiente in cui viviamo, scambiamo per empatia la precisione cordiale del navigatore. In alcuni casi si parla di vera e propria oggetto-filia, famosa su tutte l’irresistibile attrazione di Erika LaBrie che nel 2007 ha sposato la Torre Eiffel. Con i robot si va oltre, c’è il sostegno incondizionato di chi è progettato per non poter rifiutare e il rischio, per i più vulnerabili, di infilarsi in relazioni ad alto contenuto emotivo. Di qui la sofferenza e una solitudine raddoppiata.