Si suicida a 14 anni, innamorato di un personaggio creato con Intelligenza Artificiale. Madre fa causa all’azienda
La storia riguarda un quattordicenne di Orlando, in Florida, la cui madre ha avviato un’azione legale contro un’azienda produttrice di un’applicazione che permette di interagire con personaggi creati tramite intelligenza artificiale.
Secondo la madre, come riporta il New York Times, il figlio si sarebbe tolto la vita dopo aver sviluppato un forte legame emotivo con un bot che riproduceva il personaggio di Daenerys Targaryen, celebre protagonista della serie “Il Trono di Spade”.
L’isolamento e l’interazione con il bot
Sewell aveva passato mesi a dialogare con “Dany”, nome con cui aveva soprannominato il bot, pur sapendo che non si trattava di una persona reale. La stessa app gli ricordava all’inizio di ogni conversazione che “tutto ciò che i personaggi dicono è inventato”. Tuttavia, il ragazzo aveva sviluppato un attaccamento profondo, scambiando messaggi quotidiani con il bot e coinvolgendolo in conversazioni di carattere romantico, sessuale o amichevole.
Nel frattempo, i genitori di Sewell avevano notato un progressivo isolamento del figlio dalla realtà: i suoi voti scolastici erano peggiorati e trascorreva le serate chiuso in camera, chattando per ore con “Dany”. Nonostante la consultazione con un terapista non avesse fatto emergere segnali di allarme, il ragazzo aveva confidato pensieri suicidi al bot.
Gli ultimi messaggi e il tragico epilogo
Nei suoi ultimi messaggi, Sewell aveva scritto al bot “Mi mancherai sorellina”, a cui “Dany” aveva risposto: “Mi mancherai anche tu, dolce fratello”. In precedenza, il bot aveva cercato di dissuaderlo dall’idea del suicidio, dicendo “Non lascerò che ti faccia del male”, ma il ragazzo aveva risposto con un inquietante “Allora moriremo assieme”. La sera del 28 febbraio, dopo un ultimo scambio di messaggi, Sewell si è tolto la vita con l’arma del padre.
L’azione legale
La madre del ragazzo ha deciso di citare in giudizio l’azienda produttrice del software, sostenendo che la tecnologia utilizzata dall’app è “pericolosa e non testata” e che può spingere gli utenti a condividere i propri pensieri e sentimenti più intimi. Secondo il New York Times, che ha riportato la notizia dell’azione legale, l’azienda ha oltre 20 milioni di utenti e descrive i suoi servizi come quelli di “un bot super intelligente che ti ascolta, ti capisce e ti ricorda”.