< Back to 68k.news IT front page

I nostri cari defunti possono rivivere grazie all'intelligenza artificiale, ma può essere molto rischioso, lo studio

Original source (on modern site) | Article images: [1]

Far "rivivere" i propri cari defunti tramite l'intelligenza artificiale è una possibilità ormai offerta da diverse app, ma uno studio condotto dall'Università di Cambridge lancia un allarme: questa pratica può causa non pochi danni sociali e psicologici

©Philosophy and Technology

L'intelligenza artificiale può far "rivivere" i nostri cari defunti (ormai diverse app offrono questa possibilità), ma uno studio condotto dall'Università di Cambridge lancia un allarme: questa pratica può causa non pochi danni sociali e psicologici.

L'"industria digitale dell'aldilà" è ormai una realtà emergente. Freddie Mercury ha recentemente "cantato" un'emozionante (e agghiacciante) versione di Yesterday dei Beatles: un software IA ha permesso di sentire la sua voce esattamente come ce la ricordiamo, accompagnata per l'occasione solo da una chitarra acustica come spesso accadeva per i live della band.

Leggi anche: L'Intelligenza Artificiale irrompe nella musica: Freddie Mercury "canta" un'emozionante (e agghiacciante) versione di Yesterday dei Beatles

Alcune app permettono agli utenti persino di tenere conversazioni testuali e vocali con i propri cari scomparsi: le chatbot basati sull'intelligenza artificiale simulano i modelli linguistici e i tratti della personalità dei morti (Deadbots e Griefbots), e alcune aziende stanno già offrendo questi servizi, fornendo un tipo completamente nuovo di "presenza post-mortem".

©Philosophy and Technology

Ma questo può provocare danni psicologici e persino di "perseguitare" digitalmente coloro che sono privi di standard di sicurezza: gli esperti di etica dell'intelligenza artificiale del Leverhulme Centre for the Future of Intelligence di Cambridge hanno infatti delineato tre scenari abbastanza inquietanti.

Tali scenari potrebbero emergere come parte dello sviluppo dell'"industria dell'aldilà digitale", e mostrano le potenziali conseguenze di una progettazione imprudente in un'area dell'intelligenza artificiale che descrivono come "ad alto rischio".

La ricerca evidenzia la possibilità che le aziende utilizzino i deadbot per pubblicizzare di nascosto prodotti agli utenti come se fosse una persona cara defunta, o per angosciare i bambini insistendo che un genitore morto sia ancora "con te".

E quando i vivi si iscrivono per essere ricreati virtualmente dopo la morte, i chatbot risultanti potrebbero essere utilizzati dalle aziende per inviare spam a familiari e amici sopravvissuti con notifiche, promemoria e aggiornamenti non richiesti sui servizi che forniscono, un po' come essere "perseguitati digitalmente dai morti".

Ma anche coloro che traggono conforto iniziale da queste "conversazioni" potrebbero sentirsi prosciugati dalle interazioni quotidiane, che diventano un "peso emotivo schiacciante" - sostengono i ricercatori - e potrebbero anche non essere in grado di sospendere una simulazione di intelligenza artificiale se la persona amata ormai deceduta ha firmato un lungo contratto con un servizio digitale dell'aldilà.

Quest'area dell'intelligenza artificiale è un campo minato etico - spiega Katarzyna Nowaczyk-Basińska, coautrice del lavoro - È importante dare priorità alla dignità del defunto e garantire che questa non venga lesa, ad esempio, dalle motivazioni finanziarie dei servizi digitali dell'aldilà. Allo stesso tempo, una persona può lasciare una simulazione di intelligenza artificiale come regalo di addio per i propri cari che non sono preparati a elaborare il proprio dolore in questo modo. I diritti sia dei donatori di dati che di coloro che interagiscono con i servizi di intelligenza artificiale dell'aldilà dovrebbero essere ugualmente tutelati

©Philosophy and Technology

Uno dei potenziali scenari del lavoro è "MaNana", un servizio di intelligenza artificiale conversazionale che consente alle persone di creare un deadbot che simula la nonna defunta senza il consenso del "donatore di dati" (il nonno morto).

Lo scenario ipotetico vede un nipote adulto, inizialmente impressionato e confortato dalla tecnologia, iniziare a ricevere pubblicità una volta terminata la "prova premium". Ad esempio, il chatbot che suggerisce di ordinare dai servizi di consegna di cibo con la voce e lo stile del defunto.

Le persone potrebbero sviluppare forti legami emotivi con tali simulazioni, il che le renderà particolarmente vulnerabili alla manipolazione

avverte Tomasz Hollanek, altro coautore

Un altro scenario presentato nel documento immagina una società immaginaria chiamata "Paren't", che evidenzia l'esempio di una donna malata terminale che lascia un robot morto per assistere il figlio di otto anni nel processo di elaborazione del lutto.

Tutto ciò è davvero molto pericoloso.

Il lavoro è stato pubblicato su Philosophy and Technology.

Non vuoi perdere le nostre notizie?

Fonti: Università di Cambridge / Philosophy and Technology

Leggi anche:

< Back to 68k.news IT front page