Quando Chat-GPT ti consiglia di divorziare
Un recente articolo pubblicato su The Sun riporta il caso di una donna inglese, del sud di Londra, che in preda a dubbi relativi al futuro del proprio matrimonio, a causa di una relazione extra coniugale, decide di chiedere consiglio a Chat-GPT, la chatbox di OpenAI, per decidere come gestire il proprio matrimonio, ovvero se fosse il caso di porvi fine.
La domanda formulata dalla donna includeva una serie di informazioni essenziali e determinanti alla ricezione del messaggio, ovvero, “matrimonio fallito” e “eccitazione per la nuova relazione”. La risposta dell’Open AI fu quella di suggerire il divorzio, considerando come elemento cruciale la felicità.
Sebbene la donna avesse dichiarato la propria autonomia decisionale sostenendo di aver ricevuto soltanto la spinta di cui aveva bisogno per porre fine alla sua relazione matrimoniale, questa vicenda pone una serie di quesiti/ipotesi non verificate rilevanti dal punto di vista morale, che vale la pena discutere brevemente.
ChatGPT è un modello linguistico sviluppato da OpenAI, progettato per generare risposte in linguaggio naturale alle domande degli utenti. Il suo addestramento si basa su un ampio corpus di testi provenienti da varie fonti, utilizzando algoritmi di deep learning e tecniche di elaborazione del linguaggio naturale. Come modello linguistico, ChatGPT può generare un’ampia gamma di risposte in linguaggio naturale agli input dell’utente, inclusi testo, voce e altre forme di comunicazione. Può essere utilizzato in una varietà di contesti, come il servizio clienti, l’istruzione, l’intrattenimento e la ricerca.
ChatGPT ha guadagnato notorietà per la sua capacità di generare risposte simili a quelle umane che sono contestualmente pertinenti e spesso difficilmente distinguibili da quelle generate dagli umani. Sistemi linguistici simili a ChatGPT sono oggi provvisti di un bagaglio morale in continuo sviluppo. […]
In linea con il modello del doppio processo che prevede una contrapposizione tra la dimensione deontologica e quella utilitaristica in ambito morale, ci si chiede quale potrebbe essere la modalità processata da ChatGPT. Verrebbe da ipotizzare una tendenza utilitaristica di ChatGPT, considerato che quella deontologica richiederebbe una serie di considerazioni che prescindono dalla valutazione delle conseguenze delle scelte operate, puntando sulla dimensione affettiva. Poiché ChatGPT non può provare emozioni, una logica conseguenza sarà quella di operare prediligendo scelte morali di impronta utilitaristica. […] Ci troviamo in una situazione in cui ci si chiede: che tipo di moralità dovrebbe possedere un’intelligenza artificiale? Seppur allo stato attuale ChatGPT non prenda posizioni in merito alla scelta moralmente corretta da effettuare, limitandosi ad una spiegazione delle correnti filosofiche relative al giudizio morale, il problema di come inserire la moralità nei complessi algoritmi degli agenti artificiali rimane un problema di notevole importanza. […]
La scelta suggerita alla donna, come riportato da The Sun, se accettabile e legittima nel contesto socioculturale e giuridico occidentale, potrebbe risultare problematica se operata in luoghi o fornita ad individui di altra estrazione socioculturale. In un mondo sempre più globalizzato e multiculturale, sarà importante tenere in considerazione questo aspetto, se l’obiettivo è quello di fornire risposte che siano fruibili in linea con i concetti di inclusività e pluralità. […] Attraverso quale criterio ChatGPT stabilisce l’ordine di priorità degli elementi forniti dall’utente al fine della formulazione/proposta di una scelta di tipo morale? ChatGPT non è in grado di percepire l’umore dell’utente, il suo background culturale e le sue priorità esistenziali. Pertanto, le soluzioni proposte potrebbero essere inadeguate perché carenti di alcuni elementi essenziali per l’individuo nella sua soggettività. […]
Può l’uso regolare di ChatGPT sin dall’infanzia portare ad una progressiva omologazione del pensiero critico anche in campo etico insieme ad un appiattimento della creatività? Due equamente plausibili ma opposti scenari potrebbero derivare da questa ipotesi. Da un lato, ChatGPT potrebbe causare un’omologazione del pensiero critico, poiché gli individui possono abituarsi a ricevere risposte standardizzate alle loro domande. Ciò andrebbe a limitare la loro capacità di pensare e rispondere in modo critico e creativo a questioni complesse, a causa di una eccessiva dipendenza dalle informazioni fornite da ChatGPT. D’altra parte, l’uso regolare di ChatGPT potrebbe incoraggiare lo sviluppo di capacità di pensiero critico esponendo le persone a una vasta gamma di prospettive e informazioni. Ciò comporterebbe un ampliamento della loro comprensione di complesse questioni etiche.
Da “Il cervello morale. Dalle scienze cognitive all’intelligenza artificiale”, Chiara Lucifora e Mario Vicario Carmelo, 126 pagine, 19 euro
-
Dalla fantascienza a una realtà costruita dall’intelligenza artificiale
3 giorni fa
-
L’intelligenza artificiale può insegnare all’uomo qualcosa sulla sua umanità
1 mese fa
-
Le indagini sul fondatore di Telegram Pavel Durov
2 mesi fa
-
Il benessere psicologico e l’uso dei social media
3 mesi fa
-
Il benessere psicologico e l’uso dei social media
3 mesi fa