forum

Come anche l’intell...
 
Notifiche
Cancella tutti

Come anche l’intelligenza artificiale sfrutta i lavoratori

1 Post
1 Utenti
0 Reactions
76 Visualizzazioni
(@giordana-liliana-monti)
Post: 204
Honorable Member Registered
Topic starter
 

Anche dietro all’intelligenza artificiale e alle informazioni che vengono fornite c’è un mondo di sfruttamento dei lavoratori.

«Alexa riproduci questo brano», «attenzione, le immagini proposte potrebbero contenere contenuti disturbanti», «il video postato è stato cancellato per contenuti violenti». Spesso quando abbiamo un problema ci mettiamo a chattare – letteralmente – con il sito di riferimento nella speranza che sappia aiutarci. Ormai siamo abituati a interfacciarci con la tecnologia come se fosse una persona con cui parlare, cosciente, capace anche di prendere decisioni per noi.

Ma la verità è che dietro all’intelligenza artificiale c’è sempre una mante umana, qualcuno che l’ha impostata per svolgere determinate azioni e fare specifiche scelte. Nella quotidianità lo vediamo con i contenuti bannati sui social, che chiaramente non vengono visionati singolarmente da un dipendente ma che non rispettando specifici canoni preimpostati vengono automaticamente eliminati.

Ma chi li imposta questi canoni? E chi dà all’intelligenza artificiale tutte le informazioni di cui necessita per «fare le sue scelte»? È purtroppo amaro constatare che, anche in questo ambito, lo sfruttamento della manodopera non manca.

Il caso di ChatGpt è quello più allarmante. Una recente inchiesta di Time ha messo alla luce il fatto che OpenAl, la società dietro al chatbot, avrebbe affidato a un fornitore esterno il compito di visionare ed etichettare contenuti violenti per ripulire i risultati dell’algoritmo. Il problema è che i lavoratori impiegati da questo fornitore per leggere ed etichettare i testi, all’opera in Kenya, Uganda e India, sarebbero sottopagati. E il loro sarebbe un compito estremamente ingrato, considerato che devono esaminare anche tutti i testi che descrivono graficamente abusi sessuali su minori, bestialità, omicidi, suicidi, incesti, torture e atti di autolesionismo.

Del resto, per fornire all’intelligenza artificiale il materiale che deve imparare a riconoscere per poterlo bannare, ci deve essere qualcuno che «glielo insegna» e che, per primo, deve esaminare anche queste oscenità. Il fatto che lo faccia in precarie e difficili condizioni economiche, però, resta un grave scandalo sul quale è necessario fare chiarezza.

ChatGpt utilizza modelli di natural language processing (Nlp), addestrati in modo specifico su conversazioni, non solo su testo. OpenAi è in questo modo in grado di dare uno score alle risposte che lui stesso genera e così è stato in grado di migliorarsi notevolmente sul task per cui è stato pensato, ha spiegato al Sole24Ore Giorgia Fortuna, partner di machine learning a Reply, società che da due anni usa ChatGpt.

The post Come anche l’intelligenza artificiale sfrutta i lavoratori first appeared on La Legge per tutti.

 
Pubblicato : 26 Gennaio 2023 12:34