Separatamente, Nada è stata presa di mira per aver licenziato quattro dipendenti a marzo che lavoravano alla sua linea di assistenza e che avevano formato un sindacato. La linea di assistenza ha permesso alle persone di contattare i volontari che hanno fornito supporto e risorse per coloro che sono interessati al disturbo alimentare.
I membri del sindacato, Helpline Associates United, affermano di essere stati licenziati pochi giorni dopo aver approvato la loro elezione sindacale. Il sindacato ha presentato denunce di pratiche di lavoro scorrette al National Labour Relations Board. Tessa, che Nada afferma di non aver mai avuto intenzione di sostituire gli operatori della linea di assistenza, ha avuto problemi quasi immediatamente.
Lunedì, l’attivista Sharon Maxwell ha pubblicato su Instagram che Tessa le ha dato consigli su un’alimentazione sana e consigli sulla perdita di peso. Il chatbot ha raccomandato un deficit calorico da 500 a 1.000 calorie al giorno e un peso settimanale e una misurazione per tenere traccia dei progressi del peso. Se avessi accesso a questo programma di chat quando ho un disturbo alimentare, non otterrei aiuto per il mio disturbo alimentare. Se non avessi avuto aiuto, scrisse Maxwell, oggi non sarei vivo. È ora che Nada si ritiri.
La stessa Nada ha riferito che coloro che seguono una dieta moderata hanno una probabilità cinque volte maggiore di sviluppare un disturbo alimentare, mentre coloro che seguono una dieta severa hanno una probabilità 18 volte maggiore di sviluppare un disturbo alimentare. “Abbiamo appreso ieri sera che l’attuale versione del chatbot Tessa, che gestisce il programma Body Positivity, potrebbe aver fornito informazioni dannose e irrilevanti al programma”, ha dichiarato martedì Neda in una dichiarazione pubblica.
Stiamo indagando immediatamente sulla questione e abbiamo ritirato questo programma fino a nuovo avviso per un’indagine completa. Il 4 maggio, l’ex dipendente della linea di assistenza Abby Harper ha affermato che la linea di assistenza ha registrato un aumento del 107% delle chiamate e dei messaggi dall’inizio della pandemia. Le segnalazioni di pensieri suicidi, autolesionismo, abusi sui minori e abbandono sono quasi triplicate.
Harper ha scritto che il sindacato “richiedeva personale sufficiente e formazione continua per soddisfare le esigenze della linea di assistenza”. Harper ha scritto: Non abbiamo chiesto più soldi. Alcuni di noi sono guariti personalmente dai disturbi alimentari e hanno portato questa preziosa esperienza nel nostro lavoro. Siamo venuti tutti a questo lavoro per la nostra passione per i disturbi alimentari, la salute mentale e il nostro desiderio di fare la differenza. L’afflusso di chiamate che segnalano gravi crisi di salute mentale è una responsabilità legale per l’organizzazione, ha dichiarato a maggio Lauren Smoller, vicepresidente della NADA.
Il CEO di Neda, Liz Thompson, ha dichiarato in una e-mail alla CNN che il chatbot Tessa era stato lanciato di nascosto nel febbraio 2022, prima del recente debutto degli strumenti di intelligenza artificiale che da allora hanno lanciato ChatGPT alla fine dell’anno. Tuttavia, le lamentele indicano i limiti e i rischi esistenti nell’utilizzo di chatbot basati sull’intelligenza artificiale, in particolare per interazioni sensibili come problemi di salute mentale, in un momento in cui molte aziende si stanno affrettando a implementare questi strumenti.
Thompson ha incolpato l’apparente fallimento di Tessa sul comportamento non autentico dei cattivi attori che cercavano di molestarla e ha notato che il cattivo consiglio è stato inviato solo a una piccola parte degli utenti. Nada non ha fornito esempi specifici dei consigli forniti da Tessa, ma i post sui social media suggeriscono che il chatbot abbia spinto un utente a contare le calorie e provare a perdere peso dopo che l’utente ha dichiarato allo strumento di avere un disturbo alimentare.
I media hanno esposto la controversia che circonda la decisione di Nada di sostituire la sua linea di assistenza umana con un chatbot AI di nome Tessa. Presentano le critiche di ex dipendenti e attivisti che si sono espressi contro il licenziamento dei dipendenti del sindacato e i potenziali pericoli dei chatbot per le persone con disturbi alimentari.
Alcuni media hanno anche riferito che Nada ha risposto adducendo motivi legali e finanziari per giustificare la sua scelta e annunciando il ritiro temporaneo del chatbot dopo aver ricevuto reclami. I fatti sollevano quindi interrogativi etici e pratici sull’uso dei chatbot nella salute mentale e sui diritti dei lavoratori di questo settore.
fonte : Nada
E tu?
Cosa ne pensi?
Quali sono gli interessi e le motivazioni delle diverse parti coinvolte in questo caso?
Cosa ne pensi delle potenziali conseguenze della decisione della NDA per le persone con disturbi alimentari e nel campo della salute mentale?
Quali sono le possibili alternative o soluzioni a questo problema?
Guarda anche:
Quando l’ammutinamento dell’IA: un drone controllato dall’IA uccide il suo operatore umano durante una simulazione, aveva precedentemente distrutto la torre per impedire all’operatore di dargli ordini
La Casa Bianca sta compiendo nuovi passi per studiare i rischi dell’intelligenza artificiale e per determinare gli effetti della tecnologia sui lavoratori
L’intelligenza artificiale ricostruisce video di alta qualità direttamente dalle letture del cervello, come parte di uno studio
Lascia che ti dica cosa penso: gli assistenti di scrittura AI possono influenzare i loro utenti, hanno convinto gli utenti a cambiare i loro argomenti durante l’esperimento
Quando l’ammutinamento dell’IA: un drone controllato dall’IA uccide il suo operatore umano durante una simulazione, aveva precedentemente distrutto la torre per impedire all’operatore di dargli ordini
“Creatore di problemi. Appassionato di social media. Appassionato di musica. Specialista di cultura pop. Creatore.”