Licenziati da Microsoft? L’AI ti “consola” (male): Il caso Xbox e la disumanizzazione tech #1432

Ciao Internet su Ciao Internet con Matteo Flora del 17.07.2025

Copertina del video: Licenziati da Microsoft? L’AI ti “consola” (male): Il caso Xbox e la disumanizzazione tech #1432

In questa Puntata

L'utilizzo dell'intelligenza artificiale come supporto per chi è stato licenziato solleva importanti questioni etiche e sociali. L'episodio analizza la proposta di un manager di Xbox di utilizzare AI per affrontare il trauma del licenziamento, mettendo in evidenza la mancanza di empatia e il pericolo di deresponsabilizzazione individuale e aziendale. Viene criticata la tendenza a sostituire il supporto umano con soluzioni tecnologiche, evidenziando i rischi di affidarsi eccessivamente agli output delle macchine.
Recentemente, Matt Turnbull, executive producer di Xbox, ha pubblicato su LinkedIn una serie di suggerimenti su come l'intelligenza artificiale possa aiutare chi è stato licenziato a riformulare il proprio curriculum, pianificare la carriera e persino recuperare la chiarezza emotiva. Questo post, però, ha suscitato una forte reazione negativa ed è stato rapidamente rimosso. La critica principale è che l'AI non può sostituire l'empatia umana, soprattutto quando il consiglio proviene da qualcuno che non ha subito il licenziamento.

L'idea di affidare momenti di crisi personale a un chatbot è problematica, specialmente quando tali crisi sono spesso causate dalle stesse tecnologie che si propone di utilizzare come soluzione. Questo approccio disumanizza ulteriormente l'ambiente lavorativo e sposta la responsabilità dalle aziende agli individui, promuovendo una sorta di autoregolamentazione che sfocia nella deresponsabilizzazione.

Inoltre, la fiducia cieca negli output delle macchine, nota come automation bias, può rendere le persone più vulnerabili, specialmente in momenti di difficoltà come dopo un licenziamento. L'intelligenza artificiale, per quanto avanzata, non può comprendere la profondità delle emozioni umane come la tristezza per un futuro incerto o la frustrazione per piani andati in fumo.

Proporre l'AI come soluzione per il benessere emotivo è una narrativa pericolosa e cinica. È essenziale discutere apertamente di questi rischi e prendere posizione sul ruolo che l'AI dovrebbe avere nel mondo del lavoro, piuttosto che proporre soluzioni semplicistiche e disumanizzanti.