L'IA non prenderà il nostro lavoro perché è più difficile perdonarle gli errori

David Heinemeier Hansson, CTO di 37signals, spiega che uno dei motivi per cui l'IA non prenderà il nostro lavoro è perché è più difficile da "perdonare".

Avatar di Marina Londei

a cura di Marina Londei

Editor

A un anno e mezzo dal rilascio di ChatGPT e dall'esplosione della bolla dell'IA ci si interroga sempre più spesso sulla possibilità che l'intelligenza artificiale possa sostituirci nelle nostre mansioni.

L'eventualità esiste: l'IA sta dimostrando ottime capacità di gestione, pianificazione e decisionali, automatizzando buona parte dei processi. 

David Heinemeier Hansson, CTO di 37signals, compagnia di sviluppo web, ha suggerito l'idea che l'intelligenza artificiale, per sostituire davvero gli umani sul lavoro, dovrebbe essere perfetta e non commettere mai errori, il che è un obiettivo molto difficile da raggiungere.

Quando un sistema automatizzato sostituisce un essere umano ci aspettiamo che svolga i suoi compiti senza sbavature. Hansson fa l'esempio delle macchine a guida autonoma: la promessa è che queste macchine, sostituendo la guida umana soggetta a errori e distrazioni, riducano gli incidenti mortali.

Le aspettative a questo punto diventano molto alte e anche un piccolo errore della macchina ha un peso molto maggiore rispetto a un errore umano. Questo perché, appunto, ci aspettiamo che una macchina sia perfetta.

Pixabay
intelligenza artificiale

Gli errori umani sono all'ordine del giorno e li accettiamo perché fanno parte del nostro essere, ma la situazione è diversa con i sistemi di intelligenza artificiale: se sono progettati per sostituirci nel lavoro, allora devono saperlo fare meglio di noi. 

Alle macchine non si perdonano gli sbagli, o comunque si perdonano più difficilmente. Hansson fa anche l'esempio di un errore nel campo medico: per quanto facciamo fatica ad accettarlo quando è un umano a commetterlo, se fosse un sistema di IA a sbagliare sarebbe molto più grave e probabilmente ci sarebbero conseguenze legali.

Hansson sottolinea che, di fronte a due risposte di cui una è chiaramente migliore dell'altra, gli esseri umani tendono a scegliere quella più psicologicamente compatibile con la loro "costituzione mentale".

Questo non significa che l'intelligenza artificiale in futuro non possa occuparsi di sempre più mansioni che prima erano esclusivamente umane; quel che è probabile, però, è che il cambiamento sarà graduale e seguirà il ritmo dettato dalle persone.