Cinque pericoli concreti dell'Intelligenza Artificiale

L'Intelligenza Artificiale è sempre più presente nelle nostre vite, e lo sarà ancora di più nel prossimo futuro. Bisogna renderla il più sicura possibile e occuparsi delle minacce concrete che potrebbe rappresentare. Google propone di concentrarsi su cinque possibili punti di partenza.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Ultimamente si è parlato molto di Intelligenza Artificiale e in particolare dei pericoli che questa potrebbe rappresentare. Lo si è fatto però sempre in modo piuttosto generico, per esempio di recente Google ha pensato a un "pulsante rosso" per evitare scenari alla Terminator.

rosie the robot

La stessa Google però ha anche una visione molto più pragmatica sull'argomento e ha individuato cinque aspetti concreti che vanno affrontati prima di sguinzagliare le intelligenze artificiali nelle nostre case, magari all'interno di robot capaci di muoversi e interagire con noi e con l'ambiente.

La proposta nasce da una constatazione relativamente semplice: le AI hanno una presenza e un impatto sempre più rilevante nella nostra società, ma ci possono essere incidenti anche pericolosi, soprattutto se parliamo di macchine che si muovono e operano vicino a noi. I pericoli vanno previsti e risolti in anticipo con la programmazione, e Google suggerisce di partire da questi cinque punti:

  • Effetti collaterali indesiderati: un robot a cui ordiniamo di fare le pulizie dovrebbe essere in grado di capire come farle, ed evitare di rompere quell'orrendo vaso che odiate tutti ma che va protetto perché è il regalo di un parente.
  • Non deve usare trucchetti: se chiedi a una macchina intelligente di pulire potrebbe pensare che basta nascondere (ai suoi occhi) una macchia invece di eliminarla. Deve capire ciò che intendiamo dicendo "togli le macchie", e altre forme di linguaggio naturale. "Vienimi a prendere alle 14:00" per esempio significa recati con l'auto (o manda l'auto) al luogo dove sarò a quell'ora; non "vieni e afferrami".
  • Scalabilità: l'intelligenza artificiale deve imparare tramite un sistema di feedback, ed è spesso l'essere umano a fornire tale feedback. Spesso la macchina ha bisogno di riproporre molte varianti della stessa attività così da elaborare tutte le risposte possibili. Bisogna evitare però che il robot finisca per diventare assillante con la sua continua ricerca di risposte, altrimenti invece di facilitarci la vita ci manderebbe al manicomio. La macchina deve quindi sapersi adattare a un diverso livello di feedback.
  • Esplorare in sicurezza: sulla scatola del tuo robot nuovo fiammante c'è scritto che può esplorare casa tua e capire come muoversi e come pulirla. Andrà però progettato affinché sappia riconoscere le prese elettriche, e possa capire che non è una buona idea passarci sopra il mocio bagnato. O per capire che quella camicetta che tua moglie ha lasciato in camera da letto non va lavata in acqua calda.
  • Adattabilità: è necessario assicurarsi che ciò che ha imparato l'AI in un ambiente non venga replicato in un altro luogo senza attenzione. Per esempio, ciò che si è appreso in una fabbrica potrebbe non essere abbastanza sicuro in un ufficio.

Gli esperti di Google Research ritengono che questi cinque punti siano di fondamentale importanza e che il settore dovrebbe concentrarsi su di essi. Solo risolvendoli (e non è detto che sia sufficiente) si può pensare di creare macchine più intelligenti che possano accompagnare la nostra vita quotidiana.