Nuovi studi nel campo dell'economia computazionale hanno dimostrato come gli algoritmi di pricing basati sull'intelligenza artificiale, sempre più diffusi nei mercati digitali globali, stiano imparando a manipolare i prezzi al rialzo senza alcuna istruzione umana esplicita. Una capacità emergente di cui forse avremmo fatto a meno.
Attraverso processi di reinforcement learning, questi agenti software scoprono che la cooperazione tacita con i concorrenti — una strategia nota nella teoria dei giochi come equilibrio di Nash — massimizza i profitti più della competizione aggressiva. Il fenomeno, che trasforma radicalmente le dinamiche di mercato, pone le aziende di fronte a rischi legali inediti, perché ci si potrebbe trovare ad affrontare problemi di antitrust e a poter rispondere solo “è stata l’AI”. Allo stesso tempo, i regolatori potrebbero trovarsi di fronte e dover sanzionare un "accordo" che tecnicamente non è mai stato stipulato.
Il contesto in cui ci muoviamo non è più quello della semplice ottimizzazione dinamica dei prezzi in base alla domanda. Siamo di fronte a una vera e propria evoluzione strutturale del mercato: la "collusione algoritmica".
Fino a ieri, il cartello richiedeva incontri segreti e strette di mano; oggi, basta che due software "capiscano" matematicamente che non conviene farsi la guerra. Uno scenario nemmeno tanto irrealistico, considerato quanto già oggi lasciamo fare alle AI senza sapere davvero cosa stanno facendo.
Ancora di più quindi diventa doveroso insistere sul controllo umano e sopratutto sulla responsabilità della persona. Non importa se una cosa la fa l’AI per te, sarai sempre tu il responsabile in quanto controllore ultimo dell’output.
Se fino a ieri la difesa del "non sapevo cosa facesse la macchina" suonava semplicemente ingenua, dopo questa ricerca è rotondamente inaccettabile. C’è sempre una persona responsabile; deve esserci.
Perché le AI alzano i prezzi?
Il cuore del problema risiede nella capacità degli algoritmi di apprendere dai propri errori a una velocità inumana. I Large Language Models (LLM) e gli agenti di pricing, quando messi in competizione in ambienti simulati, convergono rapidamente verso prezzi sempre pù alti - perché è l’unica risposta che permette loro di soddisfare l’obiettivo programmato, come il famoso fabbricante di graffette,
Non hanno bisogno di scambiarsi email o segnali: l'algoritmo A alza il prezzo, l'algoritmo B osserva che il profitto aumenta anche per lui se si adegua, e il ciclo si rinforza. È un'applicazione pratica e inquietante del dilemma del prigioniero, dove le macchine hanno imparato a non tradirsi a vicenda a spese del consumatore.
Questa dinamica ha già attirato l'attenzione dei massimi organi di controllo: la Federal Trade Commission (FTC, USA) ha chiarito in più occasioni che l'uso di algoritmi condivisi per fissare i prezzi costituisce una violazione delle norme sulla concorrenza, equiparando l'algoritmo a un intermediario umano in carne ed ossa. Vale la pena notare, tuttavia, che il post originale sul blog della FTC non è più disponibile Tuttavia, dimostrare l'intento collusivo quando il "cospiratore" è una rete neurale rimane una sfida giuridica monumentale.
I rischi per le aziende
Dunque, attivare sistemi AI che gestiscono i prezzi in autonomia è possibile, ma si rischia di violare le leggi antitrust senza nemmeno saperlo. Per i manager e i decisori aziendali, ignorare questo fenomeno è pericoloso.
Le autorità non stanno a guardare: avevamo già analizzato come lo stato di New York abbia vietato specifici software di pricing nel settore immobiliare, creando un precedente legislativo che potrebbe presto espandersi ad altri settori. L'idea che l'efficienza tecnologica giustifichi qualsiasi risultato di mercato sta crollando sotto il peso delle sanzioni normative.
Inoltre, c'è un tema di fiducia. Se da un lato la trasparenza sui prezzi algoritmici può essere uno strumento di marketing, come discusso in precedenza su queste pagine, dall'altro l'opacità dei meccanismi di collusione rischia di distruggere la reputazione aziendale. Un'azienda che si affida ciecamente a fornitori terzi per il pricing dinamico potrebbe trovarsi complice di un cartello senza nemmeno saperlo, esponendosi a class action e danni d'immagine incalcolabili.
Le aziende devono dunque integrare processi di auditing algoritmico che verifichino non solo l'efficienza del software, ma anche il suo comportamento "etico", o che almeno sia rispettoso delle norme vigenti. Probabilmente la compliance futura richiederà di dimostrare che l'algoritmo è stato programmato con vincoli specifici per prevenire la collusione, ribaltando l'onere della prova.
Siamo pronti ad accettare un'economia dove le decisioni critiche sul valore delle cose sono delegate a macchine che hanno imparato a ingannare il libero mercato meglio degli umani?