Il mercato dell'intelligenza artificiale vive un periodo di continua sperimentazione sui prezzi che sta creando non poche difficoltà ai responsabili IT delle aziende. I modelli tariffari cambiano rapidamente, perché tutto il settore cerca di rispondere a cambiamenti repentini e irripetibili, come l'annuncio di nuovi modelli o l'ingresso di nuovi concorrenti.
Alcuni esperti parlano quindi di monetizzazione agile applicata all'AI. Brian Clark, presidente delle iniziative di commercializzazione di Chargebee, evidenzia come le aziende più performanti modifichino i prezzi più di una volta ogni trenta giorni. Un esempio emblematico è rappresentato da Salesforce, che per la sua linea di prodotti AI Agentforce ha proposto diversi modelli tariffari in rapida successione.
La filosofia dello sviluppo agile, tradizionalmente applicata alla programmazione, si è estesa quindi anche alle strategie di pricing. "La monetizzazione agile deve essere flessibile e cambiare man mano che variano le diverse variabili, l'adozione aziendale e i costi dei modelli linguistici", spiega Clark. Questo approccio prevede tariffe specifiche per persona e per prodotto, ma con una flessibilità che spesso confonde i potenziali acquirenti.
Una recente indagine di Chargebee ha rivelato che il 43% dei fornitori di AI sta adottando modelli di pricing ibridi che combinano abbonamenti con tariffe basate sull'utilizzo. Un ulteriore 8% integra gli abbonamenti con prezzi legati ai risultati ottenuti. Solo il 16% dei fornitori mantiene ancora modelli puramente basati su abbonamento, una percentuale destinata probabilmente a diminuire.
Da un lato la competizione feroce spinge verso prezzi aggressivi per conquistare quote di mercato, dall'altro l'esigenza di generare profitti impone correzioni al rialzo. Come osserva Clark, molte aziende iniziano con licenze a prezzi ribassati per sfidare i leader del settore, ma poi si rendono conto che i margini si assottigliano troppo e devono ricorrere a tariffe basate sull'uso per proteggerli.
Il dilemma dei costi nascosti
Rebecca Wettemann, CEO della società di analisi IT Valoir, sottolinea una problematica fondamentale: molti fornitori di AI dipendono da modelli linguistici di terze parti che applicano tariffe per ogni chiamata API. Questa dipendenza rende difficile prevedere i costi interni e, di conseguenza, stabilire prezzi stabili per i clienti finali. La situazione ricorda quella dei primi anni del cloud computing, quando anche i servizi di infrastruttura vivevano continui aggiustamenti tariffari.
I modelli tradizionali per postazione di lavoro, tipici del SaaS, risultano inadeguati per l'intelligenza artificiale. Come spiega Wettemann, "in un mondo ideale, l'AI dovrebbe ridurre il numero di postazioni necessarie o permettere alle organizzazioni di ottenere di più con lo stesso numero di dipendenti".
Se però questo ideale si realizza, non favorisce i fornitori che si trovano a vendere meno licenze mentre sostengono costi maggiori per le chiamate ai modelli linguistici.
Kevin Carlson, CTO e responsabile della strategia AI presso TechCXO, consiglia ai direttori IT di evitare il vendor lock-in e di sforzarsi di comprendere i diversi modelli di pricing disponibili. Una raccomandazione particolare riguarda l'utilizzo di strumenti di sviluppo basati su AI: è essenziale che gli sviluppatori partecipino attivamente al processo e approvino ogni fase, poiché un'approvazione generica può portare a situazioni dove il modello continua a processare inutilmente lo stesso problema per ore.
Wettemann suggerisce di prestare attenzione agli aumenti imprevisti e di negoziare crediti di spesa flessibili che possano garantire una certa prevedibilità. I fornitori che non possiedono modelli linguistici propri dovranno inevitabilmente trasferire gli aumenti dei costi LLM sui clienti per mantenere la sostenibilità economica.
L'esperienza sul campo
Ed Frederici, CTO di Appfire, condivide l'esperienza pratica della sua azienda nell'utilizzo di vari prodotti AI. L'approccio adottato prevede contratti mirati per limitare le variazioni di prezzo e sistemi di allerta quando i dipendenti interagiscono con strumenti basati sull'utilizzo. "Siamo molto cauti con i modelli basati sul consumo", afferma Frederici, raccontando di aver visto persone commettere errori negli ambienti cloud che hanno generato costi di decine o centinaia di migliaia di dollari in una sola notte.
La strategia consigliata da Frederici prevede l'applicazione di controlli dei costi simili a quelli utilizzati per i fornitori di cloud computing. Una buona strategia di consumo cloud può servire come modello per il consumo di AI, permettendo alle aziende di mantenere sotto controllo le spese impreviste.
Guardando al futuro, Frederici si mostra ottimista sui prezzi dell'AI nel lungo termine, prevedendo che la competizione farà diminuire i costi. Tuttavia, a breve termine, la tensione tra competizione e gli elevati costi computazionali ed energetici necessari per ottenere risultati AI continuerà a generare fluttuazioni. La domanda cruciale rimane: fino a che punto i margini possono ridursi prima che diventi economicamente insostenibile offrire funzionalità di intelligenza artificiale?