Daryl Lim, titolare della cattedra H. Laddie Montague Jr. presso la Penn State Dickinson Law e preside associato per la ricerca, ha analizzato come l'AI generativa metta insieme questione di copyright e temi di antitrust, evidenziando come l'addestramento dei modelli AI su scala industriale richieda l'accesso a enormi quantità di opere protette da copyright, concentrando tale capacità nelle mani di poche aziende che controllano simultaneamente calcolo computazionale, dati, infrastrutture cloud e distribuzione.
Il nodo centrale riguarda quella che Lim definisce il paradosso della dimensione: la stessa scala che rende i sistemi AI più potenti, affidabili e sicuri alimenta preoccupazioni circa il consolidamento del potere di mercato. Storicamente, le controversie sul copyright raramente hanno intersecato questioni antitrust perché le opere erano frammentate e facilmente sostituibili, con i diritti dispersi tra numerosi titolari. L'AI generativa sovverte questa logica: addestrare modelli di frontiera richiede aggregazione massiva di contenuti, favorendo naturalmente poche piattaforme integrate verticalmente.
La questione assume contorni problematici quando l'insoddisfazione per i risultati di monetizzazione o licensing inizia a sostituirsi alla dimostrazione di un danno competitivo effettivo.
Secondo Lim, se i tribunali permettessero questa deriva, l'antitrust rischierebbe di trasformarsi in uno strumento surrogato di enforcement del copyright anziché rimanere focalizzato sui comportamenti escludenti. La strada più coerente, seppur complessa, consiste nel lasciare che le tutele interne del diritto d'autore operino autonomamente, riservando l'intervento antitrust ai casi che dimostrano reale esclusione piuttosto che semplice innovazione di piattaforma.
Il dibattito pubblico sull'AI generativa parte spesso dal presupposto che addestrare modelli su materiale protetto sia chiaramente illegale. Lim contesta questa semplificazione, richiamando il ruolo storico del fair use come salvaguardia competitiva interna al copyright. Durante precedenti transizioni tecnologiche che coinvolgevano fotocopiatrici, motori di ricerca, reverse engineering e interoperabilità software, i tribunali hanno utilizzato questa dottrina per distinguere apprendimento e trasformazione dalla mera sostituzione. Esiste un'intera giurisprudenza dedicata a tale distinzione, applicabile anche all'utilizzo non espressivo dei contenuti da parte dell'intelligenza artificiale.
Questo non significa che la legalità dell'addestramento AI sia questione chiusa. Tribunali negli Stati Uniti, Regno Unito ed Europa stanno valutando questioni relative all'uso non espressivo, responsabilità secondaria e meccanismi di training. Tuttavia, sovrapporre enforcement antitrust a interrogativi ancora irrisolti in ambito copyright crea confusione: i mercati non diventano più competitivi, ma paralizzati. Se una condotta che il diritto d'autore finisce per considerare lecita viene poi giudicata escludente sotto profilo antitrust, il risultato è incertezza normativa anziché chiarezza competitiva.
La dimensione in sé non dovrebbe innescare interventi antitrust, sostiene Lim. La scala è intrinseca allo sviluppo AI e spesso migliora prestazioni, sicurezza e affidabilità. L'antitrust ha affrontato questo dilemma in precedenza, specialmente nei casi tecnologici riguardanti l'integrazione software. Il principio guida rimane la condotta, non le dimensioni. Il controllo antitrust diventa legittimo quando emerge foreclosure dimostrabile: accordi esclusivi su cloud o capacità computazionale che negano ai concorrenti l'accesso a risorse essenziali di training, partnership sui dati con termini restrittivi irragionevoli, o contratti coercitivi di posizionamento che riducono la contendibilità del mercato.
Oltre i confini dottrinali, Lim solleva preoccupazioni più ampie sulla politicizzazione dell'antitrust tra diverse amministrazioni e giurisdizioni. Quando l'enforcement competitivo diventa strumento ideologico anziché basarsi su evidenze, la prevedibilità ne soffre. L'antitrust viene crescentemente chiamato ad affrontare questioni meglio gestibili da altri corpi normativi: politica industriale, preoccupazioni lavorative, risultati espressivi. Il diritto della concorrenza è adatto a valutare definizione di mercato e foreclosure, non a risolvere obiettivi sociali o politici più ampi.
Il quadro proposto da Lim per navigare i conflitti regolatori legati all'AI articola cinque pilastri: chiarezza normativa, compliance by design, riforma istituzionale, riallineamento politico e ricerca empirica. Se i regolatori potessero agire su uno solo, la priorità dovrebbe andare alla separazione chiara dei ruoli istituzionali. Il copyright governa paternità, violazione e fair use. L'antitrust affronta condotte escludenti e foreclosure. Quando questi mandati si confondono, l'enforcement si politicizza e l'innovazione rallenta.
La prevedibilità conta quanto l'enforcement stesso. In un contesto dove l'addestramento di modelli AI richiede investimenti miliardari e anni di sviluppo, l'incertezza normativa non produce mercati più competitivi ma scoraggia l'ingresso di nuovi attori e consolida posizioni dominanti esistenti. La vera domanda non è se regolare l'AI, ma quale strumento giuridico utilizzare per quali problemi specifici: confondere copyright e antitrust rischia di indebolire entrambi senza risolvere le criticità sottostanti del mercato dell'intelligenza artificiale.