L'AI Act e il diritto d'autore

In vita mia ho visto abbastanza disruption tecnologiche da riconoscere quando un dibattito pubblico si concentra sulle questioni sbagliate mentre i veri cambiamenti strutturali avvengono altrove.
Il caso dell'AI Act europeo e del diritto d'autore è esattamente uno di questi momenti.
La narrazione mainstream è una distrazione
Ti raccontano questa storia: l'Europa ha approvato la prima legge completa sull'intelligenza artificiale, che protegge i diritti degli autori imponendo alle aziende di IA di rispettare gli opt-out e documentare i dati di training. È una battaglia tra innovazione tecnologica e protezione della creatività umana. Devi scegliere da che parte stare.
Questa narrazione è tecnicamente accurata ma strategicamente inutile. È come descrivere le pedine su una scacchiera senza vedere la partita che si sta giocando.
La vera partita riguarda qualcosa di molto più profondo: una riallocazione fondamentale del potere economico nella catena del valore della creatività . E questa riallocazione sta avvenendo attraverso meccanismi che il dibattito pubblico non sta nemmeno considerando.
Il vuoto di valore che tutti ignorano
Partiamo da un fatto giuridico consolidato: nell'Unione Europea, un'opera generata autonomamente da un'intelligenza artificiale non è protetta dal diritto d'autore. Cade immediatamente nel pubblico dominio. Questo non è un baco del sistema o una lacuna legislativa da colmare. È la diretta applicazione di un principio millenario: il diritto d'autore protegge la creatività umana, punto.
La Corte di Giustizia europea ha costruito negli anni una giurisprudenza granitica su questo: un'opera è protetta solo se costituisce una "creazione intellettuale propria del suo autore", con "scelte libere e creative" che imprimono un "tocco personale". Una macchina, per definizione, non ha personalità da imprimere.
Gli Stati Uniti dicono la stessa cosa. Il Regno Unito, che per trent'anni ha avuto una bizzarra eccezione che proteggeva le "opere generate da computer", sta per eliminarla. C'è convergenza globale: niente umano creativo, niente copyright.
Questa scelta giuridica crea un vuoto economico gigantesco. Se investi centinaia di milioni per sviluppare un modello di IA che genera contenuti, e poi chiunque può copiare liberamente quegli output, come recuperi l'investimento? Come competi se un concorrente può prendere gratis ciò che a te è costato una fortuna produrre?
Il mainstream si ferma qui e dice: "Vedi? È un problema. Bisogna proteggere gli investimenti nell'IA". Ma questa è esattamente la domanda sbagliata.
L'inversione che conta davvero
La domanda giusta è: se l'output non ha valore protetto, dove si sposta il valore?
La risposta è brillante nella sua semplicità : si sposta all'input.
Se l'immagine generata dall'IA è di pubblico dominio, il vero asset diventa il prompt che l'ha generata. Se il testo prodotto dall'algoritmo è liberamente copiabile, ciò che ha valore commerciale è l'istruzione umana che ha guidato quella produzione.
Questo non è un dettaglio tecnico. È un'inversione sistemica fondamentale.
Per decenni, il modello economico della creatività è stato: creo un'opera → la proteggo con il copyright → la licenzio → guadagno. L'asset era l'output.
Il nuovo modello è: progetto un'istruzione → la proteggo come segreto commerciale → la uso per generare volume → catturo valore a livello di servizio/piattaforma. L'asset è l'input e l'infrastruttura.
Questo cambia tutto. Non stiamo parlando di adattare il vecchio sistema alla nuova tecnologia. Stiamo parlando di un cambio di paradigma su dove si accumula il potere economico.
Il segreto commerciale come nuovo copyright
Qui diventa interessante. Il report che ho analizzato lo dice chiaramente: la protezione migliore per un prompt di valore strategico non è il diritto d'autore, ma il segreto commerciale.
Il copyright protegge solo la forma espressiva specifica. Un concorrente può prendere la tua idea, riformularla, e ottenere lo stesso risultato senza violare nulla. Il segreto commerciale, invece, protegge l'informazione stessa, finché rimane segreta.
Ma questo ci riporta a un modello di protezione pre-moderno. Prima dell'età industriale, le corporazioni medievali proteggevano il loro know-how attraverso la segretezza, non attraverso brevetti o copyright. La ricetta della porcellana cinese, le tecniche di produzione del vetro veneziano, le formule degli alchimisti: tutto protetto attraverso il controllo dell'informazione, non attraverso la disclosure pubblica in cambio di protezione temporanea.
Stiamo tornando a quel modello. E questo ha conseguenze profonde per come si struttura un'organizzazione. Non più portfolio di opere registrate e licenziabili, ma vault di segreti commerciali protetti da NDA, controlli di accesso, compartimentalizzazione delle informazioni.
L'opt-out che non funziona
Ora veniamo alla parte che tutti credono sia il cuore della questione: l'obbligo per le aziende di IA di rispettare gli opt-out dei titolari di diritti d'autore quando raccolgono dati per addestrare i modelli.
L'articolo 53 dell'AI Act, operativo dal 2 agosto 2025, dice che i fornitori di modelli devono "identificare e rispettare" le riserve sui diritti espresse dai titolari. Suona bene sulla carta. Ma chiunque abbia mai implementato sistemi complessi sa che c'è un abisso tra "cosa dice la norma" e "come funziona nella pratica".
I problemi sono sistemici:
Non esiste uno standard tecnico universale per segnalare un opt-out. Un creatore può mettere un tag nei metadati, un altro una dichiarazione nel robots.txt, un terzo una nota nelle condizioni d'uso. I crawler dei modelli di IA dovrebbero riconoscerli tutti? E chi verifica?
L'onere tecnico e finanziario ricade interamente sui creatori. Se sei un illustratore freelance o un musicista indipendente, devi implementare meccanismi machine-readable sul tuo sito, monitorare continuamente se vengono rispettati, e potenzialmente fare causa a aziende con team legali enormi se sospetti violazioni. Questo non è un sistema equo, è uno spostamento di costo che rende il diritto teoricamente esistente ma praticamente inapplicabile per la maggioranza.
La retroattività è un problema enorme. I modelli già addestrati su miliardi di opere prima di agosto 2025 restano? Si devono ri-addestrare da zero rispettando tutti gli opt-out? Chi controlla?
E arriviamo alla domanda che nessuno fa: chi fa enforcement? L'AI Office europeo dovrebbe controllare che OpenAI, Google, Anthropic, Meta abbiano davvero rispettato ogni singolo opt-out nei loro dataset di training? Con quali risorse? Con quale competenza tecnica per verificare l'interno di un modello che è una black box da centinaia di miliardi di parametri?
Il vantaggio di chi è già dentro
Questo crea un vantaggio strutturale gigantesco per chi ha già raccolto dataset enormi negli anni precedenti, quando queste regole non esistevano o non erano enforce.
Google ha indicizzato il web per due decenni. OpenAI ha raccolto dati per anni in zone grigie legali. Questi attori hanno già i loro modelli addestrati. Hanno già catturato il valore di quella conoscenza.
Le nuove regole, per quanto ben intenzionate, alzano le barriere all'ingresso per chiunque voglia entrare dopo. Un nuovo competitor europeo che volesse sviluppare un modello competitivo oggi dovrebbe:
- Acquisire o licenziare dati rispettando tutti gli opt-out
- Implementare sistemi di verifica e documentazione costosi
- Competere contro chi ha già ammortizzato quei costi su economie di scala globali
Questo è un caso da manuale di regulatory capture involontario. Le regole proteggono gli incumbent più di quanto non limitino il loro potere.
Cosa succede davvero al lavoro creativo umano
Il report presenta la questione come un dibattito bilanciato: da una parte l'innovazione, dall'altra la protezione degli autori. Ma da osservatore pragmatico che ha visto disruption in settori diversi, la direzione è chiara.
Il valore del contenuto creativo standard sta collassando. Non perché l'IA sia "migliore" degli umani, ma per economia di base: quando il costo marginale di produzione tende a zero, il prezzo crolla.
Un'illustrazione stock, un articolo di blog generico, una traccia musicale ambient, un design base: tutto ciò che non richiede un contributo umano unico e dimostrabile vedrà il suo valore di mercato compresso verso zero.
Le uniche opere creative che manterranno valore elevato saranno quelle dove l'elemento umano è:
- Dimostrabile (hai documentazione del processo)
- Verificabile (terzi possono confermare il tuo contributo)
- Differenziante (porta qualcosa che la macchina non può replicare)
Questo significa che il lavoro creativo sopravvissuto sarà necessariamente più sofisticato, più personalizzato, più "signature". Paradossalmente, l'IA che elimina il lavoro creativo generico potrebbe elevare il livello minimo richiesto per essere un creatore professionista.
Il pattern sistemico invisibile
Prendendo distanza e guardando tutto questo con lente di systems architect, il pattern più ampio diventa chiaro.
Prima: Creatore → Opera protetta → Distribuzione → Monetizzazione (valore catturato dall'autore)
Ora: Dati (spesso non compensati) → Modello (protetto come IP dell'azienda) → Output (pubblico dominio) → Valore catturato a livello di piattaforma
Il potere economico si è spostato da chi crea contenuto a chi controlla l'infrastruttura che lo genera e lo distribuisce. Questo non è nuovo: è lo stesso pattern della music industry (da musicisti a etichette e streaming), del video (da filmmaker a piattaforme), del testo (da giornalisti a social media).
L'IA è solo l'ultimo capitolo di una storia più lunga: la disintermediazione dei creatori e la concentrazione del valore nelle piattaforme.
Come operare in questo scenario
Se devi navigare questo mondo, alcuni principi operativi:
Documenta il processo, non solo l'output. Se usi IA nel tuo lavoro creativo, conserva log dettagliati di ogni fase. Prompt, iterazioni, scelte di curatela, modifiche. Questa documentazione è la tua prova di autorialità umana.
Proteggi gli input come asset strategici. I tuoi prompt library, i tuoi workflow, i tuoi processi: sono segreti commerciali. NDA con collaboratori, controlli di accesso, compartimentalizzazione.
Sfrutta il pubblico dominio. Il volume crescente di contenuti generati da IA è una risorsa gratuita. Usala come materia prima, aggiungici sopra il tuo layer creativo umano, e crei qualcosa di protetto e vendibile.
Investi nella tua signature umana. Ciò che ti differenzia come creatore non è più la capacità tecnica di esecuzione (quella la fa l'IA), ma la visione, il gusto, il contesto culturale, la narrazione che solo tu puoi portare.
La domanda che conta
Il vero dibattito non dovrebbe essere "proteggiamo o no gli output dell'IA". Quello è il dibattito che vogliono farti avere perché distrae dalle questioni strutturali.
La domanda giusta è: chi controllerà l'infrastruttura cognitiva del futuro? E in un mondo dove il contenuto tende a diventare commoditizzato, quale modello economico sostiene la creatività umana che alimenta quella stessa infrastruttura?
Queste sono domande sistemiche, non legali. E richiedono una comprensione profonda di come il potere economico si ristruttura quando cambiano i layer tecnologici sottostanti.
Il resto è teatro.