Il grande inganno

Mi trovo sempre nel posto giusto al momento giusto per osservare pattern che gli altri non vedono ancora. E quello che sto vedendo nell'evoluzione dalla ricerca tradizionale alla ricerca AI mi preoccupa profondamente.
I dati sono impressionanti: il 96% di chi prova la ricerca AI continua a usarla. Il mercato passerà da 43.6 miliardi nel 2024 a quasi 379 miliardi nel 2030. ChatGPT, Perplexity, Google AI - tutti crescono a ritmi esplosivi.
Ma ecco il pattern inquietante che si fa strada nella mia mente con prepotenza:"stiamo passando da una prigione, ad un'altra più sofisticata"
Il vecchio condizionamento era almeno visibile
Con Google, o Bing almeno sapevamo di essere manipolati. Vedevi gli "Annunci" in cima, capivi che i primi risultati erano spesso sponsorizzati, potevi scegliere tra diverse fonti, mantenevi il controllo di cliccare o meno. Era marketing, ma marketing trasparente.
Soprattutto, le fonti che trovavi erano contenuti originali creati da esseri umani. Anche se manipolati o sponsorizzati, erano comunque il prodotto di esperienze, opinioni e competenze reali. C'era una tracciabilità umana dietro ogni informazione.
Il nuovo condizionamento è invisibile e letale
Con l'AI, il condizionamento si è fatto invisibile e quindi infinitamente più potente:
"Solo il 27% degli utenti clicca sulle citazioni, ma il 65.9% si fida della risposta se ci sono citazioni visibili"Tradotto: Ti fidi dell'AI perché sembra documentata, ma non verifichi mai le fonti.
"Il 48.8% non controlla le fonti se la risposta 'sembra corretta' Tradotto: Se l'AI scrive bene, deve essere vero.
"Il 57.1% crede che l'AI selezioni le fonti per sostenere una narrazione specifica" Tradotto: Anche quando sospettano la manipolazione, continuano a usarla.
La trappola del contenuto artificiale su contenuto artificiale
Ma ecco dove la situazione diventa davvero distopica: ora le AI si nutrono sempre più di contenuti creati da altre AI.
Una volta, quando cercavi informazioni su Google, almeno avevi la possibilità di trovare contenuti originali scritti da esperti reali, giornalisti veri, testimonianze dirette. C'era una catena di responsabilità umana dietro ogni informazione.
Oggi? L'AI che ti risponde ha "imparato" da milioni di articoli, blog post, recensioni e contenuti che sono stati a loro volta generati da AI. È un circolo vizioso di informazioni artificiali che si auto-alimentano.
Il risultato? Non stai più accedendo alla conoscenza umana filtrata dall'AI. Stai accedendo a conoscenza artificiale moltiplicata da altre AI.
Come funziona il nuovo condizionamento multistrato
1. L'AI sceglie quali fonti includere (molte delle quali sono già contenuti AI)
2. Decide come presentare l'informazione basandosi su pattern appresi da altri contenuti AI
3. Costruisce una narrativa "coerente" che rinforza bias già presenti nei dati di training artificiali
4. Te la consegna come "risposta definitiva" eliminando il tuo bisogno di cercare fonti umane originali
Il risultato? Un marketing così sofisticato che non te ne accorgi nemmeno, amplificato da un eco-sistema di contenuti artificiali che si auto-rinforzano.
La perdita dell'autenticità originale
Negli anni '90 e 2000, anche se Google manipolava i risultati, almeno potevi trovare:
- Testimonianze dirette di persone reali
- Articoli scritti da giornalisti con nome e cognome
- Recensioni autentiche di utenti veri
- Contenuti creati da esperti riconoscibili
Oggi, quando l'AI ti fornisce una "risposta completa", non hai idea se stai leggendo:
- Una sintesi di esperienze umane reali
- Una rielaborazione di contenuti già artificiali
- Una "allucinazione" generata dal modello
- Una combinazione di tutto quanto sopra
Hai perso completamente la tracciabilità dell'origine umana dell'informazione.
Ma non è niente di nuovo
- Negli anni '70, la televisione ci vendeva prodotti con pubblicità evidenti.
- Negli anni '90, internet ci vendeva attraverso banner e pop-up.
- Negli anni 2000, Google ci vendeva attraverso "risultati rilevanti" ma almeno umani.
- Negli anni 2010, i social ci vendevano attraverso "contenuti personalizzati" ma ancora riconoscibili.
Oggi, l'AI ci vende attraverso "intelligenza artificiale" nutrita da altra intelligenza artificiale.Stesso gioco, nuove regole. Più sofisticate, più efficaci, più invisibili, e completamente slegate dall'autenticità umana originale.
La domanda scomoda
Se il 58.5% delle ricerche su Google termina già senza clic, e l'AI elimina completamente il bisogno di visitare fonti originali umane...Chi controlla davvero l'informazione che ricevi? E soprattutto: è ancora informazione umana?
Non sei tu. Non sono nemmeno le fonti originali. È chi controlla l'algoritmo dell'AI e i dataset di training sempre più contaminati da contenuti artificiali.
Il prezzo della comodità artificiale
Sì, l'AI è più veloce. Sì, è più comoda. Sì, "sembra" più intelligente.
Ma stai barattando la tua capacità di accedere a esperienze umane autentiche per la comodità di ricevere "risposte pronte" generate da macchine che si sono nutrite di altre risposte generate da macchine.
Stai passando da consumatore di conoscenza umana a consumatore di prodotti artificiali infinitamente replicati.
Fra 18 mesi, quando tutti si accorgeranno di quanto siano diventati dipendenti dalle "risposte AI" slegate dalla realtà umana, ricordatevi di questo post.
La vera intelligenza artificiale
Il problema non è l'AI in sé. Il problema è che stiamo usando l'AI credendo di essere più informati, quando in realtà stiamo diventando più disconnessi dalla conoscenza umana originale. La vera intelligenza artificiale? È quella di chi ha capito come usare l'AI per renderci artificialmente dipendenti da risposte che non hanno più alcun legame verificabile con l'esperienza umana reale.
Salvatevi questo post. Tornateci fra un anno.
Non mi posiziono contro l'AI. Osservo pattern. Se qualcuno si sente attaccato da queste osservazioni... beh, è interessante.