Un nuovo fenomeno digitale sta emergendo all’intersezione tra intelligenza artificiale e tribalismo politico: l’ascesa della “ragazza MAGA” generata dall’intelligenza artificiale

Utilizzando sofisticati strumenti di intelligenza artificiale, i creatori stanno costruendo personaggi iperrealistici e politicamente caricati progettati per sfruttare gli algoritmi dei social media e rivolgersi a specifici dati demografici. Questi “influencer”, spesso biondi, bianchi e che interpretano ruoli come infermieri o soccorritori, sfruttano la retorica conservatrice per promuovere un massiccio coinvolgimento e lucrosi ricavi da abbonamenti.

L’anatomia di una truffa digitale

La strategia non è casuale; è calcolato. Per creatori come “Sam”, uno studente di medicina indiano in cerca di un reddito extra, il processo è iniziato con la ricerca di una nicchia redditizia. Dopo aver scoperto che i contenuti generici di “ragazze sexy” faticavano a competere, si è rivolto all’intelligenza artificiale per le ricerche di mercato.

Il risultato è stato un progetto di successo:
Puntare a una nicchia: l’intelligenza artificiale ha suggerito che il pubblico conservatore, in particolare gli uomini più anziani negli Stati Uniti, offriva un reddito disponibile più elevato e una maggiore lealtà.
Creare una persona: Sam ha sviluppato “Emily Hart”, un’infermiera generata dall’intelligenza artificiale che pubblicava contenuti che celebravano il Secondo Emendamento, i valori cristiani e le rigide politiche sull’immigrazione.
Armi “Rage Bait”: Il contenuto è stato progettato per provocare. Pubblicando didascalie polarizzanti, gli account hanno innescato il coinvolgimento sia dei sostenitori (a cui è piaciuto il contenuto) che dei detrattori (che hanno commentato con rabbia). Agli occhi dell’algoritmo, entrambi i tipi di coinvolgimento hanno lo stesso valore, spingendo il contenuto verso la viralità.

Perché la “nicchia MAGA” funziona

Gli esperti suggeriscono diverse ragioni per cui questi personaggi IA trovano un terreno così fertile negli spazi digitali di destra:

  1. Scarsità demografica: mentre le donne della Gen Z sono fortemente liberali, le giovani donne conservatrici sono una relativa rarità. Un personaggio AI che incarna valori “tradizionali” agisce come un potente catalizzatore di attenzione all’interno di quel movimento.
  2. Il fattore “sentimento sulla verità”: Valerie Wirtschafter, membro della Brookings Institution, osserva che per molti seguaci, la realtà fisica della persona è secondaria rispetto all’ideologia che rappresentano. Fintanto che la persona convalida la propria visione del mondo, il fatto che sia una “scarsa intelligenza artificiale” conta meno del sentimento che proietta.
  3. Amplificazione algoritmica: le piattaforme di social media danno priorità ai contenuti controversi. Più un post suscita dibattito, più viene spinto verso nuovi utenti, creando un ciclo di feedback di visibilità.

Il divario normativo

Nonostante le politiche della piattaforma richiedano la divulgazione dei contenuti generati dall’intelligenza artificiale, l’applicazione rimane incoerente. Questa svista “raffazzonata” ha permesso a diversi account falsi di alto profilo di prosperare:

  • Migrazione della piattaforma: mentre i siti tradizionali come Instagram hanno regole più rigide, i creatori spesso migrano i loro contenuti più espliciti verso concorrenti come Fanvue, che è più permissivo nei confronti del materiale generato dall’intelligenza artificiale.
  • L’ascesa dei “cloni digitali”: Account come “Jessica Foster” hanno raccolto milioni di follower fingendosi membri dell’esercito, per poi orientarsi verso la monetizzazione di “foto dei piedi” e altri contenuti di nicchia.
  • Il pericolo dell’estremismo: Cresce la preoccupazione che la stessa logica alla base di questi racconti di “ragazze sexy” possa essere applicata a ideologie ancora più radicali. Gli autori hanno notato che i contenuti altamente estremisti, comprese le immagini filo-naziste, ricevono un coinvolgimento eccezionalmente elevato, rappresentando una sfida significativa per i moderatori della piattaforma.

Conclusione

L’ascesa degli influencer politici generati dall’intelligenza artificiale rappresenta un’evoluzione sofisticata delle truffe online. Unendo immagini sessualizzate con identità politiche polarizzanti, i creatori stanno sfruttando con successo sia i meccanismi degli algoritmi dei social media sia il desiderio psicologico di convalida ideologica.

Il punto è: In un’era in cui il coinvolgimento è la valuta principale, la verità dell’esistenza di una persona sta diventando sempre più irrilevante per i modelli di profitto che guidano l’economia digitale.