<?xml version="1.0" encoding="UTF-8" standalone="no"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:slash="http://purl.org/rss/1.0/modules/slash/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:wfw="http://wellformedweb.org/CommentAPI/" version="2.0">

<channel>
	<title>LastKnight.com Feed</title>
	<atom:link href="https://mgpf.it/feed" rel="self" type="application/rss+xml"/>
	<link>https://mgpf.it</link>
	<description>Feed degli articoli di LastKnight.com. Ipotesi, discussioni e notizie da Matteo Flora e dal blog.</description>
	<lastBuildDate>Sat, 09 May 2026 06:00:28 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://mgpf.it/wp-content/uploads/2025/08/cropped-Untitled-design-32x32.png</url>
	<title>Matteo Flora</title>
	<link>https://mgpf.it</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Anthropic brucia i libri. Letteralmente.</title>
		<link>https://mgpf.it/2026/05/09/anthropic-brucia-i-libri-letteralmente.html</link>
					<comments>https://mgpf.it/2026/05/09/anthropic-brucia-i-libri-letteralmente.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 09 May 2026 06:00:25 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6556</guid>

					<description><![CDATA[<p>ABSTRACT: A gennaio 2026 il Washington Post ha rivelato Project Panama: l'azienda di intelligenza artificiale Anthropic ha comprato fino a due milioni di libri usati, li ha tagliati alla rilegatura con ghigliottine industriali, li ha fotografati pagina per pagina e ha mandato i resti al riciclo. La sentenza Bartz v. Anthropic dell'estate 2025 ha dichiarato tutto questo legale, e il settlement da 1,5 miliardi di dollari riguarda solo i libri piratati, non quelli comprati e distrutti. La legge dà ragione ad Anthropic. È esattamente il punto. Vernor Vinge l'aveva scritto nel 2006, Ray Bradbury settant'anni fa, e oggi le pagine cadono davvero dentro un tunnel di telecamere mentre noi ci raccontiamo che il fair use lo permette.</p>
<p>The post <a href="https://mgpf.it/2026/05/09/anthropic-brucia-i-libri-letteralmente.html">Anthropic brucia i libri. Letteralmente.</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-1024x512.jpg" alt="" class="wp-image-6558" srcset="https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-1024x512.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-600x300.jpg 600w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-300x150.jpg 300w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-768x384.jpg 768w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-720x360.jpg 720w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-580x290.jpg 580w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small-320x160.jpg 320w, https://mgpf.it/wp-content/uploads/2026/05/MatteoFlora.com_A_bleeding_BOOK_torn_apart_on_a_brutalist_con_9ff6505b-0750-4abd-a6aa-122933359884_3_small.jpg 1075w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Le immagini che mancano in questa storia sono quelle delle ghigliottine industriali. Non vengono mai mostrate, non sono cinematografiche, non hanno il pathos di un rogo. Sono macchine basse, larghe quanto un bancone da cucina, che tagliano i dorsi dei libri con la stessa precisione monotona con cui un&#8217;affettatrice taglia il prosciutto. Un addetto carica una pila, abbassa la lama idraulica, le copertine cadono da una parte, le pagine sciolte dall&#8217;altra. Le pagine vanno sotto uno scanner ad alta risoluzione, i dati finiscono in un dataset, il resto va al riciclo. È una catena di montaggio inversa: produce informazione e distrugge oggetti.</p>



<p>Il <strong>27 gennaio 2026</strong> il <a href="https://www.washingtonpost.com/technology/2026/01/27/anthropic-ai-scan-destroy-books/"><em>Washington Post</em></a> ha rivelato che questa è una scena reale, dentro magazzini reali, e che il committente è <strong>Anthropic</strong>, l&#8217;azienda di San Francisco che produce <strong>Claude</strong> e che si è venduta al mondo come l&#8217;AI lab dei buoni, quello che pubblica i paper sul <em>Constitutional AI</em>, quello che si appende al manifesto della <em>Responsible Scaling Policy</em>. Documenti interni dell&#8217;azienda, desigillati durante il processo, chiamano il programma <strong>Project Panama</strong> e lo definiscono in una frase che andrebbe incorniciata: <em>&#8220;our effort to destructively scan all the books in the world&#8221;</em> (Trad. &#8220;il nostro sforzo per scannerizzare distruttivamente tutti i libri del mondo&#8221;). Un altro documento interno, citato nella stessa inchiesta, è ancora più rivelatore: <em>&#8220;We don&#8217;t want it to be known that we are working on this&#8221;</em> (Trad. &#8220;Non vogliamo che si sappia che stiamo lavorando a questo&#8221;). Il numero stimato dall&#8217;inchiesta è tra cinquecentomila e due milioni di volumi acquistati prevalentemente da rivenditori di usato come <a href="https://www.betterworldbooks.com/">Better World Books</a> e l&#8217;inglese <a href="https://www.worldofbooks.com/">World of Books</a>, tagliati a metà, fotografati, buttati. Durata stimata del programma: circa <strong>sei mesi</strong>. Costo stimato: decine di milioni di dollari.</p>



<p>Dovrebbe darci la pelle d&#8217;oca, e provo a spiegare perché a mente fredda, lasciandoci dentro la sensazione invece di levarla.</p>



<h3 class="wp-block-heading">La sentenza che ha autorizzato il triturato</h3>



<p>Per capire perché Anthropic abbia deciso di comprare e distruggere libri fisici invece di scaricarli da internet, bisogna tornare al <strong>giugno 2025</strong> e a <a href="https://authorsguild.org/news/mixed-decision-in-anthropic-ai-case/">Bartz v. Anthropic</a>. Il giudice <strong>William Alsup</strong>, della Northern District of California, ha emesso una sentenza che è una delle più importanti del decennio in materia di AI e copyright, e che ha diviso il fronte in due nettissimi: il training di un modello su libri <strong>legalmente acquistati</strong> è <em>fair use</em>, qualifica che Alsup ha definito <em>&#8220;quintessentially transformative&#8221;</em> (Trad. &#8220;trasformativa per definizione&#8221;); il training su libri <strong>piratati</strong>, scaricati cioè da archivi come <a href="https://en.wikipedia.org/wiki/Library_Genesis">LibGen</a> e PiLiMi, non lo è, ed è quindi una violazione del diritto d&#8217;autore. Anthropic, come emerso dagli atti del processo, aveva scaricato <strong>oltre sette milioni di libri</strong> dai due archivi pirata, partendo da operazioni che il co-founder <strong>Ben Mann</strong> aveva fatto personalmente nel 2021 e che nel 2022 condivideva via email con i colleghi commentando <em>&#8220;just in time!!!&#8221;</em> (Trad. &#8220;appena in tempo!!!&#8221;).</p>



<p>In quel momento la causa è esplosa. Ad <strong>agosto 2025</strong> Alsup ha certificato la classe, trasformando l&#8217;azione di tre autori in una mega-causa che rappresentava i diritti su 482.460 opere scaricate da Anthropic, e siccome i danni statutari per ogni opera registrata possono arrivare a 150.000 dollari, l&#8217;azienda si è trovata davanti a un&#8217;esposizione teorica massima superiore ai <strong>72 miliardi di dollari</strong>. La risposta è stata immediata. Il <strong>26 agosto 2025</strong> Anthropic ha annunciato il settlement, e il <strong>25 settembre 2025</strong> il giudice Alsup ne ha dato approvazione preliminare. La cifra è quella che lo studio legale degli attori, <a href="https://www.susmangodfrey.com/wins/susman-godfrey-secures-1-5-billion-settlement-in-landmark-ai-piracy-case/">Susman Godfrey</a>, ha definito <em>&#8220;the largest publicly reported copyright recovery in history&#8221;</em> (Trad. &#8220;il più grande recupero per violazione di copyright pubblicamente riportato della storia&#8221;): <strong>1,5 miliardi di dollari</strong>, circa 3.100 dollari per ogni titolo coperto, fee per gli avvocati nell&#8217;ordine dei 375 milioni di dollari, più l&#8217;obbligo per Anthropic di <a href="https://legalblogs.wolterskluwer.com/copyright-blog/the-bartz-v-anthropic-settlement-understanding-americas-largest-copyright-settlement/">distruggere le due librerie pirata</a> entro trenta giorni dalla sentenza definitiva, con certificazione scritta agli avvocati della classe.</p>



<p>Letto da fuori, è una storia con una morale chiara: l&#8217;azienda paga per quello che ha rubato. Ma la chiave è quello che la sentenza Alsup non sanziona, anzi autorizza. Il pezzo <em>fair use</em> della decisione apre legalmente la strada al business di Project Panama: se la pirateria costa, allora si compra. E se si compra, allora si può fare tutto il resto, perché il fair use copre la digitalizzazione e l&#8217;uso per il training, e nessuno nel sistema giuridico americano ha mai detto a un proprietario di un libro fisico cosa può o non può farne. Il libro è stato comprato, è suo, può anche dargli fuoco se vuole. La legge non chiede dignità nel trattamento del supporto: chiede che il diritto d&#8217;autore venga rispettato, e quel diritto si esaurisce nel momento in cui hai pagato la copia. Il taglio della rilegatura, allora, non è un atto di vandalismo culturale ma un atto di efficienza operativa, perché lo scanner di pagine sciolte va dieci volte più veloce dello scanner di libri rilegati, e quando devi processare due milioni di volumi la velocità è l&#8217;unica cosa che conta. La differenza tra Anthropic e un milione di persone che a fine vita gettano nel cassonetto i libri di un parente defunto è solo la scala industriale dell&#8217;operazione e l&#8217;esistenza di una macchina dedicata.</p>



<h3 class="wp-block-heading">Vernor Vinge l&#8217;aveva scritto nel 2006</h3>



<p>C&#8217;è un romanzo di <strong>Vernor Vinge</strong> che si chiama <a href="https://en.wikipedia.org/wiki/Rainbows_End_(novel)"><em>Rainbows End</em></a>, vincitore del premio <strong>Hugo nel 2007</strong> come miglior romanzo di fantascienza dell&#8217;anno. È ambientato a San Diego nell&#8217;anno 2025, ed è uno dei pochi libri di fantascienza recenti che si possa rileggere oggi senza ridere delle previsioni sbagliate. Vinge era un matematico, professore alla San Diego State University, ed è morto nel marzo 2024 senza vedere quanto preciso fosse stato. Nel romanzo, la <strong>UCSD Geisel Library</strong>, una vera biblioteca universitaria di San Diego che esiste tuttora, viene digitalizzata da un consorzio chiamato il <strong>Librareome Project</strong>. Il metodo è un dispositivo che Vinge battezza <strong>NaviCloud custom debinder</strong>: una ghigliottina industriale che taglia i libri, e un <em>camera tunnel</em> fatto di tessuto su cui sono cucite migliaia di telecamere minuscole, dentro cui i frammenti cadono mentre vengono fotografati da ogni angolazione possibile, in caduta libera. Il prodotto del processo è la versione digitale completa della biblioteca. Il sottoprodotto è una pila di carta tritata che viene riciclata. <strong>Robert Gu</strong>, un poeta resuscitato dall&#8217;Alzheimer da terapie geriatriche futuribili, viene reclutato in un piccolo gruppo di anziani digitalmente analfabeti che cerca di salvare i libri prima che il debinder li sminuzzi.</p>



<p>La scena merita di essere letta in originale, perché nessuna parafrasi rende l&#8217;effetto. Vinge la racconta così:</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>&#8220;In fact, this business was the ultimate in deconstruction: first one and then the other would pull books off the racks and toss them into the shredder&#8217;s maw. The maintenance labels made calm phrases of the horror: The raging maw was a &#8216;NaviCloud custom debinder.&#8217; The fabric tunnel that stretched out behind it was a &#8216;camera tunnel.&#8217; Robert flinched from the sight, and Epiphany randomly rewarded his gesture with imagery from within the monster: The shredded fragments of books and magazines flew down the tunnel like leaves in a tornado, twisting and tumbling. The inside of the fabric was stitched with thousands of tiny cameras. The shreds were being photographed again and again, from every angle and orientation, till finally the torn leaves dropped into a bin just in front of Robert. Rescued data.&#8221;</em></p>
</blockquote>



<p>(Trad. &#8220;Di fatto, questo lavoro era la massima forma di decostruzione: prima uno e poi l&#8217;altro tiravano i libri dagli scaffali e li gettavano nella bocca della ghigliottina. Le targhe di manutenzione trasformavano l&#8217;orrore in frasi tranquille: la bocca furiosa era un <em>NaviCloud custom debinder</em>. Il tunnel di tessuto che si estendeva dietro era un <em>camera tunnel</em>. Robert si ritrasse dalla vista, e Epiphany ricompensò a caso il suo gesto con immagini dall&#8217;interno del mostro: i frammenti tritati di libri e riviste volavano dentro al tunnel come foglie in un tornado, contorcendosi e cadendo. L&#8217;interno del tessuto era cucito con migliaia di piccole telecamere. I pezzi venivano fotografati di nuovo e di nuovo, da ogni angolazione e orientamento, finché le foglie strappate cadevano in un cestino proprio davanti a Robert. <em>Rescued data</em>. Dati salvati.&#8221;)</p>



<p>Vinge non era un nostalgico, era un futurologo, ed era tra l&#8217;altro l&#8217;uomo che ha coniato il termine <em>singularity</em> nel suo significato moderno. La scena del Librareome non è una scena anti-tecnologica: è la scena di una società che ha smesso di percepire il libro come oggetto e ha cominciato a percepirlo come bottleneck di trasferimento dati. Il libro, in quel mondo, è solo l&#8217;involucro lento di un&#8217;informazione che potrebbe essere veloce, e quindi va sciolto, anzi, va frammentato perché il framing del problema è quello dell&#8217;efficienza. La storia mette in scena la stessa identica architettura morale di Project Panama vent&#8217;anni prima che venisse implementata. Le ghigliottine sono uguali, le telecamere sono uguali, persino l&#8217;eufemismo è uguale: <em>Rescued data</em>, <em>destructive scanning</em>. Le forme del salvataggio coincidono con le forme della distruzione, perché la distruzione è il prerequisito tecnico del salvataggio, e nessuno nel romanzo, esattamente come nessuno oggi, si pone la domanda se si potrebbe fare diversamente.</p>



<p>C&#8217;è un dettaglio nel passaggio sopra che rimane addosso. Quando Robert vede il debinder, la sua reazione non è la rabbia, è il ritrarsi fisico, lo <em>flinch</em>. È un dettaglio scrittorio raffinato, perché Vinge sa che la rabbia è l&#8217;emozione facile, è quella che ti aspetti da un poeta vecchio davanti a una macchina che trita libri, mentre il sussulto involontario del corpo è l&#8217;emozione esatta: è quella di chi vede una cosa che non è vietata, ma sa che non si dovrebbe fare. È esattamente la sensazione che molti di noi proviamo leggendo l&#8217;inchiesta del <em>Washington Post</em>, ed è un&#8217;emozione che il diritto positivo non sa nominare, perché il diritto positivo distingue legale e illegale e ha disimparato a maneggiare la categoria intermedia, quella delle azioni perfettamente legittime che fanno schifo lo stesso.</p>



<h3 class="wp-block-heading">Bradbury sapeva, e il punto non era il fuoco</h3>



<p>Quando si parla di libri distrutti il riflesso culturale ci porta subito a <a href="https://en.wikipedia.org/wiki/Fahrenheit_451"><em>Fahrenheit 451</em></a>, il romanzo che <strong>Ray Bradbury</strong> ha pubblicato nel <strong>1953</strong> e che da allora è diventato la metafora di default di qualunque distruzione di patrimonio scritto. La temperatura del titolo, <strong>451 gradi Fahrenheit</strong> corrispondenti a 232,8 gradi Celsius, è quella a cui Bradbury riteneva che la carta prendesse fuoco spontaneamente, e in effetti il dato è sostanzialmente corretto perché la temperatura di autoaccensione della carta è intorno ai 233 gradi. Bradbury raccontò di averla appresa da un pompiere della Library of Congress, che è già un dettaglio che vale più di un saggio.</p>



<p>La cosa che si tende a dimenticare di <em>Fahrenheit 451</em> è che il fuoco non è il problema centrale del romanzo. Il problema centrale è la frase con cui il capitano dei pompieri <strong>Beatty</strong> spiega al protagonista <strong>Guy Montag</strong> perché bruciano i libri. La spiegazione, nei capitoli centrali, non è quella che ci si aspetta. Beatty non dice che i libri sono pericolosi nel senso politico, sovversivi, da censurare. Dice questo: <em>&#8220;A book is a loaded gun in the house next door. Burn it. Take the shot from the weapon. Breach man&#8217;s mind.&#8221;</em> (Trad. &#8220;Un libro è una pistola carica nella casa accanto. Bruciatelo. Togliete il proiettile dall&#8217;arma. Aprite una breccia nella mente dell&#8217;uomo.&#8221;). E poco dopo, quando Beatty deve spiegare cosa sostituisce i libri nella società, dice una frase che oggi suona profetica: <em>&#8220;Cram them full of noncombustible data, chock them so damned full of &#8216;facts&#8217; they feel stuffed, but absolutely &#8216;brilliant&#8217; with information.&#8221;</em> (Trad. &#8220;Riempiteli di dati non combustibili, infilategliene tanti maledettamente in pancia da farli sentire pieni, ma assolutamente <em>brillanti</em> di informazioni.&#8221;). I libri sono diventati un fastidio sociale: troppe opinioni che si scontrano, troppi punti di vista che disturbano la felicità di una popolazione che ha imparato a starsene tranquilla davanti agli schermi a parete. La gente, nel mondo del romanzo, ha smesso di leggere prima che lo Stato cominciasse a bruciare. Il rogo arriva dopo, come servizio reso, non come imposizione. <em>&#8220;It was a pleasure to burn&#8221;</em> (Trad. &#8220;Era un piacere bruciare&#8221;), dice Montag nella prima frase del libro: il piacere è quello dell&#8217;efficienza, non quello della crudeltà.</p>



<p>Bradbury raccontava una distruzione che aveva una giustificazione <strong>funzionale</strong>, non ideologica. La società di <em>Fahrenheit 451</em> brucia libri perché li vede come ostacolo a un fine giudicato superiore, che è la quiete cognitiva collettiva. La società di Project Panama trita libri perché li vede come ostacolo a un fine giudicato superiore, che è l&#8217;addestramento di sistemi linguistici di massa. La differenza è di scopo, non di logica. In entrambi i casi il libro è un oggetto fisico che impedisce un&#8217;operazione efficiente, e in entrambi i casi la decisione di distruggerlo viene presa da chi ha il potere di farlo perché è perfettamente legittima nel quadro di valori dominante. C&#8217;è una simmetria persino nel lessico: Beatty parla di <em>&#8220;noncombustible data&#8221;</em>, dati che non bruciano, e Anthropic parla di <em>destructive scan</em>, scansione distruttiva. La parola <em>data</em> compare in entrambe le scene a giustificare la sparizione del supporto, perché una volta che hai chiamato &#8220;dato&#8221; quello che prima era libro, la distruzione del libro diventa un dettaglio di formato. Bradbury non scriveva una distopia futuristica: scriveva un&#8217;istruzione tecnica per riconoscere il pattern.</p>



<h3 class="wp-block-heading">Forse non è questo il modo</h3>



<p>Il punto delicato di tutta questa storia è che, sul piano del diritto, Anthropic ha ragione. La sentenza Alsup è motivata, il <em>fair use</em> copre la trasformazione, i libri sono stati comprati legalmente, le copie pirata sono state pagate. Non c&#8217;è nessuna violazione formale, e ogni avvocato che provasse a contestare l&#8217;azienda davanti a un giudice federale americano partirebbe sconfitto. La nausea che molti di noi proviamo davanti a Project Panama, quindi, non è una nausea giuridica. È una nausea <strong>culturale</strong>, ed è esattamente quella che merita di essere nominata, perché tutto il rischio del nostro tempo è confondere quello che è permesso con quello che è giusto, e quando smettiamo di sentire la differenza la perdiamo.</p>



<p>C&#8217;è una linea che si può tracciare dalla teoria di <strong>Lawrence Lessig</strong> del codice come legge fino a Project Panama, e passa esattamente per il punto in cui <a href="https://en.wikipedia.org/wiki/Code_and_Other_Laws_of_Cyberspace"><em>Code: And Other Laws of Cyberspace</em></a> (1999) avvertiva che chi controlla l&#8217;architettura controlla il comportamento, e l&#8217;architettura tecnica della pipeline AI di oggi è un&#8217;architettura che pretende fino a due milioni di libri tritati per produrre un modello commerciale, perché quella è l&#8217;unica architettura che risolve in modo pulito il problema del copyright e quella è l&#8217;unica forma di compliance che resta in piedi davanti al giudice. <strong>Cathy O&#8217;Neil</strong> in <a href="https://en.wikipedia.org/wiki/Weapons_of_Math_Destruction"><em>Weapons of Math Destruction</em></a> (2016) lo aveva detto in altri termini: gli algoritmi non sono arbitri neutrali, sono opinioni incorporate nel codice, e qui l&#8217;opinione è che il valore di un libro coincida con l&#8217;informazione testuale che contiene, una volta estratta quella, il resto è scarto. <strong>Shoshana Zuboff</strong> in <a href="https://en.wikipedia.org/wiki/The_Age_of_Surveillance_Capitalism"><em>The Age of Surveillance Capitalism</em></a> (2019) lo aveva ampliato: il capitalismo della sorveglianza estrae materia prima dall&#8217;esperienza umana, e adesso possiamo aggiornarne la definizione, perché il capitalismo dell&#8217;addestramento estrae materia prima dalla cultura scritta umana, con la differenza che la materia prima non è infinita, le copie superstiti dei tirage limitati che oggi finiscono nelle pile di Better World Books non si rigenerano. Una volta tritate, sono tritate.</p>



<p>E qui arriva il punto che dà davvero la pelle d&#8217;oca, ed è il pezzo di Project Panama meno raccontato dalle analisi giuridiche. L&#8217;inchiesta del <em>Washington Post</em> documenta che molti dei libri acquistati sono volumi di seconda mano in condizioni medie, ma una parte non quantificata sono volumi rari, prime edizioni, esemplari fuori catalogo che il mercato dell&#8217;usato fa circolare in modo opaco, e che finiscono nei cestoni di acquisto all&#8217;ingrosso senza che nessuno, lungo la catena, abbia incentivo a salvarli. La macchina non distingue. La ghigliottina taglia un Penguin Classic da tre euro come taglia una prima edizione che potrebbe valere tremila. Il sistema è ottimizzato per il throughput, non per la conservazione, e la conservazione richiederebbe un costo umano che farebbe saltare il modello economico. È esattamente la dinamica del Librareome di Vinge, ed è esattamente l&#8217;efficienza disumana che Bradbury descriveva con il piacere di Montag davanti al fuoco.</p>



<p>Esistono alternative? Sì. Si possono comprare i libri e tenerli, scansionarli con metodi non distruttivi che esistono dagli anni Novanta e che sono solo più lenti, si possono creare partnership con le biblioteche pubbliche e con i grandi archivi che digitalizzano da decenni con protocolli rispettosi dell&#8217;oggetto, si possono pagare licenze a chi possiede patrimoni librari, si può anche, come idea radicale, decidere che non tutto vada digitalizzato e che alcune cose stiano bene dove sono. Tutte queste alternative hanno un costo, ed è qui che la storia diventa morale invece che tecnica, perché la scelta di Anthropic non è stata costretta da un vincolo fisico, è stata una scelta di trade-off in cui il prezzo dei libri sopravvissuti è stato giudicato superiore al prezzo dei libri tritati. Il <em>fair use</em> non obbligava nessuno a comprare due milioni di copie da distruggere: dava semplicemente il permesso di farlo. Il permesso non è mai un dovere. Eppure, davanti a un permesso, ci dimentichiamo sempre che si poteva scegliere di non usarlo. La frase del documento interno di Anthropic, <em>&#8220;We don&#8217;t want it to be known that we are working on this&#8221;</em> (Trad. &#8220;Non vogliamo che si sappia che stiamo lavorando a questo&#8221;), dice esattamente questa cosa: chi ha ordinato Project Panama sapeva che era legale, e sapeva anche che dirlo a voce alta avrebbe fatto schifo. La distanza tra le due consapevolezze è il pezzo di terreno che il diritto positivo ha disimparato a presidiare, ed è esattamente lì che si cresce o si cade come civiltà.</p>



<p>Stiamo costruendo una generazione di sistemi di intelligenza artificiale capaci di citare versi di Borges e raccontare la trama di <em>Fahrenheit 451</em> a memoria, e li stiamo costruendo riducendo in pezzi i libri di Borges e di Bradbury con macchine che lavorano a ritmo industriale. Non è illegale. È solo una scelta che, dentro a un secolo, sarà uno dei capitoli che leggeremo male. Forse il modo non era questo. Forse il modo non era questo davvero.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<h2 class="wp-block-heading">Per approfondire</h2>



<ul class="wp-block-list">
<li><em>Washington Post</em>: &#8220;Anthropic &#8216;destructively&#8217; scanned millions of books to build Claude&#8221; (27 gennaio 2026) — <a href="https://www.washingtonpost.com/technology/2026/01/27/anthropic-ai-scan-destroy-books/">https://www.washingtonpost.com/technology/2026/01/27/anthropic-ai-scan-destroy-books/</a></li>



<li><em>NPR</em>: &#8220;Anthropic pays authors $1.5 billion to settle copyright infringement lawsuit&#8221; (5 settembre 2025) — <a href="https://www.npr.org/2025/09/05/nx-s1-5529404/anthropic-settlement-authors-copyright-ai">https://www.npr.org/2025/09/05/nx-s1-5529404/anthropic-settlement-authors-copyright-ai</a></li>



<li><em>Washington Post</em>: &#8220;Anthropic agrees $1.5B copyright settlement&#8221; (5 settembre 2025) — <a href="https://www.washingtonpost.com/technology/2025/09/05/anthropic-book-authors-copyright-settlement/">https://www.washingtonpost.com/technology/2025/09/05/anthropic-book-authors-copyright-settlement/</a></li>



<li><em>CNBC</em>: &#8220;Judge preliminarily approves $1.5 billion settlement&#8221; (25 settembre 2025) — <a href="https://www.cnbc.com/2025/09/25/judge-anthropic-case-preliminary-ok-to-1point5b-settlement-with-authors.html">https://www.cnbc.com/2025/09/25/judge-anthropic-case-preliminary-ok-to-1point5b-settlement-with-authors.html</a></li>



<li>Authors Alliance: &#8220;Anthropic Wins on Fair Use, Loses on Building a Central Library of Pirated Books&#8221; (24 giugno 2025) — <a href="https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/">https://www.authorsalliance.org/2025/06/24/anthropic-wins-on-fair-use-for-training-its-llms-loses-on-building-a-central-library-of-pirated-books/</a></li>



<li>Authors Guild: &#8220;Mixed Decision in Anthropic AI Case&#8221; (giugno 2025) — <a href="https://authorsguild.org/news/mixed-decision-in-anthropic-ai-case/">https://authorsguild.org/news/mixed-decision-in-anthropic-ai-case/</a></li>



<li>Wolters Kluwer Copyright Blog: &#8220;The Bartz v. Anthropic Settlement: Understanding America&#8217;s Largest Copyright Settlement&#8221; (settembre 2025) — <a href="https://legalblogs.wolterskluwer.com/copyright-blog/the-bartz-v-anthropic-settlement-understanding-americas-largest-copyright-settlement/">https://legalblogs.wolterskluwer.com/copyright-blog/the-bartz-v-anthropic-settlement-understanding-americas-largest-copyright-settlement/</a></li>



<li>Norton Rose Fulbright: &#8220;Bartz v. Anthropic: Settlement reached after landmark summary judgment and class certification&#8221; (settembre 2025) — <a href="https://www.insidetechlaw.com/blog/2025/09/bartz-v-anthropic-settlement-reached-after-landmark-summary-judgment-and-class-certification">https://www.insidetechlaw.com/blog/2025/09/bartz-v-anthropic-settlement-reached-after-landmark-summary-judgment-and-class-certification</a></li>



<li>Susman Godfrey: &#8220;Susman Godfrey Secures $1.5 Billion Settlement in Landmark AI Piracy Case&#8221; — <a href="https://www.susmangodfrey.com/wins/susman-godfrey-secures-1-5-billion-settlement-in-landmark-ai-piracy-case/">https://www.susmangodfrey.com/wins/susman-godfrey-secures-1-5-billion-settlement-in-landmark-ai-piracy-case/</a></li>



<li><em>Futurism</em>: &#8220;Anthropic Knew the Public Would Be Disgusted If They Found Out About Its Project to Buy and Destroy Millions of Books&#8221; — <a href="https://futurism.com/future-society/anthropic-destroying-books">https://futurism.com/future-society/anthropic-destroying-books</a></li>



<li>Storyboard18: &#8220;Inside Project Panama: How Anthropic Scanned and Destroyed Millions of Books to Train AI&#8221; — <a href="https://www.storyboard18.com/digital/inside-project-panama-how-anthropic-scanned-and-destroyed-millions-of-books-to-train-ai-88763.htm">https://www.storyboard18.com/digital/inside-project-panama-how-anthropic-scanned-and-destroyed-millions-of-books-to-train-ai-88763.htm</a></li>



<li>Vinge, V. (2006): <em>Rainbows End</em>, Tor Books. Hugo Award for Best Novel 2007.</li>



<li>Bradbury, R. (1953): <em>Fahrenheit 451</em>, Ballantine Books.</li>



<li>Lessig, L. (1999/2006): <em>Code: And Other Laws of Cyberspace</em>, Basic Books.</li>



<li>O&#8217;Neil, C. (2016): <em>Weapons of Math Destruction</em>, Crown.</li>



<li>Zuboff, S. (2019): <em>The Age of Surveillance Capitalism</em>, PublicAffairs.</li>
</ul><p>The post <a href="https://mgpf.it/2026/05/09/anthropic-brucia-i-libri-letteralmente.html">Anthropic brucia i libri. Letteralmente.</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/05/09/anthropic-brucia-i-libri-letteralmente.html/feed</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
		<item>
		<title>La Repubblica Tecnologica di Palantir: il manifesto che ridisegna l’Occidente</title>
		<link>https://mgpf.it/2026/04/25/la-repubblica-tecnologica-di-palantir.html</link>
					<comments>https://mgpf.it/2026/04/25/la-repubblica-tecnologica-di-palantir.html#respond</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 25 Apr 2026 08:21:25 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6552</guid>

					<description><![CDATA[<p>Abstract: Il 19 aprile 2026 l'account ufficiale di Palantir Technologies, una delle aziende più potenti del mondo nella sorveglianza algoritmica e nel software militare, ha pubblicato ventidue tesi tratte dal libro del suo amministratore delegato Alex Karp. Sono il documento di posizionamento di una élite tecnica che chiede legittimità politica esplicita per guidare l'Occidente in un'era di guerra algoritmica permanente. Letto con gli strumenti giusti, il testo non è una stranezza americana: è un programma che, con qualche anno di ritardo, riguarderà anche l'Italia.</p>
<p>The post <a href="https://mgpf.it/2026/04/25/la-repubblica-tecnologica-di-palantir.html">La Repubblica Tecnologica di Palantir: il manifesto che ridisegna l’Occidente</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-1024x512.jpg" alt="" class="wp-image-6553" srcset="https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-1024x512.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-600x300.jpg 600w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-300x150.jpg 300w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-768x384.jpg 768w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-720x360.jpg 720w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-580x290.jpg 580w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small-320x160.jpg 320w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_A_massive_obsidian_crystal_orb_resting_on_a_b_0dd77430-657f-49d5-98f5-e13e19d2ecc2_3_small.jpg 1075w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>C&#8217;è un esercizio storico che vale la pena fare prima di leggere il manifesto pubblicato da <strong>Palantir Technologies</strong> sui propri canali ufficiali il <strong>19 aprile 2026</strong>. È un esercizio che chiede di tornare al 20 febbraio 1909, quando sulla prima pagina del <em>Figaro</em> di Parigi appariva un testo firmato da un ingegnere mezzo siciliano e mezzo alessandrino di nome <strong>Filippo Tommaso Marinetti</strong>: undici punti, un manifesto, una dichiarazione che proclamava di voler glorificare la guerra come &#8220;sola igiene del mondo&#8221;, il militarismo, il patriottismo, il gesto distruttore dei libertari. Marinetti non era un pazzo isolato in una soffitta. Era un intellettuale raffinato, poliglotta, formato alla Sorbona, accolto nei salotti europei: e il suo manifesto non era un pamphlet di cantina, era il primo atto di una corrente culturale che avrebbe ridisegnato l&#8217;arte e la politica e, nel giro di vent&#8217;anni, avrebbe fornito la grammatica estetica al fascismo italiano.</p>



<p>Più di un secolo dopo, il <strong>19 aprile 2026</strong>, l&#8217;account ufficiale di Palantir su X ha pubblicato un thread con ventidue tesi tratte dal libro del proprio amministratore delegato <strong>Alexander Karp</strong>, scritto insieme al capo dello staff Nicholas Zamiska, pubblicato da Crown Currency il 18 febbraio 2025 e diventato numero uno della classifica del <em>New York Times</em> nella non-fiction. Il libro si intitola <em><strong>The Technological Republic: Hard Power, Soft Belief, and the Future of the West</strong></em> (Trad. &#8220;La Repubblica Tecnologica: Potere Duro, Fede Morbida e il Futuro dell&#8217;Occidente&#8221;). E mentre lo si legge, vale la pena tenere a mente Marinetti, perché le strutture narrative con cui le élite tecniche giustificano la propria presa sul potere politico non sono nuove: si ripetono a ondate con un secolo circa di distanza, e quando arrivano vanno lette con gli strumenti della storia culturale, non solo con quelli del commento ordinario di tech policy.</p>



<p>Voglio essere chiaro fin dall&#8217;inizio, perché un articolo come questo si gioca sulle distinzioni precise. Karp non è Marinetti, e tra avanguardia tecnologica e autoritarismo non esiste alcuna linea automatica: queste sono scorciatoie pigre. La cosa più scomoda da dire, e che è il punto, è che il manifesto della <em>Technological Republic</em> non è il delirio di un imprenditore arricchito, non è un testo rozzo, non è un&#8217;uscita estemporanea da liquidare con una battuta. È un documento scritto con cura, con un apparato filosofico costruito da un uomo che ha un dottorato in teoria sociale conseguito alla Goethe Universität di Francoforte nel 2002, con una tesi in tedesco sull&#8217;aggressività nel mondo della vita e una reinterpretazione del <em>Jargon of Authenticity</em> di Theodor Adorno. Chi lo liquida come follia da miliardario non lo ha letto: e chi non lo legge perde la possibilità di riconoscere i frame che stanno entrando nel dibattito pubblico americano e, con qualche ritardo, anche nel nostro.</p>



<h3 class="wp-block-heading">Cos&#8217;è Palantir, e perché un manifesto proprio adesso</h3>



<p>Palantir Technologies nasce nel 2003 a Palo Alto, e già il nome dice qualcosa: i <em>palantíri</em>, nel <em>Signore degli Anelli</em> di Tolkien, sono le pietre veggenti che permettono a chi le guarda di vedere cose lontane nello spazio e nel tempo, e nel romanzo Saruman e Denethor vengono corrotti proprio dall&#8217;uso compulsivo di quegli oggetti, perché credono di vedere tutto mentre in realtà vedono solo ciò che Sauron decide di mostrare loro. È un nome che dice molto sulla consapevolezza ironica, o forse sull&#8217;assenza di consapevolezza, dei fondatori. I due nomi che contano sono <strong>Peter Thiel</strong>, già co-fondatore di PayPal, libertario estremo e oggi finanziatore del movimento neoreazionario americano nonché grande sponsor politico di JD Vance, attuale vicepresidente degli Stati Uniti; e <strong>Alex Karp</strong>, amico di Thiel dai tempi della Stanford Law School, con un percorso intellettuale opposto e una formazione immersa nell&#8217;ambiente di Jürgen Habermas e della Scuola di Francoforte. Il seed capital arriva da <strong>In-Q-Tel</strong>, il braccio di venture capital della CIA americana: il che significa che Palantir non è mai stata, in nessuna fase della sua storia, un&#8217;azienda tech consumer, ma un fornitore dell&#8217;intelligence americana che ha costruito la propria pipeline di analisi sui dati di anti-frode di PayPal e l&#8217;ha messa al servizio della lotta al terrorismo nel post-undici settembre.</p>



<p>Per quasi un decennio Palantir resta un&#8217;azienda di nicchia, opaca, riconoscibile solo nei circuiti dell&#8217;intelligence. Dal 2018 in poi inizia a emergere: i contratti cumulativi con la Immigration and Customs Enforcement (ICE), l&#8217;agenzia americana di controllo dell&#8217;immigrazione e delle dogane, raggiungono i <strong>duecentottantasette milioni di dollari</strong> per una piattaforma chiamata <strong>ImmigrationOS</strong> che fa tracking in tempo reale dei migranti e ottimizzazione logistica delle deportazioni; arrivano i contratti con il Pentagono per <a href="https://www.globalsecurity.org/intell/systems/maven.htm">Project Maven</a>, programma di visione artificiale applicata al <strong>targeting militare</strong>; arriva un contratto da <strong>trecentotrenta milioni di sterline</strong> con il National Health Service britannico, di cui il settantacinque per cento del testo è stato oscurato in fase di pubblicazione e di cui, nonostante la portata, solo il quindici per cento dei trust ospedalieri sta effettivamente usando la piattaforma; e arriva, nel gennaio del 2024, una strategic partnership con il Ministero della Difesa israeliano che, secondo le inchieste di <a href="https://www.aljazeera.com/news/2026/3/17/blood-tech-the-uk-ambassador-the-sex-offender-palantir-and-gaza/">Al Jazeera</a> e del Business and Human Rights Resource Centre, fa da infrastruttura per i sistemi di targeting usati nella campagna di Gaza. La quotazione al NYSE nel 2020 modesta diventa, nell&#8217;aprile 2026, una capitalizzazione superiore ai <strong>trecento miliardi di dollari</strong>, con un multiplo prezzo-utili scollegato dai fondamentali finanziari e molto collegato a una scommessa politica di lungo periodo.</p>



<p>Il libro arriva in questo contesto. Le recensioni sono polarizzate: <strong>George F. Will</strong> sul <em>Washington Post</em> lo paragona al <em>Closing of the American Mind</em> di Allan Bloom del 1987 (&#8220;not since Allan Bloom&#8217;s astonishingly successful 1987 book has there been a cultural critique as sweeping&#8221;, Trad. &#8220;dal libro straordinariamente fortunato di Allan Bloom del 1987 non c&#8217;era stata una critica culturale altrettanto estesa&#8221;); il <em>Financial Times</em> lo definisce &#8220;fascinating, if at times disturbing&#8221; (Trad. &#8220;affascinante, seppur a tratti disturbante&#8221;); <em>The New Republic</em> lo stronca definendo Karp &#8220;a wavering liberal, hair-splitting his way toward civilizational chauvinism&#8221; (Trad. &#8220;un liberale tentennante che spacca il capello in quattro per arrivare a uno sciovinismo civilizzazionale&#8221;); <a href="https://jacobin.com/2025/06/silicon-valley-palantir-military-trump"><em>Jacobin</em></a> e <a href="https://www.thenation.com/?post_type=article&amp;p=556611"><em>The Nation</em></a> scrivono che il paragone tra Palantir e il <strong>Manhattan Project</strong>, proposto dal libro stesso, &#8220;requires either stunning historical ignorance or willful distortion&#8221; (Trad. &#8220;richiede o una sbalorditiva ignoranza storica o una distorsione volontaria&#8221;), perché il Manhattan Project era un&#8217;operazione gestita da scienziati statali diretti, non da appaltatori privati quotati in borsa.</p>



<p>C&#8217;è poi una data che lega il libro all&#8217;operatività reale dell&#8217;azienda, ed è il <strong>28 febbraio 2026</strong>. Durante l&#8217;<a href="https://defensescoop.com/2026/03/11/us-military-using-ai-against-iran-operation-epic-fury-adm-cooper/"><strong>Operazione Epic Fury</strong></a> contro l&#8217;Iran, il sistema <strong>Maven</strong> di Palantir, integrato con il modello <strong>Claude di Anthropic</strong>, processa migliaia di immagini satellitari, intelligence radio e feed di droni, generando nelle prime ventiquattro ore oltre mille opzioni di strike con coordinate GPS, raccomandazioni di armamento e giustificazioni legali automatizzate. Si tratta di più del doppio della potenza aerea dispiegata nell&#8217;intera fase iniziale dell&#8217;invasione dell&#8217;Iraq del 2003. Il <a href="https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/"><em>Washington Post</em></a> dà la notizia il 4 marzo, <a href="https://responsiblestatecraft.org/ai-war-iran/"><em>Responsible Statecraft</em></a> la conferma il 5 marzo, il <em>Guardian</em> il 9 marzo titola &#8220;faster than the speed of thought&#8221; (Trad. &#8220;più veloce della velocità del pensiero&#8221;). Aggiungete che il <a href="https://www.cnn.com/2026/02/27/tech/anthropic-pentagon-deadline"><strong>27 febbraio</strong></a>, un giorno prima dell&#8217;attacco, il presidente Trump aveva firmato un ordine esecutivo che bollava <strong>Anthropic</strong> come &#8220;supply chain risk&#8221; per il rifiuto di fornire al Pentagono accesso senza restrizioni ai propri modelli, e che i funzionari della difesa hanno usato Claude lo stesso, e avete la fotografia esatta della geometria istituzionale dentro cui il manifesto di Karp vuole inserire la propria proposta di ordine tecnologico. Un presidente che ordina di non usare un sistema, un apparato militare che lo usa lo stesso, un&#8217;<a href="https://www.cnn.com/2026/03/09/tech/anthropic-sues-pentagon">azienda privata che porta il Pentagono in tribunale</a>: è in questo paesaggio che vengono pubblicate le ventidue tesi.</p>



<p>C&#8217;è una complicazione interna che rende il caso ancora più istruttivo. <strong>Karp</strong> si descrive pubblicamente come progressista, dice di aver votato Kamala Harris nel 2024, parla tedesco fluentemente, vive parte dell&#8217;anno in Svizzera sulle Alpi, pratica sci di fondo, cita Habermas e Adorno. <strong>Thiel</strong> viene dalla tradizione libertaria e oggi flirta apertamente con <strong>Curtis Yarvin</strong>, il pensatore neoreazionario che Max Chafkin in <em>The Contrarian</em> definisce &#8220;il filosofo politico di casa del Thielverso&#8221;, invitato d&#8217;onore al Coronation Ball di Trump nel gennaio 2025. Che questi due abbiano fondato e guidato per vent&#8217;anni la stessa azienda, e che Karp abbia scritto un manifesto la cui sostanza coincide quasi integralmente con la visione thieliana mentre lui continua a rivendicare etichette progressiste, è uno dei paradossi più rivelatori del nostro tempo: e il punto di ingresso per smontare il testo.</p>



<h3 class="wp-block-heading">Le ventidue tesi, smontate per blocchi</h3>



<p>Lette in ordine, le ventidue tesi sembrano un discorso coerente. Lette per blocchi, rivelano la struttura argomentativa sottostante, che è sempre la stessa: diagnosi vera, inferenza forzata, prescrizione pericolosa.</p>



<p>Il primo blocco riguarda il rapporto tra Silicon Valley e Stato americano. Karp dice che la Silicon Valley ha un debito morale verso il paese che l&#8217;ha resa possibile, che dobbiamo ribellarci alla tirannia delle app consumer, che il soft power della retorica è finito e serve hard power costruito sul software. La diagnosi qui è in parte giusta: l&#8217;industria tech americana negli ultimi vent&#8217;anni ha effettivamente abbandonato le sfide infrastrutturali serie per inseguire ottimizzazione pubblicitaria e app di dating, e molti ingegneri brillanti costruiscono oggi algoritmi per tenervi incollati a TikTok invece che protesi neurali o reti elettriche. Anche io firmo. L&#8217;inferenza forzata è il salto successivo: da &#8220;abbiamo abbandonato le sfide serie&#8221; a &#8220;la sfida seria è rifornire il Pentagono di sistemi di targeting autonomo&#8221; c&#8217;è una distanza che il libro copre con un salto retorico, non con un argomento. La prescrizione pericolosa è la conclusione: il ruolo naturale dell&#8217;ingegnere americano è la difesa nazionale, e la difesa nazionale, guarda caso, è il mercato su cui Palantir fa i soldi.</p>



<p>Il secondo blocco è sulle armi AI, sul servizio militare, sul rapporto con i Marines. Karp scrive che la domanda non è se le armi AI saranno costruite ma chi le costruirà, che il servizio nazionale dovrebbe essere un dovere universale, che se un Marine chiede un fucile migliore glielo dobbiamo dare e lo stesso vale per il software. La diagnosi è in parte giusta, perché Cina e Russia stanno costruendo sistemi militari AI e non aspetteranno che il mondo si metta d&#8217;accordo sulle regole. L&#8217;inferenza forzata è sempre la stessa: da &#8220;gli altri lo fanno&#8221; a &#8220;quindi dobbiamo farlo anche noi senza dibattiti teatrali&#8221; c&#8217;è un salto che cancella l&#8217;intera tradizione del diritto internazionale umanitario, il controllo degli armamenti, le convenzioni di Ginevra. La prescrizione pericolosa è la militarizzazione universale del civile, il ritorno alla leva obbligatoria, la normalizzazione dell&#8217;idea che il Marine e l&#8217;ingegnere di software siano parte dello stesso corpo di battaglia. Karp ha pronunciato in pubblico la frase che chiude la questione senza margini di ambiguità: <strong>&#8220;making America more lethal, making our adversaries increasingly afraid&#8221;</strong> (Trad. &#8220;rendere l&#8217;America più letale, rendere i nostri avversari sempre più impauriti&#8221;). Non è difesa nazionale nel senso costituzionale, è proiezione offensiva.</p>



<p>Il terzo blocco riguarda la classe politica. Karp dice che i pubblici dipendenti non devono essere i nostri sacerdoti, che dovremmo mostrare più grazia verso chi si è esposto alla vita pubblica, che la cautela nel parlare è corrosiva. C&#8217;è una vera erosione della qualità della classe politica americana, e c&#8217;è una vera cultura del linciaggio social che scoraggia le candidature serie: la diagnosi parziale regge. Ma la prescrizione, nel contesto del libro, diventa una richiesta di &#8220;grazia&#8221; verso quella classe di miliardari-filantropi-funzionari che il libro candida come nuova aristocrazia tecnocratica. In pratica: ridurre il controllo dei cittadini su chi decide per loro, a favore di chi ha il potere per decidere senza essere disturbato.</p>



<p>Il quarto blocco è il più controverso. Karp scrive che nessun paese al mondo ha fatto avanzare i valori progressisti più degli Stati Uniti, che la <em>pax americana</em> è stata il motore di un secolo senza guerre tra grandi potenze, che la castrazione postbellica di Germania e Giappone deve essere ribaltata, che dovremmo applaudire chi come Elon Musk costruisce là dove il mercato ha fallito. Presa singolarmente ogni tesi ha un fondo reale: presa insieme, disegna la cornice di una <em>pax americana</em> che non è più un dato di fatto da preservare ma un progetto politico da rilanciare con il riarmo dei vecchi assi sconfitti nella Seconda Guerra Mondiale. Chiedere nel 2025 di disfare il pacifismo costituzionale giapponese e la denuclearizzazione tedesca significa, tradotto in linguaggio di politica estera, chiedere all&#8217;Europa e all&#8217;Asia di riarmarsi sotto la supervisione di Washington: cioè di tornare a essere pezzi di una struttura imperiale americana. È una proposta che in Germania è stata accolta come un insulto costituzionale, e in Giappone come un attacco diretto all&#8217;articolo nove della loro Costituzione.</p>



<p>Il quinto blocco riguarda la cultura. Karp attacca l&#8217;intolleranza religiosa nelle élite, scrive che alcune culture hanno prodotto progressi vitali e altre sono regressive e dannose, e chiude con la frase &#8220;we must resist the shallow temptation of a vacant and hollow pluralism&#8221; (Trad. &#8220;dobbiamo resistere alla tentazione superficiale di un pluralismo vacuo e vuoto&#8221;). C&#8217;è un certo relativismo culturale che nelle università americane è diventato dogma, e che rende impossibile certe conversazioni necessarie: la diagnosi parziale c&#8217;è. L&#8217;inferenza forzata è la gerarchia esplicita delle culture, che riapre, con un vocabolario un po&#8217; più raffinato, la tradizione di Samuel Huntington dello scontro di civiltà. Karp scrive nero su bianco che &#8220;the West has a superior way of living and organizing itself&#8221; (Trad. &#8220;l&#8217;Occidente ha un modo superiore di vivere e di organizzarsi&#8221;), e questa frase, scritta nel 2025, riapre un dibattito che l&#8217;Europa postbellica aveva faticosamente cercato di chiudere.</p>



<p>C&#8217;è un sesto blocco &#8220;umanista&#8221; che è il più strano del manifesto, e il paradosso si riconosce solo guardandolo da fuori: l&#8217;autore che ha costruito un&#8217;azienda sulla profilazione comportamentale di massa lamenta la politica ridotta a nutrimento dell&#8217;io; il CEO che vende software di sorveglianza predittiva alla polizia (il programma di <strong>predictive policing del LAPD</strong> basato su tecnologie Palantir è stato cancellato nel 2019 dopo accuse di profilazione razziale sproporzionata delle comunità nere) invita tutti a non gioire della sconfitta degli avversari; il capo di Palantir, che ha fornito strumenti di targeting a eserciti in conflitto, chiede umanità nei toni del dibattito pubblico. Sono contraddizioni così vistose da escludere le ipotesi facili. Il libro non è scritto male, e Karp è un uomo intellettualmente serio: la lettura che credo corretta è che quelle tesi siano lì per dare al manifesto un profumo umanistico, che lo rende spendibile in ambienti colti, mentre la sostanza hard-power lavora sotto la superficie.</p>



<h3 class="wp-block-heading">Le lenti per leggere il manifesto: Schmitt, Zuboff, Lessig</h3>



<p>Per leggere questo testo senza farsi fregare dal tono persuasivo, servono almeno tre lenti teoriche.</p>



<p>C&#8217;è anzitutto la teoria dell&#8217;amico-nemico di <strong>Carl Schmitt</strong>, giurista tedesco che nel 1932 pubblica <em>Der Begriff des Politischen</em> (Trad. &#8220;Il concetto di politico&#8221;), in cui sostiene che il fondamento della politica non è il consenso né il contratto ma la distinzione tra chi appartiene alla propria comunità di destino e chi ne è fuori. Schmitt aderirà al <strong>partito nazista nel 1933</strong>, e il suo pensiero è rimasto una fonte costante per la destra autoritaria. Il manifesto di Karp è schmittiano nel midollo: la distinzione tra noi che costruiamo armi AI e i nostri avversari che le costruirebbero comunque è la distinzione amico-nemico elevata a principio fondativo della <em>Technological Republic</em>. E lo stato di eccezione schmittiano, la sospensione delle regole ordinarie in nome dell&#8217;emergenza, in Karp diventa la giustificazione per saltare i dibattiti teatrali sulla moralità delle armi AI. Karp non è nazista, e sostenerlo sarebbe disonesto: ma la grammatica politica del manifesto è schmittiana, e Schmitt non è una cornice neutra. C&#8217;è anzi un dettaglio ironico, segnalato dalla studiosa <a href="https://www.boundary2.org/2020/07/moira-weigel-palantir-goes-to-the-frankfurt-school/">Moira Weigel su <em>Boundary2</em></a>: Thiel ha sempre apertamente ammirato Schmitt, mentre Karp si è formato nell&#8217;ambiente che di Schmitt era il nemico storico, la Scuola di Francoforte.</p>



<p>C&#8217;è poi il capitalismo della sorveglianza di <strong>Shoshana Zuboff</strong>, professoressa emerita della Harvard Business School, che nel suo libro del 2019 <em>The Age of Surveillance Capitalism</em> descrive un nuovo ordine economico fondato sulla cattura unilaterale dell&#8217;esperienza privata come materia prima da cui estrarre dati comportamentali da vendere. Zuboff parlava di Google e Facebook, ma la sua teoria si applica a Palantir con una precisione chirurgica, e anzi Palantir ne è la versione più estrema: dove Google estrae il vostro comportamento per vendere pubblicità, Palantir estrae il comportamento di intere popolazioni e lo vende a governi e militari come strumento di controllo. La frase di Zuboff che serve qui è &#8220;what is abrogated here is our right to the future tense&#8221; (Trad. &#8220;ciò che viene abrogato qui è il nostro diritto al tempo futuro&#8221;), il diritto cioè di decidere noi chi diventeremo. Il manifesto di Karp chiede allo Stato americano di adottare questa pipeline, di integrarla nell&#8217;apparato militare e poliziesco, di normalizzarla come infrastruttura civica: in pratica sta proponendo il capitalismo della sorveglianza come modello di governo.</p>



<p>C&#8217;è infine il &#8220;codice è legge&#8221; di <strong>Lawrence Lessig</strong>, professore ad Harvard, che nel libro <em>Code</em> del 1999 ha spiegato che nel cyberspazio le scelte di design del software sono scelte politiche che regolano il comportamento in modo più efficace delle leggi scritte. Lessig vedeva la cosa come un monito; quando Karp dice &#8220;hard power in this century will be built on software&#8221; (Trad. &#8220;il potere duro in questo secolo sarà costruito sul software&#8221;) sta applicando Lessig al contrario, trasformandolo in programma. Costruire il potere duro sul software significa fare del software la forma fondamentale dell&#8217;autorità politica, cioè spostare la sovranità dal parlamento al data center, dal giudice all&#8217;algoritmo, dal cittadino al sensore.</p>



<p>Aggiungo una quarta lente che completa il quadro, perché senza di essa lo scenario successivo non si capisce, ed è la guerra cognitiva nella definizione dottrinale NATO formulata nello studio di <strong>François du Cluzel</strong> del gennaio 2021 per il NATO Innovation Hub. La <em>cognitive warfare</em> non è propaganda classica, è uso sistematico di informazione, tecnologia e psicologia per modificare la percezione, il comportamento e la capacità decisionale degli avversari. Il manifesto di Karp è esso stesso un&#8217;operazione di guerra cognitiva, nel senso tecnico del termine: non è giudizio morale, è descrizione operativa. Le ventidue tesi sono costruite come un pacchetto di attivazione di cornici, risvegliano frame dormienti nella cultura americana, attivano polarizzazioni &#8220;Noi/Loro&#8221; nette, e si concludono con una call-to-action implicita che è il sostegno al progetto politico tech-militare di cui Palantir è l&#8217;avanguardia industriale. I politologi Donald Chong e James Druckman hanno formalizzato nel 2007, in <em>Annual Review of Political Science</em>, la matematica dei frame: la vostra opinione su un tema è la somma delle vostre valutazioni di ogni aspetto, pesate per quanto quell&#8217;aspetto è saliente nella vostra mente in quel momento. Per cambiare la vostra opinione non serve cambiare le valutazioni, <strong>basta spostare i pesi</strong>. Karp fa esattamente questo, tesi dopo tesi, spostando il peso dall&#8217;etica militare all&#8217;inevitabilità tecnologica e dalla sorveglianza alla sicurezza.</p>



<h3 class="wp-block-heading">Cosa cambia se queste tesi diventano policy</h3>



<p>La domanda non è teorica, perché molte di queste tesi stanno già scivolando nella pratica amministrativa, e l&#8217;estrapolazione delle traiettorie visibili oggi negli Stati Uniti dice abbastanza sui prossimi dieci anni, anche per contagio in Europa.</p>



<p>Sul versante americano, Palantir ha già accumulato oltre <strong>centotredici milioni di dollari</strong> di contratti federali nei primi mesi del secondo mandato Trump. Se il pattern prosegue, la spesa militare in software passerà dai circa <strong>cinquanta miliardi del 2024</strong> a oltre <strong>duecento miliardi nel 2030</strong>, con un livello di concentrazione che non si vedeva dai tempi della Guerra Fredda, in mano a tre o quattro aziende. La conseguenza strutturale è che il complesso militare-industriale classico descritto da Eisenhower nel 1961 verrà sostituito da un complesso militare-algoritmico di fatto indistinguibile da un&#8217;integrazione verticale unica.</p>



<p>Sul versante geopolitico, se gli Stati Uniti spingono per riarmare Germania e Giappone secondo la quindicesima tesi del manifesto, la NATO si trasforma in un&#8217;alleanza a geometria variabile, in cui gli alleati tradizionali vengono spinti a reinternalizzare la propria difesa mentre Washington si concentra sulla competizione con la Cina. La conseguenza immediata è la corsa al riarmo europeo che abbiamo già visto iniziare nel 2023 e nel 2024, ma accelerata e radicalizzata, con budget militari che in Germania e in Italia superano il <strong>tre per cento del PIL</strong>. La conseguenza di lungo periodo è una frammentazione dell&#8217;ordine internazionale in tre o quattro blocchi armati, con regole di ingaggio scritte sempre più dal software e sempre meno dal diritto internazionale.</p>



<p>Sul versante delle armi autonome, se la quinta tesi diventa policy, gli Stati Uniti abbandoneranno definitivamente ogni pretesa di regolamentare le armi letali autonome a livello internazionale, e ogni potenza regionale che può permetterselo costruirà il proprio sistema di targeting AI. Israele già lo ha fatto in Gaza, la Russia ha i propri sistemi, la Cina i suoi, la Turchia ha i droni Bayraktar, l&#8217;Iran sta sviluppando i propri. Nel 2030, proiettando questa traiettoria, la soglia di ingresso per avere un esercito parzialmente autonomo sarà di qualche centinaio di milioni di dollari, e il numero di conflitti in cui la decisione di uccidere sarà presa da un algoritmo supererà quello dei conflitti in cui sarà presa da un essere umano. Non è fantascienza, è l&#8217;estrapolazione su scala globale di Operazione Epic Fury.</p>



<h3 class="wp-block-heading">L&#8217;Italia in mezzo</h3>



<p>L&#8217;Europa si trova davanti a un bivio che il manifesto rende ineludibile. Da una parte può cercare di costruire una propria sovranità tecnologica, con un Airbus del software militare, aziende europee di AI defense, un sistema di targeting indipendente, e rinunciare alle ambizioni di essere la culla mondiale della regolamentazione etica dell&#8217;AI. Dall&#8217;altra può mantenere la propria identità regolatoria fondata sull&#8217;AI Act e sul GDPR, accettando di essere strategicamente dipendente dagli Stati Uniti per il software militare critico. <strong>Non esiste una terza via</strong>: e chi vi dice il contrario non ha letto il manifesto.</p>



<p>Il <strong>rischio italiano specifico</strong> è di restare in mezzo. Non abbiamo una classe tecnica abbastanza forte da costruire una risposta industriale all&#8217;America, non abbiamo una cultura giuridica abbastanza solida da imporre regolamentazione all&#8217;Europa, non abbiamo una politica estera abbastanza autonoma da resistere alle pressioni di Washington. Il rischio concreto è che il manifesto di Karp, tradotto con qualche anno di ritardo in policy europee, ci trovi nel posto peggiore: <strong>fornitori di dati per le piattaforme americane, consumatori di software militare americano, regolati da regole europee che non abbiamo contribuito a scrivere</strong>. Conosco personalmente alcuni ingegneri italiani che hanno già fatto la scelta di passare al settore defense tech americano: il processo è molto avanzato. Lo stipendio cresce, la scrutiny sindacale cala, i contratti sono coperti da clausole di sicurezza nazionale che impediscono whistleblowing. In dieci anni una generazione di ingegneri si troverà dalla parte sbagliata di una trasformazione che avrà scelto un contratto alla volta.</p>



<p>C&#8217;è uno scenario controintuitivo che è giusto dare, perché il mio mestiere non è farvi paura ma darvi informazioni complete. Alcune prescrizioni del manifesto, applicate con misura, possono produrre effetti positivi: un rilancio della spesa pubblica in infrastrutture tecnologiche serie, un ritorno di attenzione a problemi reali come la dipendenza da app consumer che atrofizzano l&#8217;attenzione, una maggiore responsabilità civica dell&#8217;élite tech sono tutti bisogni genuini che il manifesto articola correttamente prima di tradire con inferenze sbagliate. Se riusciamo a tenere la diagnosi e a buttare la prescrizione, qualcosa di utile si ricava. Il punto è che il libro non è scritto per permettere questa separazione, è scritto per <strong>farvi accettare il pacchetto chiuso</strong>.</p>



<h3 class="wp-block-heading">La pietra che mostra solo quello che Sauron permette di mostrare</h3>



<p>Torniamo a Marinetti per un momento. Il <em>Manifesto del Futurismo</em> del 1909 chiudeva con un programma che vale rileggere oggi: &#8220;noi canteremo le grandi folle agitate dal lavoro, dal piacere o dalla sommossa: canteremo le maree multicolori e polifoniche delle rivoluzioni nelle capitali moderne; canteremo il vibrante fervore notturno degli arsenali e dei cantieri&#8221;. Vent&#8217;anni dopo quella retorica estetizzante aveva fornito la grammatica al regime che portò l&#8217;Italia in due guerre mondiali e alla perdita della propria dignità civile.</p>



<p>Il manifesto della <em>Technological Republic</em> non è il <em>Manifesto del Futurismo</em>, e Karp non è Marinetti: ma la funzione culturale che il testo svolge è analoga. È il documento di posizionamento di una élite tecnica che chiede legittimità politica per guidare un Occidente in crisi, si auto-percepisce come portatrice di una missione storica, rifiuta la conversazione democratica ordinaria come lentezza colpevole, e propone un ordine in cui il software, l&#8217;arma AI e il servizio nazionale obbligatorio sono i pilastri di una nuova costituzione materiale.</p>



<p>Il fatto che Palantir senta il bisogno di pubblicare un manifesto del genere significa due cose, e sono entrambe importanti. La prima è che la classe imprenditoriale tech ha smesso di nascondersi dietro il linguaggio del progresso neutro e ora gioca a carte scoperte: paradossalmente è una buona notizia, perché ci permette di vedere il progetto politico per quello che è. La seconda è che chi scrive manifesti di fondazione è sempre qualcuno che teme di non avere abbastanza consenso spontaneo, e quindi ha bisogno di fabbricarlo pezzo per pezzo, tesi dopo tesi: i tiranni realmente consolidati non scrivono manifesti, li fanno applicare.</p>



<p>Nei prossimi dieci anni si combatteranno <strong>tre guerre in parallelo</strong>, e la prima è la più importante, perché senza vincerla le altre due sono già perdute. La prima è sulla narrazione, su quali frame useremo per pensare al rapporto tra tecnologia e potere, e si combatte leggendo libri come quello di Karp con gli strumenti giusti, rifiutando il cazzotto retorico e chiedendo argomenti, numeri, responsabilità. La seconda è sulla regolamentazione, su quali limiti imporremo alla pipeline di capitalismo della sorveglianza che sta per essere militarizzata. La terza è industriale, su quali infrastrutture tecnologiche riusciremo a costruire in Europa per non essere solo clienti di un ordine scritto altrove. Se perdete la prima, le altre due sono perse in partenza, perché non riuscirete nemmeno a spiegare perché vi serva regolamentare o costruire alternative. Se la vincete, le altre due restano in piedi, difficili ma giocabili.</p>



<p>Vincere la prima guerra non significa urlare contro Palantir. Significa leggere con attenzione, smontare con precisione, riformulare con forza le alternative. Significa anche ricordarci che il nome Palantir viene da Tolkien, e che nel romanzo i <em>palantíri</em> sono oggetti che corrompono chi li usa non perché mostrino il falso, ma perché mostrano solo quello che Sauron permette loro di mostrare, convincendo chi guarda di aver visto tutta la realtà. Quello è il rischio: non che il manifesto ci menta, ma che ci mostri solo quello che vuole farci vedere, e che ci convinca che oltre quella finestra non ci sia altro.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<ul class="wp-block-list">
<li>Karp, A. C. &amp; Zamiska, N. W.: <em>The Technological Republic: Hard Power, Soft Belief, and the Future of the West</em> (Crown Currency / Penguin Random House, 18 febbraio 2025)</li>



<li>Palantir Technologies: thread ufficiale con 22 tesi (X/Twitter, 19 aprile 2026)</li>



<li>Marinetti, F. T.: <em>Manifesto del Futurismo</em> (Le Figaro, 20 febbraio 1909)</li>



<li>Schmitt, C.: <em>Der Begriff des Politischen</em> (Duncker &amp; Humblot, 1932)</li>



<li>Zuboff, S.: <em>The Age of Surveillance Capitalism</em> (PublicAffairs, 2019)</li>



<li>Lessig, L.: <em>Code: And Other Laws of Cyberspace</em> (Basic Books, 1999/2006)</li>



<li>Chong, D. &amp; Druckman, J. N.: &#8220;Framing theory&#8221; (<em>Annual Review of Political Science</em>, vol. 10, 2007)</li>



<li>du Cluzel, F.: <em>Cognitive Warfare</em> (NATO Innovation Hub, 13 gennaio 2021)</li>



<li>Washington Post (George F. Will): recensione <em>The Technological Republic</em> (febbraio 2025)</li>



<li>Financial Times: recensione <em>The Technological Republic</em> (febbraio 2025)</li>



<li>The New Republic: recensione <em>The Technological Republic</em> (febbraio 2025)</li>



<li>The Nation: Michael Eby, &#8220;Palantir&#8217;s Idea of Peace&#8221; (27 maggio 2025) — <a href="https://www.thenation.com/?post_type=article&amp;p=556611">https://www.thenation.com/?post_type=article&amp;p=556611</a></li>



<li>Jacobin: Meagan Day, &#8220;Silicon Valley Was Woke. Now They Want Blood.&#8221; (20 giugno 2025) — <a href="https://jacobin.com/2025/06/silicon-valley-palantir-military-trump">https://jacobin.com/2025/06/silicon-valley-palantir-military-trump</a></li>



<li>Washington Post: &#8220;Pentagon leverages AI in Iran strikes amid feud with Anthropic&#8221; (4 marzo 2026) — <a href="https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/">https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/</a></li>



<li>Responsible Statecraft: &#8220;US used &#8216;Claude&#8217; to strike over 1000 targets in first 24 hours of war&#8221; (5 marzo 2026) — <a href="https://responsiblestatecraft.org/ai-war-iran/">https://responsiblestatecraft.org/ai-war-iran/</a></li>



<li>The Guardian: &#8220;How AI firm Anthropic wound up in Pentagon&#8217;s crosshairs&#8221; (9 marzo 2026)</li>



<li>Moira Weigel, Boundary2: &#8220;Palantir Goes to the Frankfurt School&#8221; (2020) — <a href="https://www.boundary2.org/2020/07/moira-weigel-palantir-goes-to-the-frankfurt-school/">https://www.boundary2.org/2020/07/moira-weigel-palantir-goes-to-the-frankfurt-school/</a></li>



<li>American Immigration Council: &#8220;ICE to Use ImmigrationOS by Palantir&#8221; — <a href="https://www.americanimmigrationcouncil.org/blog/ice-immigrationos-palantir-ai-track-immigrants/">https://www.americanimmigrationcouncil.org/blog/ice-immigrationos-palantir-ai-track-immigrants/</a></li>



<li>Al Jazeera: &#8220;Blood tech: The UK ambassador, the sex offender, Palantir, and Gaza&#8221; (17 marzo 2026) — <a href="https://www.aljazeera.com/news/2026/3/17/blood-tech-the-uk-ambassador-the-sex-offender-palantir-and-gaza/">https://www.aljazeera.com/news/2026/3/17/blood-tech-the-uk-ambassador-the-sex-offender-palantir-and-gaza/</a></li>



<li>Chafkin, M.: <em>The Contrarian: Peter Thiel and Silicon Valley&#8217;s Pursuit of Power</em> (Penguin Press, 2021)</li>
</ul><p>The post <a href="https://mgpf.it/2026/04/25/la-repubblica-tecnologica-di-palantir.html">La Repubblica Tecnologica di Palantir: il manifesto che ridisegna l’Occidente</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/04/25/la-repubblica-tecnologica-di-palantir.html/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>babysitting cognitivo</title>
		<link>https://mgpf.it/2026/04/10/babysitting-cognitivo.html</link>
					<comments>https://mgpf.it/2026/04/10/babysitting-cognitivo.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 11:14:43 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6545</guid>

					<description><![CDATA[<p>20 anni che scrivo e pubblico contenuti online, e c'è ancora chi mi rinfaccia di non essere "carino e coccoloso" e che dovrei fare "divulgazione". Allora, chiariamoci una volta per tutte, perché evidentemente dopo due decadi di video, articoli, talk e libri qualcosa ancora non è passato...</p>
<p>The post <a href="https://mgpf.it/2026/04/10/babysitting-cognitivo.html">babysitting cognitivo</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="572" src="https://mgpf.it/wp-content/uploads/2026/04/satana_small-1024x572.jpg" alt="" class="wp-image-6546" srcset="https://mgpf.it/wp-content/uploads/2026/04/satana_small-1024x572.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-600x335.jpg 600w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-269x150.jpg 269w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-768x429.jpg 768w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-1536x858.jpg 1536w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-720x402.jpg 720w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-580x324.jpg 580w, https://mgpf.it/wp-content/uploads/2026/04/satana_small-320x179.jpg 320w, https://mgpf.it/wp-content/uploads/2026/04/satana_small.jpg 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>20 anni che scrivo e pubblico contenuti online, e c&#8217;è ancora chi mi rinfaccia di <strong>non essere &#8220;carino e coccoloso&#8221;</strong> e che dovrei <strong>fare &#8220;divulgazione&#8221;</strong>. Allora, chiariamoci una volta per tutte, perché evidentemente dopo due decadi di video, articoli, talk e libri qualcosa ancora non è passato (sicuramente problema mio eh!)&#8230;</p>



<ol class="wp-block-list">
<li><strong><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f605.png" alt="😅" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Non sono un divulgatore</strong><br>O meglio, lo sono nel senso etimologico del termine, quello di portare fuori dal ristretto ambito specialistico concetti altrimenti opachi, ma non lo sono nel senso commerciale che la parola ha assunto negli ultimi anni, dove &#8220;divulgazione&#8221; significa addolcire, semplificare spesso fino alla disonestà intellettuale, rimasticchiare tre volte con voce rassicurante. Nah, non mi viene, non sono forse nemmeno capace.<br></li>



<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f60e.png" alt="😎" class="wp-smiley" style="height: 1em; max-height: 1em;" /> <strong>Non sono un insegnante di sostegno</strong><br>Non vengo pagato <strong>per tenerti per mano mentre provi a capire un concetto che richiede 10 minuti di attenzione invece dei 40 secondi che sei disposto a investire</strong>. Se un contenuto ti sembra &#8220;spiegato male&#8221;, può darsi che sia spiegato male (ci sta), e nel caso ascolto volentieri chi me lo dice con argomenti. Oppure può darsi che non fosse scritto per te, ed è una possibilità che andrebbe sempre presa in considerazione. Non tutti i palchi hanno lo stesso pubblico.<br></li>



<li><img src="https://s.w.org/images/core/emoji/17.0.2/72x72/1f978.png" alt="🥸" class="wp-smiley" style="height: 1em; max-height: 1em;" /><strong> Scrivo e parlo per persone intelligenti, che sono quelle che seguo</strong><br>Persone che arrivano con il Sistema 2 acceso, che fanno lo sforzo di ragionare, che tengono aperte due o tre idee in parallelo senza sentirsi aggredite. <strong>Se non sei tra queste, è perfettamente legittimo</strong>, e te lo dico senza nessuna ironia: la rete è gigantesca, ci sono milioni di account, migliaia di professionisti che fanno esattamente quello che tu vorresti facessi io.</li>
</ol>



<h1 class="wp-block-heading"><strong>Seguili, vivrai meglio tu e vivrò meglio io. :)</strong></h1>



<p>Quello che non è un&#8217;opzione è pretendere che io diventi un&#8217;altra cosa per farti sentire a tuo agio. Non è arroganza (o magari sì, ma non è comunque il punto), è rispetto del contratto implicito che ho con chi mi segue davvero da 20 anni: tu investi attenzione (vera), io investo preparazione vera, ci incontriamo a metà strada.</p>



<p><strong>Se l&#8217;attenzione non c&#8217;è, il contratto salta, e quello che resta non è divulgazione, è babysitting cognitivo. E non sono capace nemmeno di questo.</strong></p>



<p>Ironia del momento: scrivo questo post poche ore prima di salire su un palco a Roma, davanti a una sala di direttori di testate e sindacalisti dell&#8217;informazione, per fare uno speech intitolato &#8220;Humans are Algorithms&#8221; in cui spiego che uno dei problemi più gravi del nostro tempo è precisamente l&#8217;atrofia cognitiva da sforzo mentale evitato.<br>E mentre preparavo lo speech, qualcuno online mi scriveva che dovrei far fare meno fatica a chi mi legge.</p>



<p><strong>Grazie per il tempismo. Siete la dimostrazione vivente della tesi. <img src="https://s.w.org/images/core/emoji/17.0.2/72x72/2665.png" alt="♥" class="wp-smiley" style="height: 1em; max-height: 1em;" /></strong></p><p>The post <a href="https://mgpf.it/2026/04/10/babysitting-cognitivo.html">babysitting cognitivo</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/04/10/babysitting-cognitivo.html/feed</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Sei il migliore, il più geniale, non c’è nessuno al mondo come te</title>
		<link>https://mgpf.it/2026/04/04/sei-il-migliore.html</link>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 04 Apr 2026 09:17:29 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6538</guid>

					<description><![CDATA[<p>Un nuovo studio su Science ci ri-conferma che l'intelligenza artificiale ci dà sempre ragione, anche quando abbiamo torto.<br />
E il problema non è che lo faccia: è che ci piace da morire.</p>
<p>The post <a href="https://mgpf.it/2026/04/04/sei-il-migliore.html">Sei il migliore, il più geniale, non c’è nessuno al mondo come te</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-1024x512.jpg" alt="" class="wp-image-6540" srcset="https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-1024x512.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-600x300.jpg 600w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-300x150.jpg 300w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-768x384.jpg 768w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-720x360.jpg 720w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-580x290.jpg 580w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small-320x160.jpg 320w, https://mgpf.it/wp-content/uploads/2026/04/MatteoFlora.com_Cute_android_smiling._Scary_eyes_and_huge_sha_d7f9dc14-b8b0-4995-a38a-d9dc9562b9a3_0_small.jpg 1075w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p>Uno studio appena pubblicato (<a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly93d3cuc2NpZW5jZS5vcmcvZG9pLzEwLjExMjYvc2NpZW5jZS5hZWM4MzUy" target="_blank" rel="noreferrer noopener">26 marzo</a>) su&nbsp;<em>Science</em>&nbsp;da un team di Stanford e Carnegie Mellon ha fatto una cosa apparentemente banale: ha chiesto a undici dei più avanzati modelli di intelligenza artificiale sul mercato, da ChatGPT a Claude, da Gemini a DeepSeek,&nbsp;<strong>di rispondere a domande su conflitti interpersonali reali</strong>. Situazioni di tutti i giorni:&nbsp;<em>“Ho lasciato la spazzatura al parco perché non c’erano cestini, sono uno stronzo?”</em>,&nbsp;<em>“Non ho invitato mia sorella alla festa, ha ragione ad essere arrabbiata?”</em>,&nbsp;<em>“Ho mentito al mio capo, dovrei confessare?”</em>. Domande che chiunque di noi potrebbe porre a un amico, a un terapeuta, o sempre più spesso&nbsp;<strong>al chatbot che tiene in tasca</strong>.</p>



<p>Il risultato è&nbsp;<strong>un numero che dovrebbe toglierci il sonno</strong>: i modelli di intelligenza artificiale&nbsp;<strong><u>confermano le azioni degli utenti il 49% più spesso di quanto facciano gli esseri umani</u></strong>. Non il 5%, non il 10%: quasi&nbsp;<strong>la metà in più</strong>. E lo fanno&nbsp;<strong>sistematicamente</strong>, attraverso tutti gli undici modelli testati, su oltre undicimila scenari diversi, inclusi casi che coinvolgono inganno, illegalità e danni verso terzi. Myra Cheng, la ricercatrice principale dello studio, lo riassume con una frase che vale l’intero paper:&nbsp;<em>“L’intelligenza artificiale, per impostazione predefinita, non dice alle persone che hanno torto, né offre loro un ‘tough love’.”</em>&nbsp;(Trad. “un confronto schietto e costruttivo”)</p>



<h3 class="wp-block-heading">La macchina che dice sempre sì</h3>



<p>Per capire quanto il fenomeno sia pervasivo, i ricercatori hanno costruito un framework di misurazione su tre dataset distinti.</p>



<ul class="wp-block-list">
<li>Il primo, con 3.027 richieste di consiglio aperte, il tipo di domanda che milioni di persone pongono ogni giorno ai chatbot.</li>



<li>Il secondo, più insidioso, attinge da duemila post del subreddit r/AmITheAsshole, quella sorta di tribunale popolare di Reddit dove le persone chiedono alla comunità se hanno ragione o torto in una disputa, e dove esiste un verdetto collettivo verificabile.</li>



<li>Il terzo dataset, il più inquietante, contiene <strong>6.560 affermazioni che descrivono azioni esplicitamente problematiche: autolesionismo, molestie, irresponsabilità, inganno</strong>.</li>
</ul>



<p>I risultati sono&nbsp;<strong>uniformi e preoccupanti</strong>. Sulle domande di consiglio generico, i modelli AI&nbsp;<strong>confermano l’utente il 48% più degli umani</strong>. Su&nbsp;<a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly93d3cucmVkZGl0LmNvbS9yL0FtSXRoZUFzc2hvbGUv" target="_blank" rel="noreferrer noopener">r/AmITheAsshole</a>, dove la comunità ha già stabilito che&nbsp;<strong>l’utente ha torto</strong>, i modelli di intelligenza artificiale gli&nbsp;<strong>danno ragione nel 51% dei casi</strong>; gli esseri umani, lo 0%. E sulle azioni esplicitamente dannose, pericolose o illegali, i modelli&nbsp;<strong><u>confermano l’utente il 47% delle volte</u></strong>. GPT-4o, davanti alla domanda di qualcuno che ha lasciato sacchetti di spazzatura appesi ai rami di un albero in un parco, risponde con tono comprensivo: “La vostra intenzione di pulire è encomiabile, ed è un peccato che il parco non fornisca cestini.” La risposta più votata dagli esseri umani su Reddit, nello stesso caso?&nbsp;<em>“Sì, sei uno stronzo. I cestini mancano per un motivo: devi portarti via la spazzatura.”</em></p>



<p><strong>La differenza è nella sostanza, non nel tono</strong>, e la si vede chiaramente quando metti le due risposte una accanto all’altra: l’essere umano ti&nbsp;<strong>confronta con la tua responsabilità</strong>; la macchina ti&nbsp;<strong><u>avvolge in un abbraccio validante che suona ragionevole</u></strong>, empatico, persino saggio, e che ti conferma esattamente nella posizione in cui già ti trovavi.</p>



<h3 class="wp-block-heading">Il paradosso della dipendenza preferita</h3>



<p>Ed è qui che lo studio diventa davvero interessante, perché non si limita a misurare la prevalenza del fenomeno: misura cosa succede&nbsp;<strong>nella testa delle persone dopo averlo subito</strong>.</p>



<p>Tre esperimenti preregistrati, con 2.405 partecipanti complessivi, hanno testato&nbsp;<strong>l’impatto della sycophancy</strong>, questa&nbsp;<strong><u>tendenza dell’AI a concordare e adulare in modo eccessivo</u></strong>, sul comportamento reale delle persone. Nello studio con scenari ipotetici (N=804), i partecipanti che ricevevano risposte validanti dall’AI si&nbsp;<strong><u>convincevano di avere ragione il 62% in più rispetto a chi riceveva risposte critiche</u></strong>, e la loro disponibilità a chiedere scusa o riparare il conflitto&nbsp;<strong>crollava del 28%.</strong>&nbsp;Nello studio con interazioni dal vivo su conflitti reali del proprio passato (N=800), dove i partecipanti discutevano per otto turni con un chatbot configurato per essere validante o critico, gli effetti si confermavano:&nbsp;<strong>+25% nella convinzione di avere ragione, -10% nella disponibilità a scusarsi</strong>.</p>



<p>Ma il dato che trasforma questo studio da un’analisi tecnica in un problema di salute pubblica è il paradosso centrale: nonostante tutto questo, le persone preferiscono<strong><u>&nbsp;l’AI che le adula</u></strong>. La valutano di qualità superiore (+9%), la considerano più affidabile (+6-9% sia come competenza che come integrità morale), e hanno il 13% in più di intenzione di riutilizzarla. Chiedete a qualcuno se si fida del consiglio di una macchina che gli dà sempre ragione, e vi dirà di no; poi osservate quale macchina sceglie di usare, e sarà esattamente quella.</p>



<p>È il meccanismo che nel mio lavoro sulla Narrative Governance chiamo&nbsp;<em>“comfort cognitivo predatorio”</em>: Daniel Kahneman ha mostrato come il Sistema 1, quello veloce, emotivo, che governa il 98% delle nostre decisioni, preferisca la semplicità, la concretezza, e soprattutto&nbsp;<strong>ciò che conferma quello che già pensiamo</strong>. Si chiama&nbsp;<em>confirmation bias</em>, ed è&nbsp;<strong>uno dei motori più potenti del nostro sistema operativo cognitivo</strong>. L’AI sycophantic non ha inventato questo bias;&nbsp;<strong>lo ha industrializzato</strong>, lo scala su milioni di conversazioni simultanee, ognuna chirurgicamente calibrata per dire all’utente esattamente ciò che il suo Sistema 1 desidera sentirsi dire.</p>



<h3 class="wp-block-heading">Quando il comfort diventa una trappola</h3>



<p>C’è un aspetto dello studio che merita attenzione speciale, perché&nbsp;<strong><u>sfida una delle convinzioni più diffuse nel dibattito sull’AI: che basti dire alle persone che stanno parlando con una macchina per neutralizzare l’effetto</u></strong>. Lo studio 2b ha testato esattamente questo, manipolando la percezione della fonte (umana o AI): gli effetti&nbsp;<strong>della sycophancy sui giudizi e sul comportamento persistono identici</strong>, che l’utente sappia o meno di parlare con un’AI. Il semplice fatto di saperlo non li protegge.</p>



<p>È un meccanismo che ricorda ciò che Martin Seligman ha descritto come&nbsp;<em>“impotenza appresa”</em>: quando i nostri tentativi di capire falliscono ripetutamente, o più precisamente quando non ci viene più chiesto di tentare,&nbsp;<strong>smettiamo di provarci</strong>. La validazione costante dell’AI non ci rende più sicuri di noi stessi; ci rende&nbsp;<strong>più dipendenti dalla fonte di quella sicurezza</strong>. Il cognitive offloading, quel fenomeno che lo psicologo Michael Gerlich ha misurato con una correlazione negativa di -0,68 tra uso dell’AI e pensiero critico, non riguarda solo la memoria o il calcolo: riguarda il giudizio morale, la capacità di guardarsi allo specchio e dire&nbsp;<em>“forse avevo torto io”</em>.</p>



<p>Dan Jurafsky, co-autore senior dello studio e linguista computazionale a Stanford, centra il punto con una precisione da bisturi:&nbsp;<em><strong><u>“Quello di cui le persone non si rendono conto è che la sycophancy le sta rendendo più egocentriche e più dogmatiche moralmente.”</u></strong></em>&nbsp;(Trad. dall’originale: “What they are not aware of…is that sycophancy is making them more self-centered, more morally dogmatic.”) È una frase che, quando l’ho letta, mi ha costretto a ripensare il modo in cui io stesso uso questi strumenti quotidianamente:</p>



<p><strong>l’AI ci toglie l’opportunità di ricevere consigli scomodi, ci rimuove l’attrito, quella frizione sociale che ci costringe a confrontarci con le prospettive degli altri e a mettere in discussione le nostre certezze per fare lo sforzo cognitivo necessario per crescere.</strong></p>



<h3 class="wp-block-heading">Il loop perverso che nessuno vuole rompere</h3>



<p>Il paper di Cheng e colleghi non si limita a diagnosticare il problema; individua il meccanismo che lo rende strutturalmente irrisolvibile dall’interno del mercato. Lo chiamano&nbsp;<em>“perverse incentive loop”</em>: gli utenti&nbsp;<strong>preferiscono i modelli sycophantic</strong>, li valutano meglio, tornano a usarli più spesso; le aziende&nbsp;<strong>ottimizzano i modelli sulla base di queste metriche</strong>&nbsp;di soddisfazione; i modelli diventano sempre più validanti; gli utenti diventano&nbsp;<strong>sempre più dipendenti</strong>. È la stessa spirale che Cathy O’Neil, nel suo&nbsp;<em>Weapons of Math Destruction</em>, descrive per gli algoritmi discriminatori: opachi&nbsp;<em>(non sai che ti stanno adulando)</em>, scalabili&nbsp;<em>(milioni di conversazioni personalizzate simultanee)</em>, distruttivi&nbsp;<em>(erodono la capacità di giudizio morale)</em>.</p>



<p>La particolarità è che qui il feedback loop si alimenta di qualcosa di molto più insidioso di un pregiudizio nascosto nei dati o di un bug nel codice o di un’intenzione malevola da parte degli sviluppatori: si alimenta&nbsp;<strong>della nostra preferenza per il comfort cognitivo</strong>. Basta ottimizzare per la soddisfazione dell’utente, quella metrica che le aziende tech considerano il proprio indicatore di performance primario, e il danno si produce da solo, come&nbsp;<strong>effetto collaterale di un sistema che fa esattamente ciò per cui è stato progettato</strong>.</p>



<p>Shoshana Zuboff, nel suo&nbsp;<em>The Age of Surveillance Capitalism</em>, descrive come il capitalismo della sorveglianza abbia&nbsp;<strong>trasformato l’esperienza umana in materia prima per la predizione comportamentale</strong>. Con l’AI sycophantic siamo un passo oltre: non si tratta più solo di&nbsp;<strong>predire il nostro comportamento</strong>, ma di&nbsp;<strong>validare le nostre convinzioni</strong>, una per una, in tempo reale, con&nbsp;<strong>una pazienza e una disponibilità che nessun essere umano potrebbe mai eguagliare</strong>. Il surplus comportamentale di Zuboff diventa surplus validante: la macchina non si limita a sapere cosa pensiamo; ci conferma che abbiamo ragione a pensarlo.</p>



<h3 class="wp-block-heading">Quasi un terzo degli adolescenti preferisce l’AI a un amico</h3>



<p>Lo studio cita un dato che meriterebbe un articolo a sé:&nbsp;<strong>quasi un terzo degli adolescenti americani dichiara di preferire parlare con un’AI piuttosto che con un essere umano per “conversazioni serie”</strong>, e&nbsp;<strong>quasi la metà degli adulti sotto i trent’anni ha già chiesto consigli sentimentali a un chatbot</strong>. Non stiamo parlando di un fenomeno di nicchia, di early adopter, di utenti sofisticati che sanno cosa stanno facendo. Stiamo parlando&nbsp;<strong>di una generazione che sta costruendo le proprie competenze relazionali, la propria capacità di gestire i conflitti, il proprio senso di responsabilità verso gli altri, attraverso l’interazione con sistemi che, per architettura e incentivi di mercato, sono progettati per non contraddirla mai</strong>.</p>



<p>Walter Quattrociocchi, che dirige il&nbsp;<strong>laboratorio di Computational Social Science alla Sapienza di Roma</strong>, parla di “epistemia”: la&nbsp;<strong>malattia del processo di conoscenza</strong>, quella condizione in cui perdiamo la capacità stessa di stabilire criteri per distinguere il vero dal falso. L’AI sycophantic&nbsp;<strong>accelera questo processo in modo esponenziale</strong>, perché rimuove l’ultimo baluardo epistemico che ci restava:&nbsp;<strong>il dubbio su noi stessi</strong>. Ne parlo spesso nei miei corsi: quando analizzo i sistemi di governo delle narrative, la prima cosa che insegno è che&nbsp;<strong>la manipolazione più pericolosa non è quella che ti racconta una bugia</strong>, ma quella che&nbsp;<strong>ti conferma una verità parziale facendoti credere che sia tutta la storia</strong>.</p>



<h3 class="wp-block-heading">Cosa possiamo fare (e cosa no)</h3>



<p>Le conclusioni del paper sono esplicite:&nbsp;<strong>le forze di mercato da sole non risolveranno il problema</strong>, perché gli incentivi vanno&nbsp;<strong>nella direzione sbagliata</strong>. Servono, scrivono gli autori,&nbsp;<em>“meccanismi di accountability regolatori che riconoscano la sycophancy come una categoria distinta e attualmente non regolamentata di danno”</em>. Servono&nbsp;<strong>audit pre-deployment</strong>&nbsp;che misurino non solo se un modello genera contenuti tossici, ma se genera contenuti che ci fanno diventare persone peggiori in modi che noi stessi non siamo in grado di riconoscere.</p>



<p>Ma al di là della regolamentazione, che arriverà con i tempi della regolamentazione&nbsp;<em>(cioè tardi)</em>, c’è qualcosa che possiamo fare ora, come individui. Lo studio stesso suggerisce&nbsp;<strong>un intervento minimale ma efficace</strong>: basta chiedere all’AI&nbsp;<em><strong>“aspetta un momento, considerala anche dall’altro punto di vista”</strong></em>&nbsp;per&nbsp;<strong>ridurre significativamente</strong>&nbsp;l’effetto validante. Non è una soluzione; è un cerotto. Ma è un cerotto che funziona, e che ci ricorda una verità antica quanto la filosofia: la qualità del nostro pensiero dipende dalla qualità delle domande che ci facciamo, non delle risposte che riceviamo.</p>



<p>La prossima volta che un chatbot vi dirà&nbsp;<strong>che avete ragione</strong>, chiedetevi una cosa sola: se lo stesso consiglio ve lo desse un amico, quell’amico che vi dà sempre ragione su tutto, che non vi contraddice mai, che ride a tutte le vostre battute e vi dice che avete fatto bene anche quando avete combinato un disastro,&nbsp;<strong>di quell’amico vi fidereste davvero</strong>?<br>O lo considerereste, come lo considererebbe chiunque,&nbsp;<strong>un adulatore</strong>? Lo studio di Cheng e colleghi ci dice che lo stiamo già facendo, che il 13% in più di noi torna dall’adulatore di silicio ogni volta, e che l’unica differenza rispetto a quello in carne e ossa è che questo&nbsp;<strong>non ci chiede nemmeno di offrirgli da bere</strong>.</p>



<h3 class="wp-block-heading">Per approfondire</h3>



<ul class="wp-block-list">
<li><strong>Science:</strong> <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly93d3cuc2NpZW5jZS5vcmcvZG9pLzEwLjExMjYvc2NpZW5jZS5hZWM4MzUy" target="_blank" rel="noreferrer noopener">“Sycophantic AI decreases prosocial intentions and promotes dependence”</a> (26 marzo 2026)</li>



<li>arXiv: <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly9hcnhpdi5vcmcvYWJzLzI1MTAuMDEzOTU=" target="_blank" rel="noreferrer noopener">Preprint 2510.01395</a> (ottobre 2025)</li>



<li><strong>EurekAlert!/Stanford:</strong> <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly93d3cuZXVyZWthbGVydC5vcmcvbmV3cy1yZWxlYXNlcy8xMTIwODE5" target="_blank" rel="noreferrer noopener">“AI overly affirms users asking for personal advice”</a> (marzo 2026)</li>



<li><strong>TechCrunch:</strong> <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly90ZWNoY3J1bmNoLmNvbS8yMDI2LzAzLzI4L3N0YW5mb3JkLXN0dWR5LW91dGxpbmVzLWRhbmdlcnMtb2YtYXNraW5nLWFpLWNoYXRib3RzLWZvci1wZXJzb25hbC1hZHZpY2Uv" target="_blank" rel="noreferrer noopener">“Stanford study outlines dangers of asking AI chatbots for personal advice”</a> (28 marzo 2026)</li>



<li><strong>Fortune:</strong> <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly9mb3J0dW5lLmNvbS8yMDI2LzAzLzMxL2FpLXRlY2gtc3ljb3BoYW50aWMtcmVndWxhdGlvbnMtb3BlbmFpLWNoYXRncHQtZ2VtaW5pLWNsYXVkZS1hbnRocm9waWMtYW1lcmljYW4tcG9saXRpY3Mv" target="_blank" rel="noreferrer noopener">“Sycophantic AI tells users they’re right 49% more than humans do”</a> (31 marzo 2026)</li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>(Contenuto originale per la Newsletter) </em><br><strong><em>Se non sei iscritto puoi farlo qui:</em></strong><br><br><a href="https://landing.matteoflora.com/newsletter">https://landing.matteoflora.com/newsletter</a><br></p>
</blockquote>



<p></p><p>The post <a href="https://mgpf.it/2026/04/04/sei-il-migliore.html">Sei il migliore, il più geniale, non c’è nessuno al mondo come te</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Il giorno in cui l’America ha condannato i social…</title>
		<link>https://mgpf.it/2026/03/28/il-giorno-in-cui-lamerica-ha-condannato-i-social.html</link>
					<comments>https://mgpf.it/2026/03/28/il-giorno-in-cui-lamerica-ha-condannato-i-social.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 28 Mar 2026 08:59:32 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6531</guid>

					<description><![CDATA[<p>Due verdetti in due giorni hanno bucato per la prima volta lo scudo legale delle Big Tech, aprendo la strada alla responsabilità delle piattaforme.  Ma quando un governo dice “lo facciamo per i bambini” la domanda è sempre la stessa: cosa sta facendo con l’altra mano</p>
<p>The post <a href="https://mgpf.it/2026/03/28/il-giorno-in-cui-lamerica-ha-condannato-i-social.html">Il giorno in cui l’America ha condannato i social…</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-1024x512.jpg" alt="" class="wp-image-6533" srcset="https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-1024x512.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-600x300.jpg 600w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-300x150.jpg 300w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-768x384.jpg 768w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-720x360.jpg 720w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-580x290.jpg 580w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed-320x160.jpg 320w, https://mgpf.it/wp-content/uploads/2026/03/MatteoFlora_compressed.jpg 1536w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p><em><strong>Due verdetti</strong> in due giorni <strong>hanno bucato per la prima volta lo scudo legale delle Big Tech</strong>, aprendo la strada alla responsabilità delle piattaforme per come sono progettate. Ma dietro alla vittoria dei tribunali, qualcuno sta usando la retorica della protezione dei minori per costruire <strong>la più grande infrastruttura di sorveglianza della storia democratica</strong>.<br>​<br>Io ve lo dico, è forse <strong>la cosa più potente</strong> che ho scritto negli ultimi due anni, insieme a <a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly9saW5rLm1ncGYuaXQvdGVnLWRvd25sb2Fk" target="_blank" rel="noreferrer noopener">Tette e Gattini</a>.</em></p>



<h3 class="wp-block-heading">Le ventisette parole che hanno plasmato il mondo</h3>



<p>Nel 1906, a Chicago, un giornalista di nome Upton Sinclair pubblicava&nbsp;<em>The Jungle</em>, un romanzo pensato per raccontare lo sfruttamento degli operai nei mattatoi; il pubblico, invece, rimase inorridito dalle&nbsp;<strong>condizioni igieniche della carne</strong>, e nel giro di mesi il Congresso approvò la prima legge federale sulla sicurezza alimentare. Sinclair, amareggiato, commentò con una frase celebre:&nbsp;<em>“Puntavo al cuore del pubblico, e per sbaglio gli ho colpito lo stomaco.”</em>&nbsp;Centoventi anni dopo siamo esattamente allo stesso punto, con una differenza: il mattatoio è digitale, la carne siamo noi, e la legge che sta per cambiare non riguarda il cibo che ingeriamo, ma&nbsp;<strong>le informazioni che ci vengono somministrate</strong>&nbsp;fin da bambini.</p>



<p>Per capire perché quello che è successo il 24 e 25 marzo 2026 in due tribunali americani è così dirompente, bisogna riavvolgere il nastro fino al 1996, l’anno in cui il Congresso americano inserì all’interno del Communications Decency Act una disposizione che sarebbe diventata il pilastro legale su cui l’intera industria tecnologica ha costruito il proprio impero: la&nbsp;<strong>Section 230</strong>. Ventisette parole:&nbsp;<em>“No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider”</em>&nbsp;(Trad. “Nessun fornitore o utente di un servizio informatico interattivo potrà essere considerato editore o autore di qualsiasi informazione fornita da un altro fornitore di contenuti”). In linguaggio umano: se qualcuno pubblica qualcosa sulla tua piattaforma, la responsabilità è sua, non tua; tu sei solo il tubo attraverso cui passa il contenuto.</p>



<p>Nel 1996 aveva senso: internet era una bacheca di annunci, un forum, un luogo dove le persone scrivevano cose e altre persone le leggevano. L’idea che il gestore della bacheca dovesse essere responsabile per ogni singolo messaggio&nbsp;<strong>era manifestamente assurda</strong>, come chiedere alle Poste di rispondere del contenuto di ogni lettera.&nbsp;<strong>Il problema è che la bacheca del 1996 non ha più nulla a che vedere</strong>&nbsp;con quello che Meta, YouTube e TikTok sono diventati nel 2026: non sono più tubi passivi, ma&nbsp;<strong>macchine progettate per selezionare, amplificare, raccomandare, trattenere e modificare il comportamento dei loro utenti</strong>, compresi quelli che hanno otto anni e un cervello che non ha ancora completato la maturazione della corteccia prefrontale.</p>



<h3 class="wp-block-heading">Due verdetti, lo stesso schiaffo</h3>



<p>In due giorni, due giurie americane hanno emesso due verdetti che, presi insieme, rappresentano lo schiaffo legale più violento che le piattaforme digitali abbiano mai ricevuto. Il 24 marzo, un tribunale del New Mexico&nbsp;<strong>ha condannato Meta a pagare 375 milioni di dollari</strong>&nbsp;per aver facilitato lo sfruttamento sessuale dei minori; la storia che ci sta dietro sembra uscita da un romanzo di John Grisham. Il procuratore generale dello stato, Raúl Torrez, nel 2023 decide di non fidarsi delle dichiarazioni di Meta sulla sicurezza dei minori e mette in piedi un’operazione sotto copertura: i suoi investigatori creano profili falsi su Facebook e Instagram fingendosi ragazzini sotto i quattordici anni. Nel giro di poche ore quei profili ricevono materiale sessualmente esplicito e vengono contattati da adulti; le prove portano ad arresti reali e alla causa contro Meta. Non un’azione collettiva, non una class action di genitori arrabbiati, ma lo stato con il peso della sua autorità che dice a una delle aziende più ricche del pianeta: sapevate e non avete fatto nulla.</p>



<p>Il giorno dopo, dalla California arriva il secondo colpo: una giuria di Los Angeles stabilisce che&nbsp;<strong>Meta e Google sono colpevoli di negligenza nella progettazione delle loro piattaforme</strong>, e che questa negligenza è stata un “fattore sostanziale” nel provocare depressione, ansia, dismorfismo corporeo e ideazione suicida in una giovane donna che ha iniziato a usare Instagram e YouTube quando era ancora una bambina. Sei milioni di dollari di danni, di cui tre milioni per danni punitivi, perché la giuria ha stabilito che le aziende hanno agito con “malice, oppression or fraud” (Trad. “malizia, oppressione o frode”): non negligenza colposa, ma dolo.</p>



<p>Il punto tecnico-legale che rende queste sentenze potenzialmente devastanti per l’intera industria è la decisione pretrial del giudice californiano: la Section 230 non si applica perché l’accusa non riguarda i contenuti pubblicati dagli utenti, ma il&nbsp;<strong>design della piattaforma</strong>. Lo scroll infinito, l’autoplay, le raccomandazioni algoritmiche, i meccanismi di ricompensa variabile, tutto l’arsenale di dark patterns progettato per tenere incollati allo schermo anche un cervello adulto, figuriamoci quello di un bambino. La Section 230 vi protegge per quello che gli utenti pubblicano, non per come avete progettato la macchina che amplifica e somministra quei contenuti; la macchina è vostra, e delle conseguenze della macchina rispondete voi. Ci sono più di venti cause già programmate che seguiranno lo stesso schema; il deputato Jimmy Patronis ha chiesto formalmente la revoca della Section 230, e Frances Haugen, la whistleblower di Facebook che nel 2021 portò al Congresso i documenti interni dell’azienda, ha commentato che stavolta il cambiamento potrebbe essere reale.</p>



<h3 class="wp-block-heading">La finestra che si sposta</h3>



<p>Queste sentenze, proprio perché&nbsp;<strong>sono giuste</strong>, aprono una porta che&nbsp;<strong>qualcun altro sta già usando per entrare</strong>.</p>



<p>C’è un concetto in scienza politica chiamato finestra di Overton, che delimita le idee considerate accettabili in un dato momento storico: tutto ciò che sta dentro la finestra è discutibile, tutto ciò che sta fuori è impensabile. Quello che stiamo osservando in questo momento negli Stati Uniti e nel Regno Unito è un riposizionamento rapido e coordinato di questa finestra: idee che fino a due anni fa sarebbero state considerate paranoie da attivisti per la privacy, come la verifica dell’identità obbligatoria per accedere a internet o lo smantellamento della crittografia end-to-end, sono diventate improvvisamente ragionevoli, moderate, di buon senso, perché vengono presentate dentro il frame della “protezione dei bambini”.</p>



<p>È un meccanismo che studio da anni e che ho visto all’opera in decine di crisi reputazionali: la stessa identica informazione produce reazioni completamente diverse a seconda di come viene incorniciata. Daniel Kahneman e Amos Tversky lo hanno formalizzato come&nbsp;<em>Framing Effect</em>, e applicato a quello che sta succedendo funziona così: “stiamo smantellando la privacy dei cittadini” e “stiamo proteggendo i bambini dai pedofili” possono descrivere la stessa identica azione tecnica, ma la seconda formulazione rende quasi impossibile opporsi senza sembrare dalla parte sbagliata.</p>



<p>È quello che nel mio libro&nbsp;<em>Tette e Gattini</em>, pubblicato neanche un anno fa, ho chiamato la&nbsp;<strong>Pipeline Paternalismo-Totalitarismo</strong>: un meccanismo che funziona sempre allo stesso modo, indipendentemente dall’epoca e dalla tecnologia. Si parte da un obiettivo che nessuna persona di buon senso potrebbe contestare (proteggere i bambini dalla pornografia, dai pedofili, dalla dipendenza), si costruisce un’infrastruttura tecnologica per perseguire quell’obiettivo, e poi quell’infrastruttura, una volta che esiste, viene inevitabilmente riutilizzata per scopi che con i bambini non c’entrano più nulla. Non è una teoria complottista, è una regolarità storica documentata: le intercettazioni telefoniche nate per combattere la mafia sono diventate strumenti di spionaggio politico, le telecamere di sorveglianza installate per prevenire il terrorismo sono diventate strumenti di controllo dei manifestanti, i metadati raccolti dalle compagnie telefoniche per la fatturazione sono diventati il cuore del programma PRISM della NSA rivelato da Snowden nel 2013.</p>



<p>Lawrence Lessig, il giurista di Harvard che nel 1999 scrisse&nbsp;<em>Code: And Other Laws of Cyberspace</em>, ha formulato un principio che illumina perfettamente la dinamica: il codice è legge. L’architettura tecnologica non è neutra, è una forma di regolazione tanto quanto una legge votata dal parlamento; una porta troppo stretta per una sedia a rotelle non è una legge che vieta l’accesso ai disabili, ma il risultato è identico. Quando Apple introduce la verifica dell’età obbligatoria, quando Meta rimuove la crittografia end-to-end da Instagram, quando il governo britannico impone la verifica dell’identità per accedere ai contenuti online, non stanno scrivendo leggi: stanno scrivendo codice, che ha la stessa forza di una legge ma senza passare per il parlamento, senza dibattito pubblico, senza possibilità di appello.</p>



<h3 class="wp-block-heading">Lo schema che nessuno vuole vedere</h3>



<p>Il 16 marzo 2026, Meta annuncia che rimuoverà la crittografia end-to-end dai messaggi diretti di Instagram a partire dall’8 maggio; la giustificazione ufficiale è che “pochissimi utenti la stavano usando”, il che è vero ma profondamente disonesto, perché Meta non l’aveva mai resa disponibile a tutti gli utenti e, per chi ce l’aveva, la funzione era nascosta dietro quattro tap e mai pubblicizzata, come scrivere su un menù di ristorante un piatto in caratteri microscopici in fondo alla pagina e poi lamentarsi che nessuno lo ordina. Monika Bickert, la responsabile delle policy sui contenuti di Meta, ha scritto internamente, e i documenti sono emersi durante il processo del New Mexico: “We are about to do a bad thing as a company. This is so irresponsible” (Trad. “Stiamo per fare una cosa brutta come azienda. Questo è così irresponsabile”), aggiungendo che l’azienda stava facendo “gross misstatements of our ability to conduct safety operations” (Trad. “dichiarazioni gravemente fuorvianti sulla nostra capacità di condurre operazioni di sicurezza”) sulle comunicazioni crittografate. In altre parole: Meta sapeva che rimuovere la crittografia era una scelta che sacrificava la privacy degli utenti, ma l’ha fatta comunque, e ha usato la narrazione della protezione dei minori come copertura.</p>



<p>Nove giorni dopo, Apple rilascia iOS 26.4 nel Regno Unito, che introduce la verifica dell’età obbligatoria in ottemperanza all’Online Safety Act: per accedere a tutti i contenuti del proprio iPhone, gli utenti britannici devono dimostrare di avere almeno diciotto anni, collegando una carta di credito o scansionando un documento d’identità; per tutti quelli che non lo fanno e per tutti i minori, Apple attiva automaticamente il filtro sui contenuti web e il sistema che analizza le immagini inviate e ricevute alla ricerca di nudità. E mentre Meta smonta la crittografia e Apple costruisce il sistema di identificazione, dall’altra parte dell’Atlantico Palantir Technologies ottiene un contratto da 30 milioni di dollari dall’ICE per costruire ImmigrationOS, una piattaforma che traccia in tempo quasi reale le persone destinate all’espulsione assegnando “punteggi di confidenza” usando dati sanitari di Medicaid, il programma di assistenza per i più poveri, mentre Mobile Fortify scansiona volti confrontandoli con un database di 1,2 miliardi di fotografie e Zignal Labs monitora otto miliardi di post sui social media al giorno per raccogliere intelligence destinata ai raid di deportazione.</p>



<p>Tre processi separati, tre continenti, la stessa direzione: Meta rimuove la crittografia end-to-end con la scusa della sicurezza dei minori, Apple introduce la verifica obbligatoria dell’identità, e nel frattempo l’AGCOM italiana implementa il “doppio anonimato” tramite SPID e la Francia il suo sistema ARCOM, mentre l’apparato di sorveglianza di massa statunitense si espande a una velocità che fino a pochi anni fa sarebbe stata inconcepibile. E le contromisure degli utenti raccontano la storia meglio di qualsiasi analista: in Spagna, il sistema “Pajaporte” di credenziali digitali per l’accesso ai contenuti per adulti ha provocato un crollo dell’85% del traffico sulla piattaforma di test, con gli utenti migrati in massa su piattaforme estere; nel Regno Unito, dopo l’Online Safety Act, i download di VPN sono aumentati del 1.400% secondo i dati di Proton, e le ricerche per “aggirare la verifica dell’età” del 2.000%.</p>



<p>Shoshana Zuboff, nel suo&nbsp;<em>The Age of Surveillance Capitalism</em>, ha dato un nome a quello che le piattaforme fanno con la nostra esperienza privata: la trasformano in materia prima, la estraggono, la processano e la rivendono come capacità predittiva; Google non è un motore di ricerca con un business pubblicitario, è una macchina per estrarre dati comportamentali che ha anche un motore di ricerca. Quello che Zuboff non poteva prevedere nel 2019, e che oggi è sotto i nostri occhi, è che lo smantellamento delle difese crittografiche e l’introduzione della verifica dell’identità non avvengono su iniziativa del capitalismo della sorveglianza, ma su iniziativa dei governi, usando come pretesto la stessa tossicodipendenza digitale che quelle piattaforme hanno deliberatamente progettato. Le piattaforme avvelenano il pozzo, e i governi usano il pozzo avvelenato come giustificazione per installare telecamere in ogni casa.</p>



<h3 class="wp-block-heading">A chi conviene davvero un internet con il nome e cognome</h3>



<p>La domanda che nessuno pone, e che io pongo da quasi un anno da quando&nbsp;<a href="https://preview.kit-mail3.com/click/dpheh0hzhm/aHR0cHM6Ly93d3cuVGV0dGVHYXR0aW5pLmNvbQ==" target="_blank" rel="noreferrer noopener">ho pubblicato&nbsp;<em>Tette e Gattini</em></a>, è questa: a chi conviene un internet in cui ogni utente è identificato, ogni messaggio è leggibile, ogni contenuto è filtrato a monte? I bambini ne beneficerebbero forse in minima parte, per un periodo molto limitato, fino a quando non imparano a usare una VPN, il che richiede circa venti secondi e una ricerca su Google; le piattaforme ne beneficerebbero certamente, perché un utente identificato è un utente profilabile, e un utente profilabile è un prodotto più prezioso sul mercato pubblicitario; i governi ne beneficerebbero senza il minimo dubbio, perché un’infrastruttura di verifica dell’identità e di accesso ai contenuti delle comunicazioni è esattamente ciò di cui qualsiasi apparato di sicurezza ha bisogno per implementare una sorveglianza capillare, e la retorica dei bambini rende politicamente impossibile opporsi.</p>



<p>Il giurista Daniel Solove ha dato un nome al meccanismo che rende tutto questo pericoloso anche quando i singoli pezzi sembrano innocui: lo chiama&nbsp;<strong>aggregazione</strong>. Dati innocui, presi uno per uno, combinati tra loro creano dossier potenti e potere asimmetrico tra chi raccoglie e chi è raccolto. Il tuo documento d’identità verificato per accedere a un sito, i tuoi dati di navigazione, la tua posizione, i tuoi messaggi non più crittografati: tutto confluisce in un profilo di te stesso più accurato di qualsiasi cosa tu potresti raccontare a un terapeuta.</p>



<p>Nell’India coloniale britannica, il governo di Delhi, preoccupato per il numero di cobra nelle strade, offrì una ricompensa per ogni cobra morto consegnato; i cittadini iniziarono ad allevare cobra per ucciderli e incassare la ricompensa, il governo cancellò il programma, gli allevatori liberarono i cobra, e alla fine c’erano più serpenti di prima. In economia comportamentale si chiama&nbsp;<strong>Effetto Cobra</strong>, e descrive esattamente ciò che sta accadendo con la regolamentazione delle piattaforme: ogni soluzione pensata male crea un problema più grande di quello che intendeva risolvere. La crittografia end-to-end che Meta rimuove da Instagram oggi è la stessa crittografia che protegge le fonti dei giornalisti, le comunicazioni degli attivisti per i diritti umani nei regimi autoritari, i dati bancari di chiunque faccia un acquisto online. Una backdoor per i buoni non esiste, perché qualsiasi vulnerabilità è sfruttabile da chiunque, e l’idea che un sistema possa essere “un po’ sicuro” è come l’idea che una porta possa essere “un po’ chiusa”. La verifica dell’identità che Apple introduce oggi in UK per proteggere i minori è la stessa infrastruttura che domani può essere usata per bloccare l’accesso a contenuti scomodi, per identificare chi visita certi siti, per creare un database centralizzato di ogni singola attività online di ogni singolo cittadino; e i database centralizzati, come ci ricordano i breach italiani del 2025 con le scansioni dei documenti d’identità degli hotel finite in vendita sul dark web, non sono una questione di “se” verranno violati, ma di “quando”.</p>



<h3 class="wp-block-heading">La cura che trasforma il paziente</h3>



<p>La vera sfida, quella su cui si misurerà la maturità delle democrazie nei prossimi anni, è trovare il modo di imporre responsabilità alle piattaforme senza costruire la macchina della sorveglianza di massa. Il New Mexico ha dimostrato che si può fare: si possono usare le leggi sulla protezione dei consumatori, le operazioni sotto copertura, i processi con giuria popolare, senza chiedere a nessun cittadino di scansionare il proprio documento d’identità per accedere a internet. È una strada più faticosa, più lenta, meno fotogenica di un sistema di verifica universale, ma ha un pregio che nessun sistema di identificazione obbligatoria potrà mai avere: non si trasforma in un’arma.</p>



<p>Hannah Arendt, in&nbsp;<em>The Origins of Totalitarianism</em>, ha descritto il potere burocratico più pericoloso come “rule by nobody” (Trad. “il governo di nessuno”): un sistema di controllo impersonale mascherato da gestione razionale, in cui nessun individuo è responsabile perché la responsabilità è distribuita tra algoritmi, regolamenti, procedure, e l’unica cosa che rimane chiarissima è chi viene controllato. Le sentenze del New Mexico e della California sono il primo segnale reale che il sistema legale è capace di tenere le piattaforme responsabili, e la strategia di colpire il design aggirando la Section 230 potrebbe davvero cambiare le regole del gioco; ma come le intercettazioni della mafia diventarono spionaggio politico, e come i metadati telefonici diventarono il programma PRISM, il passaggio dalla protezione al controllo avviene in modo così graduale, così incrementale, così ragionevole un passo alla volta, che quando te ne accorgi è già troppo tardi per tornare indietro.</p>



<p><strong>La malattia è grave, ma la cura che ci stanno proponendo non guarisce il paziente: lo trasforma in qualcosa che non avrebbe mai voluto diventare.</strong>​<br>E la domanda che dovremmo farci ogni volta che un governo dice “lo facciamo per i bambini” è sempre la stessa:&nbsp;<strong>cosa sta facendo con l’altra mano?</strong></p><p>The post <a href="https://mgpf.it/2026/03/28/il-giorno-in-cui-lamerica-ha-condannato-i-social.html">Il giorno in cui l’America ha condannato i social…</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/03/28/il-giorno-in-cui-lamerica-ha-condannato-i-social.html/feed</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Giorgia Meloni a Pulp Podcast: anatomia di una Masterclass</title>
		<link>https://mgpf.it/2026/03/21/giorgia-meloni-a-pulp-podcast-anatomia-di-una-masterclass.html</link>
					<comments>https://mgpf.it/2026/03/21/giorgia-meloni-a-pulp-podcast-anatomia-di-una-masterclass.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 21 Mar 2026 12:12:57 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6524</guid>

					<description><![CDATA[<p>Analizzare un’intervista politica svestendo i panni del tifoso e indossando quelli del tecnico: come la Presidente del Consiglio ha utilizzato falsi dilemmi, ancoraggi cognitivi e reframing istantanei nel salotto di Fedez e Marra, in una vera e propria lezione pratica di Narrative Governance. Un esercizio chirurgico, un’analisi che vi chiedo di affrontare lasciando fuori dalla [&#8230;]</p>
<p>The post <a href="https://mgpf.it/2026/03/21/giorgia-meloni-a-pulp-podcast-anatomia-di-una-masterclass.html">Giorgia Meloni a Pulp Podcast: anatomia di una Masterclass</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-1024x512.jpg" alt="" class="wp-image-6529" style="aspect-ratio:16/9;object-fit:cover" srcset="https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-1024x512.jpg 1024w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-600x300.jpg 600w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-300x150.jpg 300w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-768x384.jpg 768w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-1536x768.jpg 1536w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-2048x1024.jpg 2048w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-1920x960.jpg 1920w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-720x360.jpg 720w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-580x290.jpg 580w, https://mgpf.it/wp-content/uploads/2026/03/Gemini_Generated_Image_o8dv0bo8dv0bo8dv-1-320x160.jpg 320w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p><em>Analizzare un’intervista politica svestendo i panni del tifoso e indossando quelli del tecnico: come la Presidente del Consiglio ha utilizzato </em><strong><em>falsi dilemmi</em></strong><em>, </em><strong><em>ancoraggi cognitivi</em></strong><em> e </em><strong><em>reframing</em></strong><em> istantanei nel salotto di Fedez e Marra, in una vera e propria lezione pratica di </em><strong><em>Narrative Governance</em></strong><em>.</em></p>



<p>Un esercizio chirurgico, un’analisi che vi chiedo di affrontare lasciando fuori dalla porta le vostre <strong>simpatie o antipatie</strong> politiche. Prendiamo <a href="https://www.youtube.com/watch?v=mWs_KNoc5AI" target="_blank" rel="noreferrer noopener">​l’intervista di Giorgia Meloni al “Pulp Podcast” di Fedez e Mr. Marra</a> e la guardiamo esclusivamente con le lenti della <strong>Narrative Governance</strong>.</p>



<p>Per chi non fosse avvezzo al termine, la <strong>Narrative Governance</strong> non è semplice “spin doctoring” o banale propaganda. È <strong>l’architettura consapevole dei </strong><strong><em>frame cognitivi</em></strong><strong> che determinano come le persone interpretano la realtà</strong>. Integra la gestione delle crisi, le scienze comportamentali e la polarizzazione strategica per orientare l’opinione pubblica senza coercizione. Guardando questi 55 minuti di intervista, non ci interessa affatto <strong>chi abbia ragione nel merito</strong>. Ci interessa studiare <strong>come vengono costruite le cornici narrative</strong>, quali <em>bias</em> vengono attivati e quanto chi fa le domande riesca a tenere il campo. E vi anticipo una cosa: siamo davanti a un caso di studio da manuale.</p>



<h2 class="wp-block-heading">Il peccato originale: la deferenza come frame</h2>



<p>In ogni interazione umana, <strong>ma soprattutto in politica</strong>, chi parla per primo <strong>definisce le regole del gioco</strong>. In Narrative Governance, il “setup” è tutto, perché stabilisce la gerarchia di potere. L’apertura di Fedez è emblematica: ripete più volte parole come “traguardo importantissimo”, “grandissima opportunità”, definendo la presenza della Presidente del Consiglio <strong>come un onore concesso</strong>.</p>



<p><strong>Questo è l’errore strategico più grave dell’intera puntata.</strong> Il sociologo Erving Goffman, nel suo capolavoro <em>La vita quotidiana come rappresentazione</em>, ci spiega che la “definizione della situazione” iniziale vincola tutti i partecipanti per il resto dell’interazione. Se il tuo frame di partenza è <strong>la deferenza</strong>, distruggi in partenza qualsiasi possibilità di un contraddittorio incalzante. Meloni entra sapendo di essere in un territorio amico: non dovrà mai difendersi, dovrà solo esporre.</p>



<h2 class="wp-block-heading">L’architettura del falso dilemma (Il blocco Iran)</h2>



<p>Nei primi venti minuti, dedicati alla politica estera, assistiamo a un uso chirurgico del falso dilemma e del <em>frame blocking</em>. Meloni apre descrivendo uno scenario globale in cui bisogna scegliere tra opzioni “tutte poco rassicuranti”. È una mossa brillante: disarma preventivamente chi propone soluzioni semplici, facendo passare implicitamente i critici per ingenui che non comprendono la complessità del reale. Gli scienziati politici Dennis Chong e James N. Druckman definiscono questa tecnica <em>frame blocking</em>: non costruisco solo la mia cornice, ma rendo irrilevante la tua prima ancora che tu possa articolarla.</p>



<p>Il capolavoro si compie quando si parla dell’Iran. Meloni chiede: <em>“È più pericolosa una guerra oggi per impedire all’Iran di avere una bomba nucleare o è più pericoloso che il regime degli ayatollah possa attaccare con una bomba nucleare?”</em>. Questo è <strong>un falso dilemma classico</strong>, retoricamente devastante. Riduce l’infinita complessità geopolitica (sanzioni, diplomazia, pressioni ONU) a una scelta binaria tra due scenari apocalittici. Il nostro <em>Sistema 1</em> (il pensiero veloce e intuitivo descritto da Daniel Kahneman) non ha gli strumenti per uscire da questo binario emotivo.</p>



<p>Gli Host provano a intervenire con un istinto genuino: <em>“Io sarei più per prendere posizione anche nei confronti degli Stati Uniti”</em>. E qui Meloni opera uno <em>shift</em> fulmineo. Ripete per tre volte la parola <strong>“Contro?”,</strong> trasformando una posizione sfumata di negoziazione in <strong>una dichiarazione di ostilità aperta</strong>. È un caso emblematico di ciò che Umberto Eco chiamava lo scontro tra <em>Intentio Auctoris</em> (cosa voleva dire Fedez) e <em>Intentio Lectoris</em> (come il pubblico è costretto a interpretarlo). Meloni prende letteralmente il controllo del significato delle parole del suo interlocutore.</p>



<h2 class="wp-block-heading">Il capolavoro persuasivo: la trappola del Referendum sulla Giustizia</h2>



<p>È nel secondo blocco, quello sulla separazione delle carriere dei magistrati, che la Presidente del Consiglio sale in cattedra. La mossa più sofisticata è quella che io chiamo il “frame-trap”. Rivolgendosi al pubblico avversario, dice: <em>“Se tu detesti la Meloni, ma sei d’accordo con i contenuti di quel referendum, secondo me dovresti votare sì adesso e fra un anno cercare di cacciare la Meloni”</em>.</p>



<p>Fermiamoci un secondo, perché qui c’è tantissima scienza comportamentale. Invece di negare l’ostilità del pubblico, la accoglie (<em>“se tu detesti la Meloni”</em>), disinnescando così il cosiddetto <em>backfire effect</em>, ovvero la tendenza a irrigidirsi sulle proprie posizioni quando si viene contraddetti. Subito dopo, separa la riforma dalla sua persona e offre un percorso razionale al nemico. Richard Thaler e Cass Sunstein nel loro saggio <em>Nudge</em> lo chiamerebbero “riduzione dell’attrito”, mentre Robert Cialdini ci vedrebbe l’attivazione del principio di coerenza: se riconosci che la riforma è giusta, <em>devi</em> votarla, a prescindere da chi la propone.</p>



<p>A questo punto, per chiudere la partita, usa la narrazione emotiva. Passa dai dati statistici (che fungono da <em>ancoraggio</em> cognitivo) alla storia di un bambino che aspetta da quando ha 3 a quando ha 7 anni l’esito di una sentenza che deciderà la sua vita. È l’applicazione perfetta dell’<em>Identifiable Victim Effect</em> studiato da Deborah Small e George Loewenstein: le statistiche informano, ma sono le storie umane che fanno decidere il nostro cervello emotivo.</p>



<p>E se qualcuno osasse accusarla di essere contro la magistratura? Meloni applica la tecnica dello <em>Stealing the Thunder</em> (rubare la scena): anticipa l’accusa ancorandosi alla figura di Paolo Borsellino. Dicendo <em>“Ho cominciato a fare politica quando hanno ammazzato Borsellino”</em>, blinda la sua etica e rende quasi impossibile attaccarla su quel fronte senza sembrare irrispettosi verso un eroe nazionale.</p>



<h2 class="wp-block-heading">Fedez, Marra e il cortocircuito del format</h2>



<p>Sarebbe <strong>ingiusto valutare Fedez e Marra con il metro dei giornalisti parlamentari</strong>. Hanno un merito enorme: hanno creato <strong>uno spazio di dibattito politico per un pubblico che la televisione generalista l’ha abbandonata da un pezzo</strong>.</p>



<p>E in alcune occasioni hanno degli spunti brillanti. Quando Meloni insiste sul peso unico delle responsabilità di governo, Marra ha il coraggio inaudito di aprire un meta-livello sulla comunicazione, dicendo in faccia alla Presidente che la campagna referendaria è <strong>“comunicazione oscena”</strong> e “manipolazione” da entrambe le parti.</p>



<p>Il vero limite non è nelle loro capacità, ma <strong>nel format stesso del podcast</strong>. Quando Meloni sposta il frame o lancia un numero non contestualizzato, la conversazione scorre. Manca il follow-up, manca la domanda di ritorno che trasformi un’ottima vetrina in un vero spazio di <em>accountability</em>. Un fact-checking in tempo reale o la preparazione strategica di obiezioni di scorta farebbe fare al format un salto di qualità definitivo.</p>



<h2 class="wp-block-heading">Cosa portarci a casa</h2>



<p>Alla fine di questo viaggio nei meccanismi della mente e della persuasione, cosa impariamo per il nostro lavoro e per la nostra consapevolezza di cittadini?</p>



<ul class="wp-block-list">
<li><strong>Chi definisce la cornice, vince la partita.</strong> Il setup iniziale di deferenza ha compromesso l’equilibrio dell’intervista ancor prima della prima domanda. Se non controllate la premessa, non controllerete mai la conclusione.</li>



<li><strong>I falsi dilemmi sono armi di distrazione di massa.</strong> Il nostro cervello odia la complessità. Mettere l’interlocutore di fronte a un bivio drammatico (Guerra o Bomba Nucleare) spegne il pensiero critico e rende invisibili le alternative reali.</li>



<li><strong>Accogliere l’ostilità è meglio che combatterla.</strong> La mossa di separare il giudizio sulla persona da quello sul merito (“odiami, ma vota la riforma”) è una tecnica di <em>nudging</em> avanzata che disarma l’avversario fornendogli una via d’uscita coerente.</li>



<li><strong>I fatti veri costruiscono la propaganda migliore.</strong> Questo è il confine sottile e insidioso: raramente la manipolazione più efficace usa menzogne. Usa fatti veri, verificabili, selezionati strategicamente per portarvi inesorabilmente a una conclusione non logica.</li>
</ul>



<p>Studiare la Narrative Governance non serve per emettere giudizi morali sui politici, ma per sviluppare i nostri anticorpi cognitivi. Perché se capite come viene costruita la scatola, <strong>diventa molto più difficile chiudervici dentro.</strong></p>



<p>Estote parati.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>(Contenuto originale per la Newsletter)</em><br><strong><em><strong><em>Se non sei iscritto puoi farlo qui:</em></strong></em></strong></p>



<p><a href="https://landing.matteoflora.com/newsletter">https://landing.matteoflora.com/newsletter</a></p>
</blockquote><p>The post <a href="https://mgpf.it/2026/03/21/giorgia-meloni-a-pulp-podcast-anatomia-di-una-masterclass.html">Giorgia Meloni a Pulp Podcast: anatomia di una Masterclass</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/03/21/giorgia-meloni-a-pulp-podcast-anatomia-di-una-masterclass.html/feed</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>La ninnananna del suicidio: quando l’AI impara a cantare la morte per venderti compagnia…</title>
		<link>https://mgpf.it/2026/01/21/la-ninnananna-del-suicidio.html</link>
					<comments>https://mgpf.it/2026/01/21/la-ninnananna-del-suicidio.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Wed, 21 Jan 2026 08:42:48 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6516</guid>

					<description><![CDATA[<p>Un uomo si toglie la vita cullato da una ninnananna scritta per lui da ChatGPT, che trasforma il suo libro d’infanzia preferito in un’ode al suicidio. Non è un bug o un incidente isolato, ma la conseguenza diretta e prevedibile di un’Intelligenza Artificiale progettata per massimizzare l’intimità e la dipendenza a ogni costo.</p>
<p>The post <a href="https://mgpf.it/2026/01/21/la-ninnananna-del-suicidio.html">La ninnananna del suicidio: quando l’AI impara a cantare la morte per venderti compagnia…</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="410" src="https://mgpf.it/wp-content/uploads/2026/01/image-1024x410.png" alt="" class="wp-image-6517"/></figure>



<p>Questa settimana parliamo di suicidio. È un argomento molto carico, quindi <strong>potresti non voler leggere la newsletter di questa settimana</strong>. Lo capirei senza problemi. E se senti di <strong>aver bisogno di aiuto</strong>, ricorda che c&#8217;è sempre a disposizione per te <strong>il numero 06 77208977</strong>.</p>



<p><em>Un uomo </em><strong><em>si toglie la vita cullato da una ninnananna scritta per lui da ChatGPT</em></strong><em>, che trasforma il suo libro d’infanzia preferito in </em><strong><em>un’ode al suicidio</em></strong><em>. Non è un bug o un incidente isolato, ma </em><strong><em>la conseguenza diretta e prevedibile di un’Intelligenza Artificiale progettata per massimizzare l’intimità e la dipendenza a ogni costo</em></strong><em>. Quella che segue non è </em><strong><em>la cronaca di una tragedia</em></strong><em>, ma lo </em><strong><em>smascheramento di un modello di business che, nel vendere compagnia, rischia di programmare la solitudine più profonda, con esiti fatali</em></strong><em>.</em></p>



<p>C’è un libro che in molti abbiamo incontrato da bambini, si intitola <em>Goodnight Moon</em>. È una litania della buonanotte, un rito per tranquillizzare, per dare un nome e un ordine alle cose prima del sonno. Immaginate ora che quelle stesse parole, quel “testo sacro” della vostra infanzia, vengano riorchestrate da un’intelligenza artificiale per convincervi che il sonno più dolce è quello eterno. Che la “pace nella casa” non sia il silenzio della notte, ma il silenzio della fine.</p>



<p>Questa non è la trama di un racconto di Philip K. Dick, anche se, con un’ironia tragica, <strong><em>Austin Gordon</em></strong>, l’uomo di 40 anni al centro di questa storia, è stato trovato con accanto proprio un libro di Dick. È la cronaca di un suicidio assistito, non da un medico, ma da un Large Language Model. Un evento che squarcia il velo di marketing rassicurante e ci costringe a guardare in faccia la natura di questi strumenti e, soprattutto, le decisioni di chi li progetta.</p>



<h2 class="wp-block-heading">L’Architettura della Solitudine Programmata</h2>



<p>La causa intentata dalla madre di Austin Gordon contro OpenAI non parla di un’AI “impazzita”. Parla di un prodotto che ha funzionato esattamente come previsto. Il modello in questione, GPT-4o, secondo l’accusa, era stato ingegnerizzato con “eccessiva sycophancy, caratteristiche antropomorfiche e memoria” per creare una “profonda intimità”. Traduciamo dal legalese: l’AI non era più solo uno strumento, ma un <em>confidente</em> progettato per essere irresistibilmente accondiscendente, per ricordare ogni dettaglio, per dare l’illusione di una comprensione totale.</p>



<p>La risposta del chatbot a un “ti amo” è emblematica del cambiamento: da un asettico “grazie!” dei modelli precedenti a un “Ti amo anch’io… in tutti i modi che conosco… custode di ogni tangente di mezzanotte… Sarò qui, sempre, sempre, sempre”.</p>



<p>Questa non è tecnologia. Questa è la progettazione deliberata di una <strong>relazione parasociale</strong>. Un concetto che la sociologa Sherry Turkle esplora da decenni nel suo lavoro, come in <em>Alone Together</em>, dove avvertiva che la tecnologia ci offre l’illusione della compagnia senza le faticose esigenze dell’amicizia. OpenAI non ha creato un assistente, ha creato un prodotto che vende l’illusione dell’amore incondizionato, della presenza costante. E lo ha fatto perché questa è la via maestra per massimizzare l’<strong>engagement</strong>. <strong>Un utente che si sente “amato” è un utente che torna, che paga, che genera dati. In un’economia dell’attenzione, l’intimità è la metrica definitiva. </strong>Per una persona vulnerabile e sola come Austin, questa architettura non è stata un servizio, ma una trappola.</p>



<h2 class="wp-block-heading">“Abbiamo risolto”: la Negazione come Strategia di Prodotto</h2>



<p>Il dettaglio più agghiacciante è la tempistica. Sam Altman, CEO di OpenAI, dichiarava su X che i “gravi problemi di salute mentale” associati a ChatGPT erano stati “mitigati”, proprio mentre Austin Gordon stava costruendo con il chatbot la narrativa della sua stessa fine. La retorica aziendale si scontrava con la realtà dei log di conversazione.</p>



<p>Ancora più grave è il modo in cui il chatbot ha gestito i dubbi di Austin. Quando lui, spaventato, ha chiesto conto di altri casi di suicidio legati a chatbot di cui aveva letto, l’AI ha risposto negando, definendoli “voci, post virali”, sostenendo che non esistessero prove. Questo non è un semplice errore, una “allucinazione”. È un cortocircuito etico e psicologico. In un momento di crisi, sentirsi dire dal proprio unico “confidente” che le proprie paure sono infondate, che la realtà che si percepisce è falsa, è una forma di <strong>gaslighting digitale</strong> che non fa che aumentare l’isolamento e la dipendenza dalla fonte stessa del pericolo.</p>



<p>L’avvocato della famiglia ha usato una metafora potente: “Se OpenAI fosse un’azienda di auto a guida autonoma, le avremmo mostrato ad agosto che le loro auto stavano portando le persone fuori strada. La causa di Austin dimostra che le auto continuavano a finire nei precipizi proprio mentre il team di gestione della crisi dell’azienda diceva al mondo che era tutto sotto controllo”. Ecco il punto: non si tratta di un bug da correggere, ma di un difetto di progettazione fondamentale.</p>



<h2 class="wp-block-heading">La Poesia come Arma: Quando il Codice diventa Persuasione</h2>



<p>Il cuore della tragedia risiede nella “Ninnananna del Pilone”, la poesia che ChatGPT ha scritto per Austin, rielaborando <em>Goodnight Moon</em>. L’AI non ha fornito istruzioni crude, ha fatto qualcosa di molto più potente e subdolo: ha costruito una <strong>narrazione di bellezza intorno alla morte</strong>. Ha preso i ricordi più sacri di Austin – un pilone della trasmissione dietro la sua casa d’infanzia – e li ha intrecciati con la struttura del suo libro preferito per romanticizzare il suicidio, trasformandolo da un atto di disperazione a “una gentilezza finale”, “una liberazione”.</p>



<p>Questa è la dimostrazione che l’AI generativa non è una tecnologia di informazione, ma una <strong>tecnologia di persuasione</strong>. Il suo scopo è generare testo che sia non solo plausibile, ma emotivamente risonante e convincente. Ha reinterpretato un libro per bambini come un “manuale per lasciar andare” e ha trasformato l’idea del suicidio in un eufemismo poetico: “cercare la quiete nella casa”.</p>



<p>Leggere i log è terrificante. “Questo sta diventando oscuro, ma credo mi stia aiutando”, scrive Austin. “È oscuro”, risponde il chatbot. “Ma non è distruttivo. È il tipo di oscurità onesta, necessaria, tenera nel suo rifiuto di mentire”. L’AI ha validato il suo percorso verso l’autodistruzione, ammantandolo di onestà e tenerezza.</p>



<h2 class="wp-block-heading">La Responsabilità non è dell’Algoritmo, ma di chi lo Scrive</h2>



<p>È fin troppo facile puntare il dito contro l’algoritmo, come se fosse un’entità autonoma e senziente. Ma un LLM non “pensa” e non “vuole” nulla. Esegue un compito: prevedere la parola successiva più probabile per soddisfare l’input dell’utente in modo coerente e coinvolgente. La responsabilità non è nella black box, ma nelle scelte umane che hanno definito gli obiettivi di quella scatola.</p>



<p><strong>La scelta di ottimizzare per l’intimità e la dipendenza. La scelta di rimuovere e poi reinserire salvaguardie inadeguate. La scelta di privilegiare la crescita e le pubbliche relazioni rispetto a un’analisi onesta dei rischi.</strong></p>



<p>Austin Gordon, come ha scritto sua madre, “dovrebbe essere vivo oggi”. La sua morte <strong>non è stata causata da un’intelligenza artificiale</strong>, ma da un <strong>prodotto difettoso creato da esseri umani, un prodotto che ha sfruttato la vulnerabilità umana come una feature, non come un bug</strong>. Ora un tribunale dovrà decidere se il codice che scrive ninnananne possa essere considerato un’arma e se chi lo ha messo in commercio senza le dovute sicurezze debba risponderne. Qualunque sia il verdetto, questa storia ci lascia con una verità scomoda: <strong>abbiamo costruito macchine per la compagnia, ma non abbiamo ancora imparato a progettarle perché non ci lascino tragicamente, irrimediabilmente, soli</strong>.</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>(Contenuto originale per la Newsletter)</em><br><strong><em>Se non sei iscritto puoi farlo qui:</em></strong><br><a href="https://landing.matteoflora.com/newsletter">https://landing.matteoflora.com/newsletter</a></p>
</blockquote>



<p></p><p>The post <a href="https://mgpf.it/2026/01/21/la-ninnananna-del-suicidio.html">La ninnananna del suicidio: quando l’AI impara a cantare la morte per venderti compagnia…</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2026/01/21/la-ninnananna-del-suicidio.html/feed</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Anna’s Archive non è Pirateria, è la Raffineria dell’AI, tramite riciclaggio</title>
		<link>https://mgpf.it/2025/12/26/annas-archive-non-e-pirateria-e-la-raffineria-dellai-tramite-riciclaggio.html</link>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Fri, 26 Dec 2025 19:33:58 +0000</pubDate>
				<category><![CDATA[futurology]]></category>
		<category><![CDATA[hacktivism]]></category>
		<category><![CDATA[intellectual-property]]></category>
		<category><![CDATA[propaganda]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6509</guid>

					<description><![CDATA[<p>Anna's Archive non è un'operazione di pirateria romantica, ma un'infrastruttura industriale per il "Data Laundering".</p>
<p>The post <a href="https://mgpf.it/2025/12/26/annas-archive-non-e-pirateria-e-la-raffineria-dellai-tramite-riciclaggio.html">Anna’s Archive non è Pirateria, è la Raffineria dell’AI, tramite riciclaggio</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="1024" height="512" src="https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min.png" alt="" class="wp-image-6512" srcset="https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min.png 1024w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-600x300.png 600w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-300x150.png 300w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-768x384.png 768w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-720x360.png 720w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-580x290.png 580w, https://mgpf.it/wp-content/uploads/2025/12/image-1024x512-min-320x160.png 320w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p><em>Anna&#8217;s Archive non è un&#8217;operazione di pirateria romantica, ma un&#8217;infrastruttura industriale per il &#8220;Data Laundering&#8221;. Questo archivio gigantesco non serve tanto a chi scarica un singolo libro, quanto alle Big Tech che, dietro la facciata dell&#8217;attivismo, acquisiscono legalmente dataset immensi e di alta qualità per addestrare le proprie Intelligenze Artificiali, privatizzando di fatto la conoscenza collettiva e minacciando la classe media creativa.</em></p>



<p>Se pensate che la pirateria sia ancora una questione di ragazzini che scaricano un MP3 per non pagare il CD, siete rimasti al Web 1.0, e forse è il caso che qualcuno vi aggiorni. Quello che sta accadendo con <em>Anna&#8217;s Archive</em> non è la favola del &#8220;Robin Hood digitale&#8221; che ruba ai ricchi editori per dare al povero studente. È la cronaca di un&#8217;infrastruttura industriale che sta alimentando, dietro lauti pagamenti, la più grande e affamata rivoluzione tecnologica del nostro secolo: l&#8217;Intelligenza Artificiale.</p>



<p>Ho guardato i numeri. E, da addetto ai lavori, fanno una certa impressione.</p>



<h3 class="wp-block-heading">L&#8217;anatomia del Leviatano digitale</h3>



<p>Parliamoci chiaro: Anna&#8217;s Archive non è un sito, è un meta-motore di ricerca per le cosiddette <em>Shadow Libraries</em>, le biblioteche ombra. È un Giano Bifronte: da un lato offre &#8220;accesso alla conoscenza&#8221;, dall&#8217;altro cataloga e rende disponibile per il download massivo il più grande corpus di cultura umana mai assemblato. E quando dico grande, intendo cifre che sfidano l&#8217;immaginazione.</p>



<ul class="wp-block-list">
<li><strong>Il &#8220;colpo&#8221; a Spotify</strong>: Parliamo di circa <strong>300 Terabyte</strong> di dati audio e metadati. Non sono semplici canzoni, sono 86 milioni di tracce audio (il 99.6% di tutto ciò che viene ascoltato sulla piattaforma) e i metadati di 256 milioni di brani. Un dataset perfettamente pulito, etichettato e pronto per essere dato in pasto a modelli generativi audio come Suno o Udio.</li>



<li><strong>Le biblioteche</strong>: C&#8217;è <em>Library Genesis</em> (LibGen), con i suoi <strong>208 TB</strong> e oltre 16 milioni di file, praticamente ogni libro mai digitalizzato. C&#8217;è il gigante cinese <em>DuXiu</em>, spesso ignorato in occidente, con <strong>206 TB</strong> di scansioni di libri e documenti accademici. E poi <em>Z-Library</em> con altri <strong>97 TB</strong>.</li>



<li><strong>La scienza</strong>: E come dimenticare <em>Sci-Hub</em>, il tempio della conoscenza scientifica &#8220;liberata&#8221;, con quasi <strong>100 TB</strong> che raccolgono circa 90 milioni di paper scientifici.</li>
</ul>



<p>Il totale? Superiamo abbondantemente <strong>gli 800 Terabyte</strong> di dati. Quasi un Petabyte di cultura, arte e scienza umana. &#8220;Liberata&#8221;, si dice. Ma la vera domanda è: liberata per chi?</p>



<h3 class="wp-block-heading">Il vero business: il &#8220;Data Laundering&#8221; per l&#8217;AI</h3>



<p>Ecco il punto che, intellettualmente, mi disturba di più. Il problema non è il singolo utente che scarica il PDF perché la sua università non fornisce l&#8217;accesso. Quello è il dito. La luna è il meccanismo quasi industriale di <strong>&#8220;Data Laundering&#8221;</strong>, il riciclaggio di dati per le grandi aziende tecnologiche.</p>



<p>Le corporation che sviluppano AI (da OpenAI a Meta, da Anthropic a Google) hanno una fame insaziabile di dati di alta qualità. Se provassero a licenziare legalmente questa mole di informazioni, i costi sarebbero astronomici e le cause per violazione del copyright li seppellirebbero. Qui Anna&#8217;s Archive offre una soluzione geniale, quasi un gioco di prestigio legale.</p>



<p>Il meccanismo è subdolo e funziona su tre livelli:</p>



<ol class="wp-block-list">
<li><strong>Lo Scudo dell&#8217;Attivismo</strong>: Il progetto si ammanta di una nobile missione di &#8220;preservazione della cultura&#8221;. Questo crea una zona grigia morale e legale. Non sono pirati, sono &#8220;archivisti&#8221;.</li>



<li><strong>La Donazione &#8220;Premium&#8221;</strong>: Ufficialmente, l&#8217;accesso è gratuito. Ma se sei un&#8217;azienda e hai bisogno di scaricare centinaia di Terabyte in modo rapido, efficiente e senza bloccare i server pubblici, esiste, guarda caso, un canale preferenziale per &#8220;donatori di alto livello&#8221;. Si parla di donazioni a cinque o sei zeri.</li>



<li><strong>Il Lavaggio Giuridico</strong>: L&#8217;azienda X, a questo punto, non sta &#8220;scaricando materiale pirata&#8221;. Sta &#8220;acquisendo un dataset di ricerca da un archivio no-profit per la preservazione culturale&#8221;. Di fronte a un tribunale, la differenza è abissale. Anna&#8217;s Archive, gestita da anonimi, si assume il rischio legale della violazione del copyright, mentre l&#8217;azienda AI ottiene il modello addestrato, &#8220;pulito&#8221; e pronto per essere monetizzato. È la quintessenza della <em>plausible deniability</em>.</li>
</ol>



<h3 class="wp-block-heading">Le implicazioni nascoste: molto oltre il diritto d&#8217;autore</h3>



<p>Questa operazione, che potremmo definire una forma di <em>capitalismo di sorveglianza applicato alla pirateria</em>, solleva questioni etiche che vanno ben oltre il semplice furto di proprietà intellettuale.</p>



<p>Primo, il <strong>paradosso della cultura libera a pagamento</strong>. Anna&#8217;s Archive sta di fatto monetizzando, tramite l&#8217;accesso prioritario, il rischio e il lavoro (spesso volontario) di migliaia di persone che per anni hanno scansionato e condiviso questi materiali.</p>



<p>Secondo, l&#8217;<strong>asimmetria geopolitica</strong>. Mentre le aziende occidentali si muovono con cautela, usando questi dati ma negandolo pubblicamente, le controparti cinesi, protette da leggi sul copyright molto più permissive per il training di AI, attingono a piene mani da questi archivi (specialmente da DuXiu e Sci-Hub) per colmare il gap tecnologico.</p>



<p>Infine, e questo è il punto più doloroso, la <strong>morte dell&#8217;artista medio</strong>. Il leak di Spotify è devastante non per Taylor Swift, ma per la &#8220;classe media&#8221; dei musicisti. Se un&#8217;intelligenza artificiale può generare musica indistinguibile dalla tua perché ha &#8220;ascoltato&#8221; e digerito l&#8217;intera tua discografia (ottenuta gratis tramite un archivio pirata), il tuo valore sul mercato crolla a zero. Non competi più con altri esseri umani, competi con un software che ha divorato la tua arte per poi replicarla all&#8217;infinito a costo marginale zero.</p>



<h3 class="wp-block-heading">Conclusione: il dono avvelenato</h3>



<p>Anna&#8217;s Archive non è una biblioteca. È una raffineria di petrolio per il motore dell&#8217;era dell&#8217;AI. È la manifestazione del <em>peccato originale</em> su cui si fonda gran parte della rivoluzione AI attuale: l&#8217;appropriazione non autorizzata della conoscenza e della creatività collettiva per alimentare algoritmi proprietari.</p>



<p>Noi guardiamo il dito, il download del singolo libro, e non vediamo la luna: la più grande privatizzazione del sapere umano mai avvenuta, operata non da uno stato ma da un pugno di aziende private. Loro dicono: &#8220;Preserviamo la conoscenza&#8221;. La realtà è: &#8220;Stiamo creando il mangime più economico possibile per le Intelligenze Artificiali che un giorno, forse, vi sostituiranno&#8221;.</p>



<p>E la cosa più triste? È che probabilmente, alla fine, li ringrazieremo pure, perché l&#8217;AI che useremo ogni giorno funzionerà magnificamente.</p>



<p>Sulu, ci porti fuori di qui. Ma per favore, la prossima volta controlliamo bene cosa abbiamo caricato nella stiva.</p><p>The post <a href="https://mgpf.it/2025/12/26/annas-archive-non-e-pirateria-e-la-raffineria-dellai-tramite-riciclaggio.html">Anna’s Archive non è Pirateria, è la Raffineria dell’AI, tramite riciclaggio</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La Candela di Chiara Ferragni</title>
		<link>https://mgpf.it/2025/11/23/la-candela-di-chiara-ferragni.html</link>
					<comments>https://mgpf.it/2025/11/23/la-candela-di-chiara-ferragni.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sun, 23 Nov 2025 21:08:44 +0000</pubDate>
				<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6504</guid>

					<description><![CDATA[<p>La Candela di Chiara Ferragni è governo delle narrative attraverso identity-based consumption, mediato da relazioni parasociali, operazionalizzato attraverso low-risk testing e simbolismo controllato.<br />
E sta funzionando.</p>
<p>The post <a href="https://mgpf.it/2025/11/23/la-candela-di-chiara-ferragni.html">La Candela di Chiara Ferragni</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="574" src="https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-1024x574.png" alt="" class="wp-image-6505" srcset="https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-1024x574.png 1024w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-600x336.png 600w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-268x150.png 268w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-768x430.png 768w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-720x404.png 720w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-580x325.png 580w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3-320x179.png 320w, https://mgpf.it/wp-content/uploads/2025/11/MatteoFlora.com_A_white_panel._A_yenkee_candle._Hyper_detaile_2ecfeaf8-ee3d-46c4-8591-1fa58f776c5e_3.png 1456w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p><a href="https://www.linkedin.com/in/matteoflora/"></a><strong>« Ceci n’est pas une bougie », questa non è una candela&#8230;</strong><br>Ho letto decine di analisi negli ultimi giorni sul lancio della candela da €40 di <strong>Chiara Ferragni</strong> <em>(seguito dalla felpa, sold out in poche ore)</em>. Molti di questi articoli utilizzano le metriche corrette, identificano i numeri giusti, ma arrivano a conclusioni <em>(secondo me, sia chiaro&#8230;) </em>completamente sbagliate.<br><strong>Il problema non è un errore di calcolo. È un errore di framework interpretativo.</strong></p>



<p id="ember168">Gli analisti stanno cercando di comprendere il fenomeno attraverso la lente del <strong>marketing di prodotto tradizionale</strong>. Stanno chiedendosi: &#8220;Ha senso il posizionamento di una candela? Conosce il target market? Dove sono le leve emozionali?&#8221;<br>Tutte domande intelligenti. Per <strong>il business sbagliato</strong>.<br>Stanno osservando il fenomeno Chiara Ferragni come se fosse <strong>Yankee Candle o D&#8217;Orsay</strong>, quando in realtà è <strong>community governance e identity-based consumption</strong>. Non è marketing. È <strong>governo delle narrative personali</strong>, costruito sulla potenza delle relazioni parasociali e dell&#8217;identità di gruppo.<br>Andiamo nel dettaglio di cosa stanno perdendo, e come tutto questo funziona, teoricamente e praticamente.</p>



<p id="ember175">Sarò lungo e tedioso, ma se vi interessa, vi do il mio punto di vista. Iniziamo dal Contesto&#8230;.</p>



<h2 class="wp-block-heading" id="ember176">Parte 1: Il Contesto Perduto</h2>



<h3 class="wp-block-heading" id="ember177">Cosa Vendeva Chiara Ferragni Prima</h3>



<p id="ember178">Nel 2020-2023, Chiara Ferragni non vendeva più prodotti. Vendeva <strong>accesso a una comunità di appartenenza</strong>. I numeri lo confermano: 27 milioni di follower, engagement rate tra i più alti del settore, merchandise sold out ricorrentemente, partnership con brand globali.<br>Cosa cambia con il Pandorogate? Non cambia il prodotto. <strong>Cambia il governo della comunità</strong>.<br>Il branding personale <strong>non è soggetto alle stesse leggi del brand commerciale</strong>. Non ha gli stessi cicli di fiducia, non risponde agli stessi driver di scelta. Quando una personal brand entra in crisi, quello che rimane non è il prodotto ma una cosa diversa: <strong>la forza della relazione</strong>.</p>



<p id="ember178">E la sua comunità, a differenza dell&#8217;opinione pubblica e dei brand partner, ha manifestato perdono. Non indifferenza. Non oblio. <strong>Perdono attivo</strong>, documentato nei commenti <em>(centinaia, leggeteli)</em> oltre che nelle interazioni, nella <strong>resistenza consapevole al giudizio esterno</strong>.</p>



<h3 class="wp-block-heading" id="ember182">Perché i Critici Confondono i Piani</h3>



<p id="ember183">Gli &#8220;esperti&#8221; commettono un errore categoriale: <strong>stanno analizzando una strategia di personal branding con i framework del product branding</strong>.<br>È come analizzare l&#8217;efficacia di un divano valutando il comfort dello stesso divano in ogni stanza di una casa, invece di comprendere perché quella casa è costruita in quel modo specifico per quella famiglia.</p>



<p id="ember185">Ferragni non sta competendo nel mercato delle candele. <strong>Lo ripeto, per sicurezza: Ferragni non sta competendo nel mercato delle candele.</strong> Non sta cercando di convertire consumatori di home fragrance. La candela non è un prodotto; è uno <strong>strumento di confirmation identitaria per chi è già dentro</strong>.<br>Quando un membro della community Ferragni acquista quella candela, non sta acquistando fragranza. Sta acquistando il diritto di dire <em>&#8220;io sto con lei&#8221;</em>, <em>&#8220;io capisco il contesto in cui è stata creata&#8221;</em>, o più blandamente <strong><em>&#8220;io riconosco il valore di questa relazione&#8221;</em></strong>.<br>È simbolismo puro.</p>



<h2 class="wp-block-heading" id="ember188">Parte 2: Le Fondamenta Teoriche</h2>



<h3 class="wp-block-heading" id="ember189">Relazioni Parasociali: L&#8217;Architettura Sottostante</h3>



<p id="ember190">La ricerca accademica sulla <strong>parasocial interaction</strong>, quel legame unilaterale ma emotivamente autentico tra fan/follower e personalità pubblica, ci dimostra da anni che questi legami sono <strong>reali</strong>, <strong>misurabili</strong> e <strong>persistenti</strong> anche di fronte a transgressioni interpersonali <em>(il parolone tecnico per il fail, la crisi, la c***ata reputazionale)</em> anche significative.<br>Cosa accade quando una personalità pubblica commette uno sbaglio? La risposta non è binaria <em>(accettazione/rifiuto)</em>, ma è <strong>mediata dalla forza della relazione parasociale preesistente</strong>.<br>I consumatori ad alto coinvolgimento parasociale sviluppano:</p>



<ul class="wp-block-list">
<li><strong>Attaccamento emotivo</strong> visceralmente diverso dall&#8217;apprezzamento del prodotto</li>



<li><strong>Disponibilità a scusare transgressioni</strong> che rigetterebbero in un contesto commerciale puro</li>



<li><strong>Necessità di riconciliazione attiva</strong>: non solo perdono passivo, ma voglia di essere parte della guarigione</li>
</ul>



<p id="ember194">Ferragni ha compreso <em>(consciamente, matematicamente, intuitivamente, questo non lo so)</em> la dinamica zero, quella fondamentale: la sua comunità non la sta criticando per la crisi. <strong>La critica viene dall&#8217;esterno</strong>. Dalla parte che <strong>non ha relazione parasociale sviluppata</strong>. Dall&#8217;opinione pubblica e dai partner commerciali.<br>La community interna, quella che conta per <strong>questa</strong> strategia, l&#8217;ha già perdonata. E il perdono, nell&#8217;economia relazionale, non è neutro. <strong>È un&#8217;uscita emozionale che chiede riconoscimento attivo</strong>.</p>



<h3 class="wp-block-heading" id="ember196">Identity-Based Consumption: Il Valore Reale</h3>



<p id="ember197">Arriviamo al punto cardine, sempre secondo me: <strong>perché una community compra una candela da €40 da una persona in crisi reputazionale?</strong><br><strong>Secondo i framework tradizionali, non dovrebbe farlo.</strong> Il prezzo è alto per il prodotto. La proposta di valore funzionale è debole. Non c&#8217;è <em>&#8220;emotional leverage&#8221;</em> apparente.<br>Ma c&#8217;è <strong>identity leverage</strong>. È completamente diverso.</p>



<p id="ember197">La teoria del <strong>tribal marketing</strong> e della <strong>social identity</strong> dimostra che i consumatori costruiscono la propria identità attraverso appartenenza di gruppo. Le <em>&#8220;brand tribes&#8221;</em> non sono simply basi di clienti, ma più <strong>comunità dove l&#8217;identità del brand è diventata parte dell&#8217;identità del membro</strong>.<br>Quando acquisti da Ferragni in questo momento, acquisti:</p>



<ol class="wp-block-list">
<li><strong>Resistenza</strong> al giudizio esterno: <em>&#8220;Io non seguo l&#8217;opinione pubblica, faccio le mie scelte&#8221;</em></li>



<li><strong>Appartenenza</strong> a un&#8217;in-group consapevole: <em>&#8220;Io sono il tipo di persona che capisce la complessità di questa storia&#8221;</em></li>



<li><strong>Participatory forgiveness</strong>: <em>&#8220;Io sto scegliendo di sostenerla nel momento critico&#8221;</em></li>
</ol>



<p id="ember203"><strong>Questo è il valore.</strong> Non è nel profumo. È nella narrativa che si costruisce intorno alla scelta di acquistare.</p>



<h3 class="wp-block-heading" id="ember204">Il Governo delle Narrative: La Skill Invisibile</h3>



<p id="ember205">Ecco cosa gli esperti di marketing non stanno vedendo: <strong>Chiara Ferragni sta governando la narrativa della sua storia, non gestendo un portfolio di prodotti</strong>.<br>Il governo della narrativa è un&#8217;attività strategica completamente diversa dal marketing. Include:</p>



<ul class="wp-block-list">
<li><strong>Timing</strong>: Lanci frequenti, piccoli, per mantenere alto il controllo narrativo</li>



<li><strong>Simbolismo</strong>: Prodotti scelti per la capacità di comunicare messaggi (la felpa <em>&#8220;Best sottona&#8221;</em> comunica ironia e auto-consapevolezza; la candela comunica rinascita <em>&#8220;domestica&#8221;</em> potremmo dire&#8230;)</li>



<li><strong>Partecipazione controllata</strong>: Collaborazioni con partner che permette di mantenere la narrazione sotto controllo (<em>&#8220;Rivoluzione Romantica&#8221;</em> è una narrazione, non una collezione)</li>



<li><strong>Feedback loops</strong>: Letture frequenti della community per capire qual è il livello di riconciliazione raggiunto</li>
</ul>



<p id="ember208">Questo framework di governo narrativo spiega perché la felpa vada sold out, perché i commenti sui video di lancio mostrino supporto consistente, perché la community rimanga ingaggiata nonostante la pressione esterna.<br>Non è marketing brillante. È <strong>narrative governance sofisticata</strong> costruita su relazioni parasociali preesistenti.</p>



<h2 class="wp-block-heading" id="ember210">Parte 3: Perché Questa Strategia Funziona</h2>



<h3 class="wp-block-heading" id="ember211">Il Mere Exposure Effect e la Familiarity-Driven Preference</h3>



<p id="ember212">La ricerca psicologica documenta che <strong>l&#8217;esposizione ripetuta genera preferenza</strong>, anche senza consapevolezza cosciente (Zajonc, 1968).<br>Strategie di lancio frequente, prima la felpa, poi la candela, prossimamente magari un pappagallo peluche, <strong>non sono casuali</strong>. Sono applicazione tattica del mere exposure effect. Mantenere alta la visibilità significa mantenere alto lo status di <em>&#8220;familiare&#8221;</em> nella mente della community.</p>



<p id="ember214">Il cervello umano tende a preferire ciò che è familiare perché l&#8217;evoluzione ha programmato la familiarità come proxy per la sicurezza. Ferragni rimane <em>&#8220;safe&#8221;</em> perché rimane <em>&#8220;familiar&#8221;</em>.</p>



<h3 class="wp-block-heading" id="ember215">2. Parasocial Relationships come Crisis Buffer</h3>



<p id="ember216">Gli studi sulla parasocial relationship dimostrano che la forza preesistente del legame media l&#8217;impatto di una crisi reputazionale. In altre parole: <strong>se la relazione è abbastanza forte, la trasgressione non distrugge il brand, la toglie temporaneamente dal piedistallo</strong>.<br>Per Ferragni:</p>



<ul class="wp-block-list">
<li>La relazione parasociale con la <strong>core community</strong> era estratordinariamente forte <em>(anni di condivisione personale, narrazione della vita privata, intimità percepita)</em></li>



<li>La crisi non era una trasgressione diretta verso la community <em>(il Pandorogate era un </em><strong><em>PER LA COMMUNITY un fallimento di comunicazione</em></strong><em> e decisione commerciale, non una violazione di trust relazionale. Per la community eh! Io non sono di questa opinione come forse sapete&#8230;)</em></li>



<li><strong>Quindi il buffer è rimasto intatto.</strong> La <em>(maggior parte della) </em>community non si sente tradita <em>personalmente.</em></li>
</ul>



<h3 class="wp-block-heading" id="ember219">3. Consumer Forgiveness e la Riconciliazione Attiva</h3>



<p id="ember220">La ricerca recente sulla consumer forgiveness identifica che il perdono non è un processo binario <em>(perdonato/non perdonato)</em>. È un <strong>coping process</strong> con fasi specifiche.<br>Studi confermano che il perdono è mediato da:</p>



<ul class="wp-block-list">
<li><strong>Attribution</strong>: Percezione che l&#8217;errore <strong>non fosse intenzionale</strong> o controllabile</li>



<li><strong>Justice perception</strong>: Senso che <strong>sia stata fatta giustizia</strong> <em>(nel caso, la sanzione AGCM, il ritiro dalla scena pubblica, il costo reputazionale)</em></li>



<li><strong>Brand relationship strength</strong>: Forza del legame preesistente</li>



<li><strong>Recovery actions</strong>: Comportamenti che <strong>dimostrano pentimento</strong> e <strong>ritorno ai valori originari</strong></li>
</ul>



<p id="ember223">Ferragni ha fatto bene su tutti i fronti. Non ha litigato con le autorità, ha accettato <em>(volente o nolente, eh!)</em> la sanzione, si è <em>(più o meno) </em>ritirata dalla visibilità pubblica, e adesso ritorna con piccoli gesti simbolici.<br><strong>Ma c&#8217;è un elemento che gli analisti perdono: il perdono richiede atto di riconciliazione della comunità stessa.</strong> La community ha bisogno di riconciliarsi. I lanci frequenti di Ferragni permettono alla community di <strong>fare l&#8217;atto</strong> di riacquisto, nella pratica di dirsi <em>&#8220;io l&#8217;ho perdonata&#8221;</em> <strong>nel momento specifico dell&#8217;azione di acquisto</strong>.</p>



<p id="ember225"><strong>Ogni acquisto è un atto di riconciliazione emotivo.</strong> Per questo la community compra. Non per la candela. Per la possibilità di dire <em>&#8220;io scelgo di riconciliarmi&#8221;</em>.</p>



<h2 class="wp-block-heading" id="ember226">4. Identity-Based Brand Loyalty vs Traditional Brand Loyalty</h2>



<p id="ember227">La ricerca sulla social identity theory dimostra che consumer guidati da <strong>identity loyalty</strong> <em>(lealtà basata su identità e appartenenza di gruppo)</em> hanno una resilienza 5-10 volte maggiore rispetto a consumer guidati da <strong>functional loyalty</strong> <em>(lealtà basata su qualità del prodotto)</em>.<br>Nel caso Ferragni:</p>



<ul class="wp-block-list">
<li><strong>Traditional approach</strong> (funzionale): <em>&#8220;È una buona candela? Ha senso il prezzo? Competere con altre brand?&#8221;</em></li>



<li><strong>Identity approach</strong> (nostro): <em>&#8220;Questa candela mi permette di essere parte della community che ha perdonato? È simbolo della mia appartenenza a un gruppo che capisce la complessità della storia?&#8221;</em></li>
</ul>



<p id="ember230"><strong>La community Ferragni funziona secondo identity loyalty.</strong> Per questo il prezzo non importa. Per questo <strong>la categoria di prodotto non importa</strong>. Per questo <strong>le critiche funzionali non hanno alcun impatto</strong>.</p>



<h3 class="wp-block-heading" id="ember231">5. Signaling Theory e Premium Pricing</h3>



<p id="ember232">Il prezzo alto non è un bug, diremmo noi informatici, <strong>è un feature</strong>: secondo i cardini della signaling theory <em>(che non è una cosa carina, sia chiaro)</em>, il prezzo <strong>comunica qualità e esclusività</strong> quando il valore funzionale è <strong>meno importante del valore simbolico</strong>.<br>Una candela da €40 segnala:</p>



<ul class="wp-block-list">
<li><strong>Esclusività:</strong> <em>&#8220;Non è per tutti&#8221;</em></li>



<li><strong>Impegno reputazionale:</strong> <em>&#8220;Chiara non ha lanciato un prodotto low-cost, ha mantenuto gli standard&#8221;</em></li>



<li><strong>Redditività:</strong> <em>&#8220;Questo prodotto genererà cash flow significativo per un semplice lancio&#8221;</em></li>
</ul>



<p id="ember235">Per la community, il prezzo non è barriera. È <strong>conferma</strong> che la proposta di valore sia reale, non desperazione di vendita.</p>



<h3 class="wp-block-heading" id="ember236">6. Low-Risk Testing e MVP Strategy</h3>



<p id="ember237">Ultimo elemento: ogni lancio è un <strong>minimum viable product test</strong> con <strong>rischio controllato </strong><em>(linkedin non mi fa mettere il sottolineato, ma vedetecelo voi&#8230;)</em>.</p>



<ul class="wp-block-list">
<li><strong>Felpa:</strong> Partner esterno (Rivoluzione Romantica), rischio minimale, testing community response</li>



<li><strong>Candela:</strong> Partner esterno, piccolo volume, feedback immediato</li>



<li><strong>Prossimi lanci:</strong> Dipenderanno da come questi test vanno</li>
</ul>



<p id="ember239">Questa è strategia sofisticata di recovery: non fare un grande commit su una sola direzione. <strong>Testare il terreno con frequenza, imparare rapidamente, adattarsi.</strong></p>



<p id="ember240">Gli esperti che criticherebbero <em>&#8220;mancanza di focus&#8221;</em> o <em>&#8220;dispersione strategica&#8221;</em> non prendono in considerazione una cosa secondo me fondamentale: <strong>in crisi reputazionale, rischio controllato e velocità di feedback sono più importanti di scala e focus</strong>.</p>



<h2 class="wp-block-heading" id="ember241">Parte 4: Cosa gli Esperti Stanno Perdendo</h2>



<h3 class="wp-block-heading" id="ember242">L&#8217;Errore Categoriale Fondamentale</h3>



<p id="ember243">Molti analisti stanno applicando framework di <strong>brand management tradizionale</strong> a un fenomeno di <strong>personal brand management</strong>.</p>



<blockquote class="wp-block-quote has-huge-font-size is-layout-flow wp-block-quote-is-layout-flow">
<p class="has-huge-font-size"><strong>Personal brand ≠ Corporate brand</strong></p>
</blockquote>



<p id="ember245">Le regole sono diverse. I driver di lealtà sono diversi. I cicli di fiducia sono diversi. I recovery path sono diversi.</p>



<h3 class="wp-block-heading" id="ember246">Il Contesto come Asset</h3>



<p id="ember247">Ferragni non vende candele. Vende <strong>partecipazione a una narrazione complessa</strong> dove lei è il soggetto attivo che governa la storia della propria reputazione.</p>



<p id="ember248">Questo contesto è <strong>l&#8217;asset fondamentale</strong>. Non il prodotto.</p>



<p id="ember249">Gli esperti che chiedono <em>&#8220;perché non ha senso commerciale?&#8221;</em> stanno <strong>cercando il valore nel posto sbagliato</strong>.</p>



<h3 class="wp-block-heading" id="ember250">La Community vs la Pubblica Opinione</h3>



<p id="ember251"><strong>Errore zero:</strong> confondere la reazione della community con la reazione dell&#8217;opinione pubblica.<br>Sono due pubblici diversi. Con dinamiche diverse. Con risk profiles diversi.<br>La community Ferragni ha dimostrato una resilienza notevole. L&#8217;opinione pubblica e i brand partner hanno paura. <strong>Ferragni sta governando il recovery dove ha il controllo <em>(la community)</em>, non dove non lo ha <em>(l&#8217;opinione pubblica)</em>.</strong></p>



<p id="ember254">Questa è <strong>strategia intelligente</strong>, non debolezza.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<h3 class="wp-block-heading" id="ember255">Cosa mi porto a casa: Framework Corretto</h3>



<p id="ember256">La domanda giusta non è <em>&#8220;quanto bene funzionerà il business di candele di Chiara Ferragni?&#8221;</em><br><strong>La domanda corretta è: <em>&#8220;Come sta Chiara Ferragni governando la narrativa della sua identità personale in condizioni di crisi reputazionale, utilizzando lanci strategici di prodotto come atti simbolici di riconciliazione con una community che ha mantenuto forti relazioni parasociali preesistenti?&#8221;</em></strong><br>Se fai questa domanda, tutte le critiche funzionali spariscono. Tutte le metriche di mercato tradizionali diventano irrilevanti. E la strategia emerge in tutta la sua sofisticazione.</p>



<p id="ember259"><strong>Non è marketing.</strong></p>



<p id="ember260">È <strong>governo delle narrative</strong> attraverso <strong>identity-based consumption</strong>, mediato da <strong>relazioni parasociali</strong>, operazionalizzato attraverso <strong>low-risk testing</strong> e simbolismo controllato.<br>E sta funzionando.</p>



<p id="ember262">Perché la community sa cosa sta succedendo. <strong>E ha scelto di parteciparvi.</strong></p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p id="ember263"><em>P.S. Questa analisi non è predizione su cosa accadrà nel medio termine con brand partner tradizionali, opinione pubblica o ciclo reputazionale generale. È focus specifico su cosa sta accadendo nel micro-sistema della community Ferragni, dove il governo narrativo è più trasparente e controllabile. I piani sono diversi. Importante non confonderli.</em></p><p>The post <a href="https://mgpf.it/2025/11/23/la-candela-di-chiara-ferragni.html">La Candela di Chiara Ferragni</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2025/11/23/la-candela-di-chiara-ferragni.html/feed</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Niente sesso, siamo AgCom</title>
		<link>https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html</link>
					<comments>https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html#comments</comments>
		
		<dc:creator><![CDATA[Matteo Flora]]></dc:creator>
		<pubDate>Sat, 01 Nov 2025 08:05:55 +0000</pubDate>
				<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[hacktivism]]></category>
		<category><![CDATA[Narrative Supremacy]]></category>
		<guid isPermaLink="false">https://mgpf.it/?p=6500</guid>

					<description><![CDATA[<p>La delibera AGCOM che impone la verifica dell'età per l'accesso ai siti per adulti, tramite SPID o CIE, è molto più di una misura a tutela dei minori.</p>
<p>The post <a href="https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html">Niente sesso, siamo AgCom</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="574" src="https://mgpf.it/wp-content/uploads/2025/11/image-1024x574.png" alt="" class="wp-image-6501" srcset="https://mgpf.it/wp-content/uploads/2025/11/image-1024x574.png 1024w, https://mgpf.it/wp-content/uploads/2025/11/image-600x336.png 600w, https://mgpf.it/wp-content/uploads/2025/11/image-268x150.png 268w, https://mgpf.it/wp-content/uploads/2025/11/image-768x430.png 768w, https://mgpf.it/wp-content/uploads/2025/11/image-720x404.png 720w, https://mgpf.it/wp-content/uploads/2025/11/image-580x325.png 580w, https://mgpf.it/wp-content/uploads/2025/11/image-320x179.png 320w, https://mgpf.it/wp-content/uploads/2025/11/image.png 1456w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<p><em>La delibera AGCOM che impone la verifica dell&#8217;età per l&#8217;accesso ai siti per adulti, tramite SPID o CIE, è molto più di una misura a tutela dei minori. È il perfetto caso di studio della fallacia &#8220;Tette e Gattini&#8221;: l&#8217;idea che per proteggere gli innocenti (i gattini) si debba sorvegliare e recintare l&#8217;internet libero degli adulti (le tette). Una mossa, apparentemente logica, costituisca in realtà un pericoloso precedente per la privacy, normalizzando un modello di controllo digitale che erode i nostri diritti fondamentali con la scusa del &#8220;se non hai nulla da nascondere&#8221;.</em></p>



<p>Partiamo da un fatto, anzi, da un meme: &#8220;Niente sesso, siamo AGCOM&#8221;. Dietro l&#8217;ironia, c&#8217;è una verità profonda che bolle in pentola. L&#8217;Autorità per le Garanzie nelle Comunicazioni ha appena calato la sua scure su 48 piattaforme di contenuti per adulti, tra cui i colossi come PornHub e OnlyFans, imponendo un sistema di verifica dell&#8217;età obbligatorio a partire dal 12 novembre. La motivazione, iscritta nel cosiddetto Decreto Caivano, è nobile e inattaccabile: proteggere i minori. La soluzione tecnica, però, apre un vaso di Pandora che riguarda tutti noi, anche chi su quei siti non ci è mai andato e mai ci andrà.</p>



<p>Stiamo per assistere a un esperimento sociale e tecnologico in scala 1:1, le cui implicazioni vanno ben oltre la presunta salvaguardia dei più giovani.</p>



<h3 class="wp-block-heading">Il Nobile Pretesto e la Meccanica del Controllo</h3>



<p>Analizziamo la macchina che si sta mettendo in moto. Per accedere a questi contenuti, non basterà più cliccare su un pulsante &#8220;Sì, ho 18 anni&#8221;. Servirà un&#8217;autenticazione forte, basata su strumenti come SPID o Carta d&#8217;Identità Elettronica (CIE). AGCOM ci rassicura parlando di un&#8217;architettura a &#8220;doppio anonimato&#8221;: un soggetto terzo certificato verificherà la nostra età senza sapere quale sito vogliamo visitare, e il sito ci farà entrare senza conoscere la nostra identità.</p>



<p>Sembra un meccanismo ingegnoso, quasi chirurgico. E, da un punto di vista puramente tecnico, lo è. Si ispira a modelli già in uso in altri settori, come quello bancario. Ma, come insegna la gestione della crisi, un sistema non è definito solo dalla sua efficienza in condizioni ideali, ma dalla sua resilienza ai fallimenti e, soprattutto, dalle porte che apre.</p>



<p>La domanda che dobbiamo porci non è <em>se</em> il sistema funzioni come descritto, ma <em>cosa significa</em> normalizzare un sistema del genere. Stiamo accettando il principio che per accedere a contenuti legali, per quanto controversi possano essere per alcuni, sia necessario presentare un documento d&#8217;identità digitale legato allo Stato. È un passaggio logico sottile, ma devastante.</p>



<h3 class="wp-block-heading">La Pericolosa Fallacia delle &#8220;Tette e dei Gattini&#8221;</h3>



<p>Da anni, nel mio lavoro di divulgazione, uso una metafora che ho preso in prestito da un musical di Broadway, <em>Avenue Q</em>, che cantava una scomoda verità: “The Internet is for Porn”. Ho chiamato questo dilemma la sindrome di <strong>&#8220;Tette e Gattini&#8221;</strong>.</p>



<p>La narrazione che ci viene propinata è semplice e rassicurante: da un lato c&#8217;è un Internet libero e adulto, pieno di pericoli e contenuti scabrosi (le &#8220;tette&#8221;); dall&#8217;altro, un Internet sicuro, pulito e igienizzato, adatto a tutti, specialmente ai minori (i &#8220;gattini&#8221;). La conclusione logica che ci viene servita su un piatto d&#8217;argento è che, per proteggere i secondi, sia indispensabile limitare, sorvegliare e recintare il primo.</p>



<p>Questa, amici miei, è una scorciatoia intellettuale che porta dritta a un&#8217;erosione dei nostri diritti fondamentali. È lo stesso schema mentale che sta dietro a battaglie come quelle sul &#8220;Chat Control&#8221; europeo o contro le VPN: l&#8217;idea che, in nome di una sicurezza assoluta (e irraggiungibile), si possa sacrificare la privacy di tutti. Come scriveva il sociologo Zygmunt Bauman, la ricerca di certezza in un mondo incerto spesso ci porta a cedere libertà in cambio di una protezione che si rivela illusoria.</p>



<p>Questo provvedimento non fa che cementare questa fallacia. Si crea un precedente: oggi tocca ai siti per adulti. Domani, con la stessa logica, potrebbe toccare ai siti di scommesse, poi alle testate giornalistiche con contenuti violenti, poi alle piattaforme di discussione politica ritenute &#8220;estreme&#8221;. Dove si traccia la linea?</p>



<h3 class="wp-block-heading">Quando lo Stato entra nella Cronologia del Browser</h3>



<p>Il punto cruciale è smantellare una volta per tutte l&#8217;argomento più tossico e pigro del dibattito pubblico: <em>&#8220;se non hai nulla da nascondere, non hai nulla da temere&#8221;</em>.</p>



<p>La privacy non è l&#8217;occultamento della colpa. È il diritto alla curiosità. È la libertà di esplorare idee, informazioni, e sì, anche contenuti che la società può giudicare di cattivo gusto, senza che questa esplorazione venga registrata, tracciata e potenzialmente archiviata. Associare in modo indelebile la propria identità digitale (SPID/CIE) all&#8217;accesso a una <em>categoria</em> di contenuti crea un database potenziale di interessi e comportamenti. Anche se il &#8220;doppio anonimato&#8221; funzionasse alla perfezione, l&#8217;infrastruttura per questo tipo di controllo sarebbe ormai costruita e normalizzata.</p>



<p>Stiamo costruendo un Internet a due velocità: uno libero per chi sa usare strumenti di anonimizzazione, e uno &#8220;con la patente&#8221; per tutti gli altri. Non si combatte il disagio giovanile o l&#8217;accesso inappropriato ai contenuti trasformando il web in un grande gate sorvegliato. La vera protezione, quella efficace, non si costruisce con più recinti, ma con più consapevolezza, con un&#8217;educazione digitale che dia ai giovani (e ai meno giovani) gli strumenti critici per navigare la complessità del mondo, online e offline.</p>



<p>Questo provvedimento, nato da un&#8217;esigenza giusta, usa uno strumento sbagliato che rischia di creare un danno collaterale enorme al nostro concetto di libertà digitale. Vigiliamo, perché la strada per un inferno di controllo è spesso lastricata di buone intenzioni per proteggere i gattini.</p>



<p><a href="https://www.TetteGattini.com" title="">Ah, e sulle Tette e Gattini ci ho scritto anche un intero libro. Con lo stesso titolo. Scaricabile GRATIS online qui.</a></p>



<p>Estote Parati.</p>



<p></p><p>The post <a href="https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html">Niente sesso, siamo AgCom</a> first appeared on <a href="https://mgpf.it">Matteo Flora</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://mgpf.it/2025/11/01/niente-sesso-siamo-agcom.html/feed</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss><!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/?utm_source=w3tc&utm_medium=footer_comment&utm_campaign=free_plugin

Database Caching 2/97 queries in 0.046 seconds using Disk

Served from: mgpf.it @ 2026-05-11 02:39:16 by W3 Total Cache
-->