<?xml version="1.0" encoding="UTF-8" standalone="no"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:cc="http://cyber.law.harvard.edu/rss/creativeCommonsRssModule.html" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
    <channel>
        <title>Web e conoscenza</title>
        <description>reti sociali, ma soprattutto "conoscenza", apprendimento digitale e l' approccio alla condivisione.</description>
        <link>https://webeconoscenza.gigicogo.it?source=rss----11570e4da447---4</link>
        <image>
            <url>https://cdn-images-1.medium.com/proxy/1*TGH72Nnw24QL3iV9IOm4VA.png</url>
            <title>Webeconoscenza - Medium</title>
            <link>https://webeconoscenza.gigicogo.it?source=rss----11570e4da447---4</link>
        </image>
        <generator>Medium</generator>
        <lastBuildDate>Sun, 05 Apr 2026 09:27:59 GMT</lastBuildDate>
        <atom:link href="https://webeconoscenza.gigicogo.it/feed" rel="self" type="application/rss+xml"/>
        <webMaster><![CDATA[yourfriends@medium.com]]></webMaster>
        <atom:link href="http://medium.superfeedr.com" rel="hub"/>
        <item>
            <title><![CDATA[Dentro la scatola nera]]></title>
            <link>https://webeconoscenza.gigicogo.it/dentro-la-scatola-nera-85d8679207d4?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/85d8679207d4</guid>
            <category><![CDATA[large-language-models]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[llm]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[clickworker]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Tue, 31 Mar 2026 15:39:46 GMT</pubDate>
            <atom:updated>2026-03-31T15:39:45.201Z</atom:updated>
            <content:encoded><![CDATA[<h3>Dentro la scatola nera!</h3><h4>Lavoro tossico e mal pagato per addestrare l’Intelligenza Artificiale</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*phq35jlnuFZr8kduNKqPMA.png" /></figure><p>Immagina di parlare con una scatola. Buffo vero? Però è quello che succede quando interagisci con un chatbot di AI. Le fai una domanda, lei ti risponde.</p><p>Quella scatola è un <a href="https://it.wikipedia.org/wiki/Modello_linguistico_di_grandi_dimensioni"><strong>LLM</strong></a> (Large Language Model) e sebbene non sia possibile accedervi e consultare il contenuto interno, possiamo però comprenderne la sua struttura nonché le competenze dei professionisti coinvolti nel suo sviluppo.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FXsqf96oeFHk%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DXsqf96oeFHk&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FXsqf96oeFHk%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/0e96498b430ca36dc095c55b6f68ebe1/href">https://medium.com/media/0e96498b430ca36dc095c55b6f68ebe1/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Il flusso</h3><p><strong>1. Ingresso: le parole diventano numeri</strong></p><p>Il primo passaggio è quasi meccanico: il testo viene diviso in pezzetti (token) e trasformato in numeri. Questo processo è gestito dal <strong>tokenizer</strong>, che non “capisce” il linguaggio umano, ma lo converte in una forma elaborabile dal modello. <br>Senza questo passaggio non c’è alcun dialogo possibile fra uomo e macchina.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*pqcDJFoV2sMNujbyxzzDpw.png" /></figure><p><strong>2. Il cervello statistico</strong></p><p>Al centro di tutto c’è il <strong>transformer</strong>, una specie di macchina super esperta nel prevedere quali parole potrebbero seguire in una frase. <strong>Non capisce davvero il significato come farebbe una persona</strong>: non ha idee, emozioni o intenzioni.</p><p>In pratica, analizza la frase e <strong>indovina</strong> quale parola è più probabile che venga dopo, un po’ come quando finisci una frase che hai sentito mille volte. In realtà, è anche capace di usare il meccanismo di <strong>self-attention</strong>, che gli permette di <strong>pesare il contesto</strong> e indicare la parola successiva più coerente con lo stesso.</p><p>Tutto ciò che il modello “sa” è codificato nei suoi <strong>pesi</strong>: miliardi di valori numerici che rappresentano schemi e correlazioni apprese dai dati. Durante l’addestramento, infatti, <strong>il modello impara schemi e collegamenti tra le parole</strong>, e li comprime in questa gigantesca matrice di numeri. Ed è proprio da lì che tira fuori le sue risposte.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*g43tmbp_tsvdRi2U9w3fPA.png" /></figure><p><strong>3. L’allineamento: comportamento appreso (anche) attraverso ‘lavoro umano’</strong></p><p>L’allineamento è la fase in cui si cerca di ‘educare’ il modello a <strong>comportarsi bene</strong>. Non esiste un unico file di regole che gli dice cosa può o non può dire e/o generare: anche qui <strong>tutto finisce dentro i numeri che compongono il modello</strong> o, al massimo in <strong>sistemi esterni </strong>collegati allo stesso<strong> </strong>(politiche, filtri, system prompt).</p><p>Per ottenere un risultato eccellente serve però un lavoro molto concreto, <strong>fatto da persone in carne e ossa</strong>. Questo lavoro si svolge in due fasi distinte e sequenziali:</p><p>La prima si chiama <strong>SFT, ovvero Supervised Fine-Tuning</strong> (fine-tuning supervisionato): alcune persone <em>scrivono di proprio pugno</em> delle risposte esemplari, e il modello le studia per imparare a imitarle. <strong>È come mostrare a un apprendista come si fa un lavoro, esempio dopo esempio.</strong></p><p>La seconda fase è quella dell’<strong>RLHF, </strong>cioè<strong> Reinforcement Learning from Human Feedback</strong> (apprendimento per rinforzo basato sul feedback umano): qui il modello produce più versioni di una risposta, e <strong>persone reali </strong>le leggono, le confrontano e le giudicano: quale è più utile? quale è fuorviante? quale è inappropriata? <br><strong>Queste valutazioni servono ad addestrare un sistema di punteggio interno che, a sua volta, guida il modello verso risposte sempre migliori.</strong></p><p>Da questo esercizio non nasce un ‘<em>manuale</em>’ leggibile dall’esterno: <strong>le regole, le preferenze e i limiti vengono assorbiti nei suoi pesi, gli stessi numeri che determinano come risponde.</strong></p><p>È così che il modello impara a essere più utile, meno tossico, più sicuro: <strong>grazie a un lungo lavoro umano di valutazione e correzione</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*xBw_Y5DX08-i6GjX82SPXw.png" /></figure><p><strong>4. Uscita: i numeri tornano parole</strong></p><p>Alla fine i numeri vengono tradotti di nuovo in testo. È il percorso inverso: la scatola restituisce una frase che sembra naturale, <strong>ma dietro c’è una lunga catena di calcoli e decisioni umane</strong>.</p><p>Anche se i ricercatori sanno come è costruita la scatola, noi utenti non possiamo aprirla e leggere “il libro” che ha dentro: vediamo solo input e output. <strong>Per questo la chiamiamo scatola nera</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*Tnypf7SZrwLPX_SJ0xG7AQ.png" /></figure><h3>Il knowledge cut‑off</h3><blockquote>I modelli vengono addestrati su testi raccolti fino a una certa data: quella è la fotografia del mondo che conoscono. E questo è anche il motivo che spiega perché, a volte, un LLM sembra “fuori dal tempo”.</blockquote><p>Nel costruire questa scatola, infatti, gli sviluppatori hanno usato una montagna di testi (libri, siti, articoli). Ma li hanno scaricati (principalmente dal web) fino a una certa data e poi si sono fermati.<br>Quindi è proprio come se avessero fatto una <strong>fotografia del mondo in un certo momento</strong> e l’avessero compressa dentro la scatola nera.</p><ul><li>Quella data è chiamata: <strong>knowledge cut‑off</strong> e, dopo quel momento la scatola <strong>non ha più visto nuovi testi</strong> durante l’addestramento.</li><li>Se oggi succede qualcosa (una nuova legge, una guerra, una scoperta scientifica, la morte di un personaggio famoso), la scatola <strong>non lo sa</strong> a meno che non venga <strong>ri‑addestrata</strong> o <strong>collegata a fonti esterne</strong> (<a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">RAG</a> o ricerca sul web). Anche se va detto che il <a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">RAG</a> <strong>non risolve né aggiorna il knowledge cut-off</strong>: lo <strong>aggira</strong> per query specifiche, recuperando informazioni esterne al volo. <br>Il modello di base (e sottostante), purtroppo, rimane congelato alla sua data di taglio e fino a nuovo aggiornamento.</li></ul><p>Ma tutta questa montagna di testi non finisce nella scatola così com’è: <strong>deve essere pulita, etichettata, filtrata.</strong> E qui iniziano a comparire gli umani dietro le quinte.</p><h3>ll clickwork: la fabbrica invisibile che rifinisce la scatola</h3><p>Prima e dopo il lancio di un modello esiste una sorta di “fabbrica” fatta di micro-task: <strong>persone che puliscono dati, etichettano testi, valutano risposte e testano i limiti del sistema</strong>.</p><p>È un lavoro poco visibile ma essenziale per trasformare un modello grezzo in uno strumento utilizzabile.</p><h4>Cosa fanno, in pratica</h4><ul><li><strong>Pulizia dei dati</strong>: rimuovere spam, duplicati o contenuti problematici dai dataset;</li><li><strong>Etichettatura</strong>: classificare testi (ad esempio odio, ironia, richiesta tecnica);</li><li><strong>Valutazione</strong>: confrontare più risposte e indicare quali sono più utili o corrette;</li><li><strong>Red teaming</strong>: cercare attivamente di far fallire il modello per individuarne vulnerabilità.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*98NsZhm5Ddg8eqXX3eun3w.png" /></figure><p>Queste attività intervengono in momenti diversi del ciclo di sviluppo, ma hanno un obiettivo comune: <strong>migliorare l’affidabilità del comportamento del modello</strong>.</p><p>Senza questo tipo di intervento umano, un LLM resterebbe molto più imprevedibile: <strong>tenderebbe più facilmente a inventare informazioni, amplificare stereotipi o produrre risposte poco appropriate</strong>.</p><p>Allo stesso tempo, è importante comprendere che le capacità linguistiche e gran parte della “conoscenza” del modello derivano dall’<strong>addestramento preliminare su larga scala</strong>, mentre il clickwork serve soprattutto a <strong>orientarne il comportamento</strong>, non a costruirlo da zero.</p><h4>Dove si trova questo lavoro</h4><p>Una parte di queste attività viene svolta attraverso piattaforme di microtask come <a href="https://www.mturk.com">Amazon Mechanical Turk</a>, <a href="https://www.appen.com">Appen</a> e <a href="https://www.clickworker.com">Clickworker</a>, che mettono in contatto aziende e lavoratori distribuiti a livello globale.</p><p>In altri casi, soprattutto per le fasi più sensibili (come l’allineamento avanzato), il lavoro è svolto da team specializzati o fornitori dedicati, spesso con competenze più elevate e linee guida più strutturate.</p><h4>Perché il clickwork è un problema etico e sociale</h4><p>Il funzionamento di questa “fabbrica” solleva diverse criticità documentate.</p><p><strong>Retribuzione e precarietà</strong><br>Secondo un’<a href="https://time.com/6247678/openai-chatgpt-kenya-workers/?utm_source=chatgpt.com">inchiesta di Time Magazine (2023)</a>, alcuni lavoratori impiegati nella moderazione di contenuti per l’addestramento di modelli linguistici guadagnavano circa <strong>1,32, </strong>max<strong> 2 dollari l’ora</strong> in Kenya. Si tratta di un caso documentato, non di una media globale, <strong>ma è indicativo delle condizioni in alcune filiere di data labeling</strong>.<br>Questi lavori sono spesso privi di tutele, con pagamenti variabili e forte dipendenza da pochi grandi clienti.</p><p><strong>Opacità sull’uso finale dei dati</strong><br>I lavoratori spesso <strong>non sanno per chi o per quale scopo stanno etichettando contenuti</strong>. Indagini giornalistiche e report accademici hanno evidenziato casi in cui dati raccolti per scopi civili sono stati riutilizzati in contesti sensibili, inclusi progetti governativi o militari.</p><p><strong>Carico emotivo</strong><br>Chi si occupa di moderazione può essere esposto a contenuti violenti o sessualmente espliciti. <a href="https://www.ilo.org/publications/digital-labour-platforms-and-future-work-towards-decent-work-online-world?utm_source=chatgpt.com">Studi pubblicati dall’International Labour Organization</a> evidenziano rischi concreti per la salute mentale dei lavoratori che operano nell’etichettatura dei dati.</p><p><strong>Bias e responsabilità</strong><br>Se i dati vengono etichettati in condizioni discutibili o con linee guida deboli, <strong>il modello può incorporare quei pregiudizi</strong>. Questo apre un problema di responsabilità: <strong>chi risponde delle scelte fatte “a monte”?</strong></p><h4>Manutenzione e riparazioni: la fabbrica non chiude mai</h4><p>Una volta messa in commercio, la scatola nera non è “finita”. Continua a produrre errori, risposte problematiche o contenuti imprecisi.</p><p>A quel punto si torna in fabbrica.</p><ul><li><strong>Campagne di red teaming</strong>: persone reali cercano di far fallire il modello (odio, truffe, manipolazione) per individuare punti deboli;</li><li><strong>Nuove ondate di valutazione</strong>: cicli continui di confronto tra risposte (“quale è migliore?”);</li><li><strong>Aggiornamenti di versione</strong>: ogni nuova release incorpora correzioni, dati e ulteriore lavoro umano.</li></ul><h4>Addestramento “riparatore” (e perché non è continuo)</h4><p>Quando si parla di addestramento dei modelli, c’è un equivoco che torna spesso: l’idea che la “scatola nera” impari in tempo reale da ogni conversazione. In realtà non funziona così. Ogni modello è una fotografia congelata di ciò che ha appreso fino a un certo momento, <strong>il famoso ‘<em>knowledge cut‑off’ </em>di cui sopra</strong>. Da lì in poi non aggiorna più nulla da solo.</p><p>Quello che succede davvero è molto più simile a un <strong>processo industriale </strong>che a un apprendimento spontaneo. Le aziende raccolgono grandi quantità di dati (<strong>e sì, anche le interazioni degli utenti possono rientrare nel materiale grezzo</strong>). Poi arriva la fase di filtraggio e valutazione, spesso fatta da esseri umani che selezionano, correggono, annotano. Solo dopo questo lavoro di preparazione i dati vengono usati per addestrare una nuova versione del modello.</p><p>È per questo che non si può parlare di apprendimento continuo “in diretta”. Non c’è un modello che evolve mentre parli con lui: <strong>ci sono cicli successivi, ciascuno dei quali produce una nuova generazione</strong>. È un processo a tappe, non un flusso ininterrotto.</p><p>In pratica, tutto parte da un addestramento iniziale enorme, costruito su dataset vastissimi e su un lavoro umano altrettanto imponente. Poi arrivano i cicli di addestramento “riparatore”, pensati per correggere errori, ridurre rischi, migliorare comportamenti indesiderati. E infine c’è l’aggiornamento di filiera: non è il singolo modello che cresce, ma l’intera linea produttiva che viene raffinata, versione dopo versione.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*PTn8mjkKev1DGLcLl7rU9w.png" /></figure><h4>Vigilanza: segnali da non ignorare</h4><p>Alcuni indicatori aiutano a riconoscere pratiche discutibili. L’assenza di informazioni chiare su compensi e tempi è un segnale d’allarme, così come la mancanza di supporto psicologico per chi modera contenuti. Anche contratti opachi sull’uso dei dati e una forte dipendenza da pochi grandi clienti sono elementi da tenere in considerazione.</p><h4>Cosa possiamo fare noi?</h4><ul><li><strong>Pretendere trasparenza</strong>: chiedere come sono raccolti e annotati i dati;</li><li><strong>Valutare i fornitori</strong>: verificare politiche di fair pay e condizioni di lavoro.</li></ul><p>Ad esempio, Appen dichiara di adottare logiche di “fair pay”, ma inchieste giornalistiche e testimonianze dei lavoratori mostrano una realtà più sfumata e, in alcuni casi, problematica.</p><h3>Conclusione</h3><p>Il punto non è demonizzare il clickwork, ma renderlo visibile:<br>gli LLM non sono solo prodotti tecnologici, sono anche <strong>il risultato di una filiera globale di lavoro umano, spesso invisibile</strong>.</p><p>Capire questa filiera aiuta a capire meglio anche i limiti (e le responsabilità) di ciò che chiamiamo Intelligenza Artificiale.</p><p>La scatola nera non è solo un pezzo di tecnologia: <strong>è una catena di persone, contratti e scelte economiche</strong>. <br>Quando usi un assistente virtuale, dietro la risposta c’è qualcuno che ha etichettato, moderato o valutato dati per permettere a quella frase di uscire pulita.</p><p>Capire questa catena significa capire che l’IA non è neutrale: <strong>è il risultato di scelte tecniche, economiche e umane. E quindi può essere messa in discussione.</strong></p><h3><strong>LINKOGRAFIA</strong></h3><h4>1. Meta, Ray‑Ban smart glasses e Sama (Kenya)</h4><ul><li><strong>Titolo:</strong> Meta nega il trasferimento dei dati degli utenti europei in Kenya ma l’autorità irlandese aveva già aperto un’istruttoria</li><li><strong>Testata:</strong> ByteLegali</li><li><strong>Autrice:</strong> Giulia Iaganà</li><li><strong>Data:</strong> 23 marzo 2026 (indicata nel sito come data dell’articolo; il contenuto è aggiornato a marzo 2026)</li><li><strong>URL ufficiale: </strong><a href="https://www.bytelegali.it/meta-nega-il-trasferimento-dei-dati-degli-utenti-europei-in-kenya-ma-lautorita-irlandese-aveva-gia-aperto-unistruttoria/">https://www.bytelegali.it/meta-nega-il-trasferimento-dei-dati-degli-utenti-europei-in-kenya-ma-lautorita-irlandese-aveva-gia-aperto-unistruttoria/</a></li></ul><p><strong>Focus:</strong></p><ul><li>Ricostruisce come due quotidiani svedesi (Svenska Dagbladet e Göteborgs‑Posten) abbiano documentato l’invio di video raccolti dai Ray‑Ban smart glasses di Meta a Sama, società di annotazione dati con sede operativa a Nairobi.</li><li>Descrive in dettaglio il lavoro dei labelers di Sama: classificazione di contenuti video altamente sensibili (scene domestiche intime, conversazioni private, dati bancari) per migliorare i sistemi di IA di Meta, con compensi tra 1,32 e 2 dollari l’ora.</li><li>Collega il caso a precedenti collaborazioni di Sama con OpenAI per l’etichettatura di testi violenti e di abuso e inquadra il tema nei vincoli del GDPR sui trasferimenti di dati verso Paesi senza decisione di adeguatezza (come il Kenya).</li></ul><h3>2. Etica dell’addestramento IA e lavoro nei centri di annotazione</h3><ul><li><strong>Titolo:</strong> L’addestramento dell’IA non può prescindere dall’etica</li><li><strong>Testata:</strong> Terza Notizia (sezione AI)</li><li><strong>Data:</strong> 8 marzo 2026terzanotizia+1</li><li><strong>URL ufficiale: </strong><a href="https://terzanotizia.it/laddestramento-dellia-non-puo-prescindere-dalletica">https://terzanotizia.it/laddestramento-dellia-non-puo-prescindere-dalletica</a></li></ul><p><strong>Focus:</strong></p><ul><li>Parte dal tema del diritto d’autore e del training su dataset illeciti, ma dedica un’intera sezione alle condizioni dei lavoratori nei centri di annotazione dati nel Sud del mondo, riprendendo un’approfondita inchiesta del Guardian.</li><li>Descrive operatori in Kenya e Uganda pagati poco più di un dollaro l’ora per etichettare video violenti o immagini disturbanti, necessari per “addestrare” i filtri di sicurezza delle grandi piattaforme di IA, definendoli “carburante essenziale ma invisibile della rivoluzione tecnologica”.</li><li>Sottolinea che un addestramento etico dell’IA deve includere trasparenza sulle catene di subappalto e tutela della dignità dei lavoratori del data labeling, non solo il rispetto della proprietà intellettuale sui dati usati.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*zkRPmKZF2fx38O2vFqZ1ZA.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=85d8679207d4" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/dentro-la-scatola-nera-85d8679207d4">Dentro la scatola nera</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[La funzione ‘computer’ di Perplexity]]></title>
            <link>https://webeconoscenza.gigicogo.it/la-funzione-computer-di-perplexity-fc9a84825056?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/fc9a84825056</guid>
            <category><![CDATA[claude]]></category>
            <category><![CDATA[agentic-ai]]></category>
            <category><![CDATA[ia-agentic]]></category>
            <category><![CDATA[perplexity]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Thu, 26 Mar 2026 20:08:17 GMT</pubDate>
            <atom:updated>2026-03-26T20:08:15.890Z</atom:updated>
            <content:encoded><![CDATA[<h4>Quando l’AI smette di chiacchierare e inizia a lavorare davvero</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*KATtlPpX4yLi_ApCN1NTIA.png" /></figure><p>Stiamo entrando nell’era degli <strong>Agenti AI</strong> personali: sistemi che non si limitano a rispondere alle tue domande, ma prendono in mano il tuo contesto digitale (file, app, schermo, calendario) e agiscono per te. <br>Non sono più chatbot passivi. Ricevono un obiettivo (“<em>organizzami la giornata</em>”, “<em>analizza queste vendite”, “trova quel documento”</em>), pianificano i passi, usano strumenti e ti restituiscono risultati concreti, spesso mentre tu fai altro.</p><p>È l’AI agentica applicata alla vita quotidiana, e alcuni player ne stanno definendo il campo in modo molto interessante. Tra questi, tre nomi meritano secondo me un’attenzione particolare: <strong>Perplexity</strong> con la sua funzione ‘Computer’, <strong>Claude</strong> di Anthropic con computer usage, e <strong>Littlebird</strong>.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2Fsktvbro3rB8%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3Dsktvbro3rB8&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fsktvbro3rB8%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5f3a1606f8096c12ac22e1322e901584/href">https://medium.com/media/5f3a1606f8096c12ac22e1322e901584/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Tre approcci, tre filosofie</h3><p><strong>Perplexity Computer</strong> (e il suo “fratello” <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Personal Computer su Mac mini</a>) punta decisamente sul cloud come quartier generale sicuro: un sistema di agenti che lavora in ambianti isolati (‘sandbox’), orchestrando ricerca web, analisi dei dati, codice informatico e file (nelle sue attuali capacità), senza accedere direttamente al tuo Personal computer. Tu dici “<em>fammi un report sulle vendite con grafici</em>”, e il sistema scompone il compito in compito, <strong>lo esegue in un ambiente protetto</strong> e ti consegna dei file formattati in CSV, immagini e intuizioni/previsioni. Tutto verificato, in molti casi affidabile, senza permessi invasivi sul tuo hardware.</p><p><strong>Claude</strong>, invece, è il <a href="https://claude.com/blog/dispatch-and-computer-use">pilota audace</a>: può interagire con il tuo Personal Computer, muove mouse e tastiera come farebbe un umano, naviga tra le app, clicca e modifica file in tempo reale. Può essere molto potente per compiti imprevedibili (“<em>apri Photoshop e ritocca questa foto</em>”), ma richiede fiducia totale: l’AI ha le chiavi di casa, e <strong>un errore può significare file cancellati o clic sbagliati</strong>.</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FNAauIR6JFps%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DNAauIR6JFps&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FNAauIR6JFps%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5f4546d3b282c3519597bcb3721e9c58/href">https://medium.com/media/5f4546d3b282c3519597bcb3721e9c58/href</a></iframe><p><a href="https://littlebird.ai"><strong>Littlebird</strong></a> sperimenta un approccio basato su memoria estesa: può osservare e indicizzare molte delle attività sul Personal Computer ( schermate, documenti, call) indicizza tutto in cloud e diventa un assistente proattivo che “sa già tutto”. Ti recapita briefing mattutini, trova email di mesi fa, suggerisce priorità. Il rovescio della medaglia è evidente: indicizzare continuamente il tuo lavoro <strong>solleva domande serie su privacy e controllo</strong>.</p><h3>Il Mac mini come hub di questo ecosistema</h3><p>Il Mac mini sta diventando una scelta popolare tra gli <strong>entusiasti early adopter dell’AI agentica personale</strong>, e non è un caso. Tre motivi si incastrano alla perfezione con questo nuovo paradigma.</p><p>Il primo è l’hardware (come gli ultimi Apple Silicon disponibili): molto efficiente per l’inferenza AI locale, efficiente, silenzioso, con un consumo energetico ridicolo rispetto a PC equivalenti e ideale per far girare agenti 24/7 senza bollette folli o ventole impazzite. Il secondo è la maturità del sistema operativo MacOS come piattaforma di automazione: AppleScript, Shortcuts, accesso nativo alle integrazioni con iPhone e iPad lo rendono “agent-ready” senza configurazioni complicate. Il terzo, non meno importante, è il prezzo: a partire da 599€, è un affare per un dispositivo senza monitor che puoi nascondere sotto la scrivania e controllare via rete. Non sorprende che strumenti come il tanto discusso <a href="https://openclaw.ai">OpenClaw</a> e <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Perplexity Personal Computer</a> stiano aumentando l’interesse verso questo tipo di soluzione. <strong>È il gadget perfetto per chi vuole un agente AI personale</strong> senza investire in un MacBook Pro da 3.000€.</p><h3>Perché partire da Perplexity Computer è la scelta più saggia</h3><p>Tra questi approcci, la funzione ‘<em>Computer</em>’ di Perplexity insita nel chatbot con la funzione PRO e MAX e da non confondersi <a href="https://www.perplexity.ai/it/hub/blog/everything-is-computer">Perplexity Personal Computer</a>, è quella che ti consiglio di esplorare per prima, soprattutto se vuoi entrare nell’AI agentica senza buttarti a capofitto e comprare dell’hardware!</p><p>Il motivo principale è la prudenza strutturale: tutto gira in ambienti cloud isolati, con sandbox che riducono drasticamente i rischi. <strong>Non tocca il tuo Mac, non ha bisogno di permessi di sistema, non può combinare guai sul tuo desktop.</strong> Puoi supervisionare i passaggi principali, vedi i risultati intermedi (grafici, tabelle, file) e decidi se e come andare avanti. È una collaborazione più controllata rispetto ad altri approcci, non una delega cieca.</p><p><a href="https://claude.com/blog/dispatch-and-computer-use">Claude</a> e <a href="https://littlebird.ai">Littlebird</a> sono strumenti potenti, ma saltano la fase “impara a camminare”: ti chiedono di affidargli chiavi e memoria fin dal giorno uno. Con ‘<em>Computer’ di Perplexity</em>, invece, puoi <strong>iniziare dalle basi agentiche</strong> (analisi dati, workflow complessi, automazioni) restando sempre al volante. È come avere un assistente che lavora in un laboratorio separato, non uno che si siede alla tua scrivania o ti spia 24/7. E una volta prese le misure con questo approccio “sicuro”, potrai esplorare i piloti più invasivi <strong>sapendo esattamente cosa delegare e cosa no</strong>.</p><h3>Perché questa funzione è un salto di categoria</h3><p>Prova a pensarla così: esistono due tipi di AI.</p><p><strong>La prima sa solo chiacchierare</strong>. Fa brainstorming, riscrive testi, ti aiuta con le idee. <strong>Utilissimo, ma tutto resta nel mondo delle parole</strong>.</p><p><strong>La seconda, oltre a chiacchierare, ha un “computer interno”</strong> su cui può scrivere codice, aprire file, fare calcoli, creare grafici, salvare documenti. Tu le dici: “<em>Qui c’è il CSV con le vendite di quest’anno, fammi capire cosa sta succedendo</em>”, e lei non ti risponde con una teoria generica. Apre il file, lo analizza, si accorge che a marzo c’è stato un crollo, te lo mostra in un grafico e ti spiega cosa ha trovato.</p><p>È la differenza tra <em>“Parliamo in generale di newsletter efficaci…”</em> e <em>“Guardo i tuoi invii dell’ultimo anno, ti dico in che giorni hai avuto più aperture e ti suggerisco di cambiare orario.”</em></p><p>In mezzo ci sta la funzione ‘<em>Computer</em>’ di Perplexity: <strong>il laboratorio dove l’AI passa dalla teoria alla pratica</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/750/1*tc1PXAIgOqyIrMmLc2yCxg.jpeg" /><figcaption>Image <a href="https://www.eesel.ai/blog/perplexity-computer">credits</a></figcaption></figure><h3>Come funziona, senza tecnicismi</h3><p>Il bello è che non devi saper programmare. A scrivere il codice ci pensa l’AI. Tu fai ciò che sai fare meglio: racconti il problema in linguaggio umano.</p><p>Per esempio: <em>“Ho questo file con tutti gli invii della newsletter. Vorrei capire quali oggetti hanno funzionato meglio, in quali giorni ho il tasso di apertura più alto, se c’è un orario che batte gli altri.”</em></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/871/1*AbTVcady3ZtrZW4LKc8vqA.png" /></figure><p>Dietro le quinte, spesso nel giro di pochi secondi, tipicamente succede questo:</p><ol><li>L’AI legge la tua richiesta e scrive qualche riga di codice Python.</li><li>Lancia quel codice in un ambiente sicuro e isolato, dove non può fare danni.</li><li>Guarda l’output: se ci sono errori, corregge e riprova; se i risultati hanno senso, li organizza e te li mostra (anche se può richiedere aggiustamenti).</li><li>Torna da te con una risposta che non è più solo “un’opinione”, ma è basata sui tuoi dati.</li></ol><p>Da fuori vedi solo il risultato: tabelle, grafici, una spiegazione. Se non ti convince, puoi chiedere: “<em>Mostrami solo i 10 oggetti migliori</em>” o “<em>Concentrati sugli invii dell’ultimo trimestre</em>”. Lei modifica il codice, ricalcola e ti restituisce una nuova versione. È una conversazione, ma con un motore di calcolo agganciato sotto.</p><h3>Tre scenari concreti</h3><h4>Il blogger con la newsletter</h4><p>Hai una newsletter e, come tutti, ti chiedi: quando la devo mandare? Quali oggetti funzionano? Sto esagerando con la frequenza?</p><p>Di solito ti limiteresti a guardare un paio di grafici nella piattaforma e poi andare a istinto. Con Computer, il film è diverso. Scarichi il file con tutti gli invii dell’ultimo anno (date, oggetti, open rate, click, segmenti) lo carichi e scrivi:</p><p><em>“Analizza questi dati e dimmi: quali giorni della settimana hanno il tasso di apertura più alto, quali sono gli oggetti migliori, se ci sono orari da evitare.”</em></p><p>Nel giro di pochi secondi (o qualche iterazione) l’AI passa in rassegna riga per riga, raggruppa per giorno della settimana, ordina gli oggetti per click e costruisce grafici grafici utili da interpretare. E poi, soprattutto, te li racconta: <em>“Il mercoledì mattina le performance sono costantemente migliori del lunedì pomeriggio. I soggetti sotto i 40 caratteri tendono ad avere un tasso di apertura più alto. Le email inviate dopo le 21 performano peggio.”</em></p><p>Non hai solo “un parere dell’AI”: hai un mini report sui tuoi numeri, pronto per diventare un articolo dal titolo: <em>“Come ho usato l’AI per migliorare del 15% l’open rate della mia newsletter.”</em></p><h4>Il piccolo e-commerce</h4><p>Cambia contesto. Hai un e-commerce con qualche decina di prodotti. Intuisci che alcuni vanno alla grande e altri sono un buco nero, ma non hai tempo di mettere mano a pivot e formule.</p><p>Esporti un file con dodici mesi di vendite (prodotto, quantità, fatturato, resi, margine) e scrivi:</p><p><em>“Voglio capire: quali sono i prodotti che mi fanno davvero guadagnare, non solo fatturare; quali vendono tanto ma vengono restituiti spesso; se ci sono prodotti che potrei tranquillamente togliere dal catalogo.”</em></p><p>L’AI può fare parte del lavoro che farebbe un analista: calcola il fatturato per prodotto, incrocia fatturato e margine, evidenzia i resi. Alla fine ti mostra una mappa: da una parte i “campioni nascosti” (margini altissimi, pochi resi), dall’altra le “stelle tossiche” (vendono molto ma mangiano profitti e reputazione). Materiale utile per supportare decisioni di business e, se vuoi, per scrivere un pezzo divulgativo su come un non-analista ha preso decisioni data-driven grazie all’AI.</p><h4>L’insegnante con il suo “assistente analista”</h4><p>Immagina un insegnante che fa spesso quiz agli studenti. Ogni volta raccoglie risposte, punteggi, tempi. Tutto rimane lì, in qualche file semi-illeggibile.</p><p>Con ‘<em>Computer’</em>, la scena cambia. Carica il file e dice:</p><p><em>“Dimmi quali domande sono risultate troppo facili, quali troppo difficili e quali sono perfette per valutare la comprensione. Mostrami anche, per ogni studente, se c’è stata una progressione nel tempo.”</em></p><p>L’AI calcola le percentuali di risposte corrette per domanda, guarda i tempi medi, individua pattern — domande trabocchetto, argomenti non capiti, lacune ricorrenti. Alla fine, l’insegnante ha una prima diagnosi che prima avrebbe richiesto ore di lavoro manuale.</p><h3>Non servono superpoteri, servono domande chiare</h3><p>La parte più interessante, per chi scrive, è proprio questa: non è solo un gioco per programmatori. È un gioco per persone che sanno formulare problemi.</p><p>Non devi spiegare all’AI come calcolare una media pesata. Devi dirle cosa ti interessa davvero:</p><ul><li><em>“Vorrei vedere a colpo d’occhio quali contenuti generano più iscrizioni.”</em></li><li><em>“Mi interessa capire se sto stressando troppo la lista con troppi invii.”</em></li><li><em>“Vorrei sapere se ci sono giorni in cui il mio e-commerce è praticamente morto.”</em></li></ul><p>Da lì in poi, gestisce gran parte del lavoro con codice, grafici e file. Tu resti nel tuo ruolo: fai domande sensate, interpreti le risposte e le trasformi in storie, decisioni, contenuti.</p><h3>Cosa ci aspetta</h3><p>Il campo degli agenti AI personali sta bollendo, e Perplexity Computer è solo uno dei giocatori in pista. Ci sono già player come <a href="https://manus.im">Manus</a> con il suo approccio da “terminale autonomo”, o progetti open source come <a href="https://openclaw.ai">OpenClaw</a>, che può girare 24/7 su Mac mini e ti manda aggiornamenti mattutini via Telegram mentre sei a colazione.</p><p>Tutti questi esperimenti urlano la stessa cosa: <strong>il tuo computer non è più solo un’estensione delle tue mani, ma un laboratorio dove l’AI prova a rubarti i compiti noiosi </strong>(organizzare foto, rinominare fatture, monitorare email) riducendo molto l’intervento manuale.</p><p>Tra qualche anno, è probabile che questi agenti inizieranno a parlarsi tra loro: Perplexity che passa un dataset a uno strumento di automazione locale, Littlebird che condivide la tua memoria contestuale con Claude per eseguire un compito preciso, potenzialmente orchestrato da un “super-agente” che vive nel cloud e decide chi fa cosa. O flotte di Mac mini trasformati in “nodini AI” domestici: uno per la produttività, uno che analizza i tuoi dati Apple Watch, uno che gestisce la domotica.<br>A proposito, le offerte su server virtuali in rete, già ci sono anche in Italia:</p><p><a href="https://www.cloud.it/vps/openclaw/">VPS con OpenClaw Preinstallato | Agente AI Self-Hosted sul Tuo VPS | Cloud</a></p><p><strong>Ma più l’automazione diventa sofisticata, più vale la pena partire con i piedi per terra</strong>. Questi sviluppi promettono un mondo dove l’AI ti sveglia con un briefing perfetto e chiude la giornata con un report. Ma senza un minimo di approccio prudente come quello di Computer (sandbox, supervisione, zero invasioni), rischi di ritrovarti con un assistente che sa molto, fa molto e può sbagliare proprio dove conta.</p><p>L’occasione per testare è adesso, prima che il futuro ci travolga tutti.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*vHs2xGGSjtaYpSl5KNgO8Q.jpeg" /></figure><h3>Dalla chiacchiera al risultato</h3><p>Se dovessimo riassumere tutto in una frase sola:</p><blockquote>Prima l’AI era un ottimo conversatore. Con la funzione ‘Computer’ diventa un collaboratore che lavora sui tuoi dati e ti mette sul tavolo qualcosa di tangibile.</blockquote><p>Per un blogger o un creator non è un dettaglio tecnico: è un tema narrativo enorme. Significa poter raccontare casi reali, usare i propri numeri come trama, portare i lettori dentro un “dietro le quinte” dove l’AI non è più magia generica, ma uno strumento da laboratorio.</p><p>Tu gli dai il contesto, lei fa i conti. E quello, per chi scrive, è oro: <strong>perché ogni analisi diventa una storia da raccontare.</strong></p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=fc9a84825056" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/la-funzione-computer-di-perplexity-fc9a84825056">La funzione ‘computer’ di Perplexity</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Come bloccare l’uso dei nostri dati per allenare l’Intelligenza Artificiale]]></title>
            <link>https://webeconoscenza.gigicogo.it/come-bloccare-luso-dei-nostri-dati-per-allenare-l-intelligenza-artificiale-19cf0ac290a7?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/19cf0ac290a7</guid>
            <category><![CDATA[bots]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[dati-personali]]></category>
            <category><![CDATA[privacy]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 18 Mar 2026 20:13:42 GMT</pubDate>
            <atom:updated>2026-03-18T20:54:55.120Z</atom:updated>
            <content:encoded><![CDATA[<h3>I tuoi dati non sono un buffet: come negare il “consenso” all’IA</h3><h4>Una guida pratica per riprendersi la privacy tra ChatGPT, Social e programmi creativi.</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*u1SrVRvcRi_58u5gFQTv2A.jpeg" /></figure><p>Nell’ambito della mia attività di consulenza e formazione trascorro una quantità significativa di tempo al computer, soprattutto on‑line. Per questo, non posso nascondere un certo disagio all’idea che tutto il materiale che pubblico, dai contributi divulgativi ai commenti nei vari spazi social, <strong>potrebbe essere incluso nei dataset pubblici utilizzati per addestrare modelli come ChatGPT</strong>.</p><p>Questa sensazione si inserisce in una riflessione più ampia: la promessa originaria di Internet sembra essersi incrinata. <br>Quello che era nato come uno spazio di libertà creativa e partecipazione democratica si è progressivamente trasformato in <strong>un’enorme arena governata da logiche commerciali sempre più aggressive</strong>.</p><p>Oggi ogni nostra azione online (informarci, comunicare, stringere relazioni o fare acquisti), contribuisce ad alimentare un ecosistema che arricchisce pochi attori dominanti e, al tempo stesso, riduce il margine di autonomia degli utenti. <br><strong>Non è un giudizio morale, ma un dato strutturale che merita di essere compreso per poter immaginare alternative più eque e consapevoli.</strong></p><p>In questo scenario, purtroppo, le possibilità di intervento a posteriori sono piuttosto limitate. La normativa attuale tende infatti a privilegiare la tutela delle aziende rispetto a quella degli utenti, con il risultato che gran parte dell’onere della “protezione” ricade proprio su chi utilizza i servizi digitali. È una dinamica che si inserisce perfettamente nel quadro già descritto: <strong>un ecosistema in cui la responsabilità individuale diventa l’unico vero argine a pratiche ormai consolidate</strong>.</p><p>Per questo motivo diventa fondamentale adottare un approccio <strong>proattivo e consapevole</strong>. Gli utenti hanno la possibilità di esprimere il proprio dissenso rispetto alla condivisione dei dati e all’uso delle loro attività online per l’addestramento dei modelli di Intelligenza Artificiale.</p><p><strong>È importante chiarire che l’esercizio del <em>diritto di opposizione</em> non elimina i dati già raccolti</strong>, ma può impedire che le interazioni future (conversazioni, ricerche, contenuti creativi) vengano inglobate nei dataset dei nuovi sistemi.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fopen.spotify.com%2Fembed%2Fepisode%2F5tXVodhJgyq0Y4SWGqqQte%2Fvideo%3Futm_source%3Doembed&amp;display_name=Spotify&amp;url=https%3A%2F%2Fopen.spotify.com%2Fepisode%2F5tXVodhJgyq0Y4SWGqqQte&amp;image=https%3A%2F%2Fimage-cdn-fa.spotifycdn.com%2Fimage%2Fab6772ab000015be1d399bc90f785c113b278224&amp;type=text%2Fhtml&amp;schema=spotify" width="624" height="351" frameborder="0" scrolling="no"><a href="https://medium.com/media/c91325d2054826bed7b114474658c8b2/href">https://medium.com/media/c91325d2054826bed7b114474658c8b2/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Cosa significa veramente “rinunciare”?</h3><h4>Vale solo per il futuro</h4><p>Al fine di valutare la convenienza di questa azione, è necessario innanzitutto comprendere la natura dei dati raccolti. In sostanza, si possono distinguere due categorie principali di dati:</p><ol><li><strong>I nostri dati personali:</strong> nome, email, le domande che fai alla IA, le immagini che carichiamo, le informazioni sensibili (es. dati sanitari, questioni riservate, dubbi lavorativi).</li><li><strong>Il nostro lavoro creativo:</strong> quello che abbiamo scritto, disegnato, creato o generato.</li></ol><p>La brutta notizia è che impedire ai “bot” delle aziende di prendere il nostro lavoro creativo dal web è quasi impossibile. Se lo carichiamo su Internet (che sia un blog, un account Instagram pubblico o un sito web), è molto probabile che sia già finito o finirà nei loro archivi.</p><p>Il file <strong>robots.txt</strong> è uno strumento utile ma non infallibile: <strong>alcuni operatori e crawler rispettano le direttive</strong>, mentre altri scraper o bot specializzati per l’addestramento IA possono ignorarle o raccogliere contenuti da fonti alternative; per questo non è una protezione completa.”</p><p><a href="https://it.wikipedia.org/wiki/Protocollo_di_esclusione_robot">Protocollo di esclusione robot - Wikipedia</a></p><p>L’opt‑out <strong>si applica principalmente ai dati generati dopo l’attivazione</strong>: può impedire che le interazioni future vengano usate per training, ma non garantisce la rimozione o l’eliminazione di dati già incorporati nei dataset o nei modelli. Serve a dire: “<em>Questa chat tra me e te, non la puoi usare per imparare</em>”. <br>Le politiche di conservazione variano: <strong>alcuni provider conservano conversazioni per periodi che possono arrivare a mesi o anni</strong> e in certi casi porzioni di dati sono soggette a revisione umana; verifica sempre la policy ufficiale del servizio per le tempistiche precise.</p><h3>I tre giganti: ChatGPT, Gemini e Claude</h3><p>Un punto di partenza importante: <strong>anche se ti fidi di questi strumenti, evita comunque di condividere informazioni troppo sensibili o segreti personali</strong>, anche dopo aver disattivato la raccolta dati. L’opt‑out aiuta, ma non è una garanzia assoluta.</p><h4><strong>CHATGPT</strong></h4><p>Per gestire la privacy, clicca sulla tua immagine profilo e vai su <strong>Impostazioni → Controllo dati</strong>. Qui trovi l’opzione <strong>“Migliora il modello per tutti”</strong>: spegnendola, le chat future non verranno usate per l’addestramento. Puoi anche attivare le <strong>Chat temporanee</strong>, che funzionano come conversazioni “usa e getta”.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/925/1*XIR1RWFCM7BRUR7uCzwHvQ.png" /></figure><p>Ci sono però due aspetti da tenere a mente: se metti <strong>pollice su o pollice giù</strong> a una risposta, <strong>l’intera conversazione può essere usata per l’addestramento</strong>, anche se hai disattivato l’opzione;<br>ChatGPT conserva comunque per un periodo limitato tutte le chat per motivi di sicurezza e prevenzione degli abusi.</p><p><a href="https://help.openai.com/en/articles/8983778-chat-and-file-retention-policies-in-chatgpt?utm_source=copilot.com">Chat and File Retention Policies in ChatGPT | OpenAI Help Center</a></p><h4><strong>GEMINI</strong></h4><p>Per limitare l’uso dei tuoi dati, vai su <strong>Impostazioni e Guida → Attività</strong>, poi scegli <strong>Disattiva</strong> per “Salva attività”. Così le nuove chat verranno conservate solo per <strong>72 ore</strong>, giusto il tempo di rivederle, ma <strong>non saranno usate per addestrare il modello</strong>. Nella stessa pagina puoi anche cancellare la tua attività passata.<br>Nota importante: le conversazioni più vecchie che erano già state selezionate per revisione umana possono essere conservate <strong>fino a 3 anni</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/737/1*zLCpzQn3yzTSL0_0gk2KMQ.png" /></figure><p><strong>CLAUDE</strong></p><p>Claude utilizza le conversazioni di qualsiasi tipo per migliorarsi, incluse quelle tecniche, creative e di uso quotidiano. Per fermarlo, clicca sulla tua immagine profilo, vai su <strong>Impostazioni → Privacy</strong> e disattiva <strong>“Aiuta a migliorare Claude”</strong>.</p><p>Qui c’è una differenza significativa rispetto agli altri: <strong>una volta disattivata l’opzione, Claude non userà le tue conversazioni future per l’addestramento</strong>. Attenzione: i dati già elaborati durante il periodo di opt-in non possono essere rimossi retroattivamente da training già avvenuto. Con l’opt-out attivo, i tuoi dati vengono conservati per 30 giorni; <strong>senza opt-out, la conservazione può arrivare fino a cinque anni</strong>. È un punto di trasparenza importante, soprattutto se confrontato con la politica di Gemini sulle revisioni umane.</p><p>Se vuoi essere ancora più prudente, puoi anche <strong>cancellare singole chat</strong>. Attenzione però: come negli altri servizi, se metti “mi piace” o “non mi piace” a una risposta, <strong>l’intera conversazione può essere salvata e usata</strong>, indipendentemente dalle impostazioni.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/946/1*igBwWzQVkTVZ_d-onl5iEw.png" /></figure><h3>Esempio di “Safe Prompting”</h3><p>Quando devi far analizzare contenuti sensibili, è meglio <strong>astrarre e generalizzare</strong>. Invece di scrivere: “<em>Analizza questo bilancio aziendale segreto di Rossi Srl</em>” puoi usare una formula più sicura:</p><blockquote><em>“</em>Analizza questa struttura di bilancio generica, sostituendo i nomi reali con Azienda X e i valori con cifre arrotondate<em>.”</em></blockquote><h3>Stessi principi anche per i programmi “creativi”: Adobe e Canva, Figma, ecc.</h3><p>Occhio: <strong>non sono solo le chat a “imparare” dal tuo lavoro</strong>. Quando carichi progetti, immagini o bozze su servizi come <strong>Adobe, Figma o Canva</strong>, quei contenuti possono finire — in modi diversi — nell’ecosistema che serve a migliorare le loro funzioni IA. Per esempio, <strong>Adobe ha addestrato i modelli Firefly anche su contenuti di Adobe Stock</strong> e ha introdotto misure per compensare i contributor; questo significa che caricare su Stock può implicare l’uso del tuo materiale per generative AI.</p><p>Con <strong>Creative Cloud</strong> Adobe dichiara di poter analizzare i file per migliorare i prodotti, anche se afferma di non usare i contenuti privati per addestrare modelli generativi generalisti salvo invio a Stock; resta però buona pratica verificare e modificare le impostazioni di <em>Content Analysis</em> nel tuo account.</p><p><strong>Figma</strong> può usare testi, immagini, commenti e metadati per addestrare le sue funzioni IA tramite l’impostazione <strong>Content training</strong>; gli amministratori di team possono abilitare o disabilitare questa opzione e, per molti piani Starter/Professional, la condivisione è attiva di default, mentre Organization/Enterprise offre protezioni maggiori. Se lavori con proprietà intellettuale sensibile, chiedi all’admin del team di disattivare il training.</p><p><strong>Canva</strong> <a href="https://www.canva.com/newsroom/news/safe-ai-canva-shield/">dichiara</a> politiche di privacy che permettono agli utenti di controllare i propri dati e segnala programmi per remunerare contributor; tuttavia le pratiche di training e le condizioni di opt‑in/opt‑out variano e vanno verificate nelle impostazioni del tuo account, specialmente per contenuti caricati pubblicamente o condivisi.</p><h4>Cosa fare subito:</h4><ul><li><strong>Evitare di caricare su Adobe Stock materiali che non si desidera vengano usati per l’addestramento dei modelli</strong>; controllare le FAQ di Firefly e le impostazioni di Creative Cloud per capire come vengono trattati i contenuti.</li><li><strong>Chiedere all’amministratore di Figma di disattivare l’opzione di utilizzo dei contenuti per il training del team</strong>, oppure spostare offline i file più sensibili.</li><li><strong>Verificare le impostazioni di Canva</strong>: consultare le sezioni dedicate alla privacy e alla sicurezza e controllare se è attivo l’uso dei propri contenuti per programmi di addestramento o fondi per i creator.</li><li><strong>Conservare screenshot delle impostazioni e delle policy</strong>, perché possono cambiare nel tempo e alcune modifiche possono avere effetto retroattivo.</li></ul><h3>Occhio ai social: <strong>non tutti i contenuti che pubblichi restano “solo tuoi”</strong>.</h3><p>Su <strong>LinkedIn</strong> esiste oggi un’impostazione chiamata <strong>“Data for Generative AI Improvement”,</strong></p><p><a href="https://www.linkedin.com/help/linkedin/answer/a6278444">Control whether LinkedIn uses your data to improve generative AI (GAI) models that are used for content creation on LinkedIn | LinkedIn Help</a></p><p>che controlla se i tuoi post, commenti e altri contenuti possano essere usati per addestrare i modelli generativi che, ad esempio, aiutano a scrivere bozze di post. Questa opzione riguarda in particolare i modelli di generazione di contenuti e non necessariamente altri sistemi interni come quelli per suggerire contatti o filtrare spam.</p><p>Per <strong>Meta</strong> (Facebook, Instagram, Threads) la situazione è più complessa: l’azienda ha annunciato piani per usare <strong>contenuti pubblici e interazioni</strong> per addestrare Meta AI e modelli come Llama, e ha predisposto modalità di notifica e strumenti per gli utenti europei per esercitare diritti e limitare l’uso dei propri dati.</p><p>Tuttavia le modalità e l’efficacia dell’opt‑out dipendono dal contesto normativo (GDPR in UE) e dalle procedure messe a disposizione. In pratica, <strong>Meta può usare post pubblici e interazioni per training</strong>, mentre i messaggi privati e gli account di minorenni sono esclusi; gli utenti UE hanno strumenti più forti per opporsi rispetto ad altre giurisdizioni.</p><h4>Cosa fare ora (pratico)</h4><ul><li><strong>LinkedIn:</strong> vai su <strong>Impostazioni → Data privacy → Data for Generative AI Improvement</strong> e disattiva l’opzione. <strong>Salva uno screenshot.</strong></li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/971/1*MPhLGBIygtYq3EqXD8PRDQ.png" /></figure><ul><li><strong>Meta:</strong> verifica le notifiche in-app e la pagina privacy; se sei in <strong>UE</strong> <a href="https://www.facebook.com/privacy/genai/">segui la procedura indicata</a> per limitare l’uso dei tuoi dati e conserva le comunicazioni (ti suggerisco di seguire il link perchè la navigazione dall’app mobile o web spesso porta a risultati, diciamo ‘<em>opachi</em>’)<br><strong>Salva screenshot</strong> delle impostazioni e delle email ricevute.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/635/1*F4ohogSiXoJ3Ltk6A771RQ.png" /></figure><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*RV4Nyi38cZd6e0MSKrAJEQ.png" /></figure><h3>In conclusione: dovremmo poter scegliere all’inizio, non alla fine</h3><p>Molte piattaforme di intelligenza artificiale, quando vengono utilizzate in ambito aziendale, non impiegano automaticamente i dati degli account per addestrare i modelli. Per gli utenti privati, invece, questa pratica è spesso attiva di default, lasciando alle persone il compito di cercare come disattivarla. Una scelta che solleva più di una perplessità.</p><p>È vero che sarebbe auspicabile una maggiore consapevolezza da parte degli utenti, ma è altrettanto evidente che le aziende ricorrono a linguaggi complessi e a politiche sulla privacy estremamente lunghe, rendendo difficile orientarsi. Il fatto che l’<strong>opt‑out non sia l’impostazione predefinita</strong>, ma un’opzione nascosta tra molte altre, rappresenta già di per sé una forma di pressione poco trasparente.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*TJLRzKEsVpav_-1j2-EaaQ.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=19cf0ac290a7" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/come-bloccare-luso-dei-nostri-dati-per-allenare-l-intelligenza-artificiale-19cf0ac290a7">Come bloccare l’uso dei nostri dati per allenare l’Intelligenza Artificiale</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”]]></title>
            <link>https://webeconoscenza.gigicogo.it/come-i-chatbot-di-ia-stanno-trasformando-il-fotoritocco-nel-nuovo-photoshop-per-tutti-092d6f954740?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/092d6f954740</guid>
            <category><![CDATA[photoshop]]></category>
            <category><![CDATA[fotoritocco]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[nano-banana]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 11 Mar 2026 18:13:07 GMT</pubDate>
            <atom:updated>2026-03-11T18:13:06.227Z</atom:updated>
            <content:encoded><![CDATA[<h3>Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”.</h3><h4>Dalla cultura degli strumenti alla cultura dell’intento: perché descrivere una foto sta diventando più importante che saper usare un editor.</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*234QM6C786_5CFoy0n6blg.jpeg" /></figure><p>Immagina una foto di Venezia al tramonto: cielo rosa, monumenti sull’acqua, qualche gondola sullo sfondo.<br>È uno scatto importante a cui tieni e che purtroppo è rovinato da una gru, un passante in primo piano e altri elementi di disturbo che la rendono banale.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*-dwLpCG-l0xySdRB215eqg.jpeg" /></figure><p>Fino a ieri per sistemare quell’immagine servivano almeno due cose: un software come Photoshop e un minimo di competenza su <strong>livelli, maschere, curve, filtri </strong>(roba per iniziati o per professionisti).</p><p>Oggi, sempre più spesso, basta un chatbot: carichi la foto, scrivi “<em>togli il palo e la ragazza con il cappotto, esalta i riflessi sull’acqua e scalda i colori per un’atmosfera da cartolina</em>”. Poi aspetti qualche secondo et voilà, il chatbot ti genera una nuova foto trasformata. Forse migliorata (ma questo dipende, come sempre, dai gusti).</p><p>Quello che sta succedendo nel mondo dell’IA generativa è esattamente questo: <strong>il fotoritocco sta passando dalle mani di chi sa usare Photoshop a chiunque sappia descrivere, a parole, il risultato che vuole ottenere.</strong></p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FC5TcqgRHfkM%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DC5TcqgRHfkM&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FC5TcqgRHfkM%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/63c5190fa8e564af3fb289fadba2cfd0/href">https://medium.com/media/63c5190fa8e564af3fb289fadba2cfd0/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h4>Dalla cultura dello strumento alla cultura dell’intento</h4><p>Per anni il fotoritocco digitale è stato costruito intorno a un paradigma molto chiaro: prima impari lo strumento (che si tratti di Photoshop, Lightroom, Gimp o qualsiasi altro) poi assimili il suo <strong>vocabolario tecnico</strong> fatto di <strong>layer, maschere di livello, curve, HSL, clonazioni, dodge &amp; burn </strong>e<strong> s</strong>olo dopo potrai provare a tradurre il tuo <strong>intento creativo</strong> in una sequenza di operazioni.</p><p>Il vero collo di bottiglia, però, non è mai stata l’idea. Dire “<em>vorrei più atmosfera</em>” o “<em>ci sono troppe distrazioni</em>” è alla portata di chiunque. Il difficile era trasformare quell’intenzione in passaggi tecnici concreti, spesso complessi, che richiedevano tempo, studio e una certa manualità. È così che l’editing è diventato qualcosa che, se non proprio elitario, di certo <strong>non accessibile a tutti</strong>.</p><p>Con i chatbot multimodali questa logica si ribalta. Parti dall’intento (<em>“ripulisci la scena”, “enfatizza il tramonto”, “mantieni la pelle naturale”</em>) lo esprimi in <strong>linguaggio naturale</strong> e lasci che sia il modello a tradurlo in operazioni tecniche. Non devi più conoscere gli strumenti per ottenere il risultato: <strong>devi solo saper dire cosa vuoi</strong>.</p><h4>I chatbot ora “vedono” le foto (e le capiscono)</h4><p>La premessa tecnica è la <strong>multimodalità</strong>: i chatbot di nuova generazione non gestiscono più solo testo, ma anche immagini (e, sempre più spesso, audio e video) nello stesso flusso di conversazione.</p><p>Questo significa che puoi caricare una foto come allegato alla chiacchierata con il chatbot e chiedere allo stesso di <strong>descriverla</strong> (“<em>dimmi cosa vedi, cosa stona, cosa potrei migliorare</em>”) per poi passare alla <strong>fase di intervento</strong> (“<em>ora elimina gli elementi di disturbo e valorizza l’atmosfera del tramonto</em>”).</p><p>La chat diventa così un potentissimo <strong>strumento critico</strong> (ti aiuta a leggere la scena) e uno <strong>strumento operativo</strong> efficacissimo (applica modifiche concrete).</p><h3>Prova su strada</h3><p>La prima prova l’ho condotta <strong>dialogando direttamente con il chatbot</strong> per fasi. La fase iniziale si è concentrata sulle sottrazioni, ovvero l’eliminazione degli elementi di disturbo.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*Pmb6qJcuU0GiiEYRxdlkOg.png" /></figure><p>La fase successiva sul riequilibrio delle tonalità del cielo e della luce, nonché sull’illuminazione dei lampioni.</p><p>Insomma <strong>quasi un fake rispetto all’originale</strong>, ma l’intento divulgativo non è quello di fare un quadro da esposizione, o fingersi professionisti dello scatto perfetto, bensì quello di far comprenderne le potenzialità del chatbot.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/848/1*JseOvGdKrb0pqa1vLyZqDg.jpeg" /></figure><p>Non riporto l’intero dialogo con il chatbot perché renderebbe l’articolo illeggibile, ma vale la pena sottolineare che è sufficiente indicare cosa togliere e quale elemento vivacizzare usando termini semplici, che nulla hanno a che vedere con la <strong>terminologia dei professionisti dell’editing fotografico</strong>.</p><h3>ChatGPT + Photoshop: il professionista che si mette al tuo servizio</h3><p>Vediamo ora un altro approccio, quello <strong>applicativo</strong> che passa per una sinergia di fatto. Un passaggio chiave di questa evoluzione è stato l’accordo tra Adobe e OpenAI per <strong>sperimentare integrazioni conversazionali tra ChatGPT e i servizi Creative Cloud</strong>. Si tratta di una funzionalità ancora in fase sperimentale, con accesso e funzionalità parziali, ma già abbastanza matura da mostrare la direzione verso cui si sta andando.</p><p>Cosa significa in pratica?</p><p>Entri in ChatGPT, vai in <strong>Impostazioni → App -&gt; Esplora app e </strong>colleghi l’app di Photoshop.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/670/1*98jgEP47uAbsd8lUZLECNw.png" /></figure><p>Eseguendo questo piccolo settaggio il modello diventa di fatto <strong>l’interfaccia conversazionale dell’editing</strong>. Non modifica direttamente le immagini: interpreta la tua richiesta in linguaggio naturale e attiva le funzioni disponibili nei servizi cloud di Photoshop.</p><p>In pratica puoi descrivere ciò che vuoi fare con una frase semplice — ad esempio “r<em>imuovi le persone sullo sfondo</em>”, “<em>rendi il cielo più drammatico</em>” oppure “<em>scalda la luce del tramonto</em>”. Il sistema invia la richiesta ai servizi di Photoshop, esegue l’operazione e restituisce l’immagine modificata direttamente nella chat.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1019/1*If03Ay7aq8l8yci0XmG6gw.png" /></figure><h4>Perché è interessante anche per chi non sa usare Photoshop?</h4><p>Il primo vantaggio è evidente: <strong>non serve conoscere l’interfaccia del software</strong>. Molte operazioni che normalmente richiedono <em>pannelli, livelli </em>e<em> maschere </em>possono essere richieste semplicemente a parole.</p><p>In altre parole, ChatGPT diventa una sorta di <strong>interprete</strong> tra l’utente e gli strumenti professionali di Adobe.</p><p>Il secondo cambiamento riguarda il modo di lavorare. L’editing diventa <strong>iterativo e conversazionale</strong>. Non devi ottenere subito il risultato perfetto: puoi migliorarlo passo dopo passo con nuove richieste.</p><p>Per esempio: <em>“abbassa un po’ la saturazione” </em>o<em> “aumenta il contrasto del cielo”, </em>oppure <em>“ammorbidisci le ombre sugli edifici”.</em></p><p><strong>Il processo assomiglia più a un dialogo creativo</strong> che all’uso tradizionale di un software complesso.</p><h4>Attenzione però: non è Photoshop completo</h4><p>Qui conviene essere chiari per evitare aspettative sbagliate.</p><p>L’integrazione con ChatGPT espone <strong>solo una parte delle funzionalità di Photoshop</strong>. In chat puoi usare soprattutto:</p><ul><li>regolazioni globali di luce e colore</li><li>rimozione o modifica di elementi</li><li>alcuni effetti e miglioramenti visivi</li><li>interventi selettivi relativamente semplici</li></ul><p>Se invece devi fare lavori più sofisticati (composizioni complesse, gestione avanzata dei livelli, maschere dettagliate o ritocchi estremamente precisi) l’immagine va ancora aperta nel Photoshop tradizionale (desktop o web).</p><h4>I limiti meno evidenti dell’editing conversazionale</h4><p>Oltre alla riduzione delle funzioni, ci sono tre aspetti che spesso non vengono citati nelle guide.</p><p>Il primo è <strong>il controllo</strong>. Con i prompt hai meno precisione rispetto agli strumenti manuali: alcune modifiche richiedono più tentativi per arrivare esattamente all’effetto desiderato.</p><p>Il secondo è <strong>la prevedibilità del risultato</strong>. Il sistema interpreta il linguaggio naturale e quindi può produrre variazioni inattese. Non è raro dover rifinire il risultato con richieste successive.</p><p>Il terzo riguarda <strong>i workflow professionali</strong>. Flussi complessi basati su livelli, profili colore o file ad altissima risoluzione restano molto più gestibili dentro il Photoshop completo.</p><h4>In sintesi</h4><p><strong>L’editing conversazionale non sostituisce Photoshop. </strong>Ma cambia radicalmente il modo di accedere ai suoi strumenti.</p><p>Descrivere l’intervento a parole è spesso il modo più rapido per ottenere un buon risultato in molte attività quotidiane, come pulire una foto, migliorare luce e atmosfera, rimuovere elementi di disturbo o preparare immagini per social e presentazioni.</p><p>Per i lavori più complessi, invece, l’interfaccia tradizionale resta insostituibile.</p><h4>Prova su strada con ChatGpt e l’integrazione di Photoshop in chat</h4><p>Per ottenere risultati soddisfacenti nel test, ho chiesto a ChatGPT di aiutarmi a costruire un prompt efficace: interagendo in modo dialogico, gli ho chiesto di <strong>strutturarmi la richiesta ottimale</strong> da usare poi con l’integrazione Photoshop.</p><blockquote>Scrivimi il prompt perfetto per ottimizzare la foto allegata. Ovvero, vorrei eliminare elementi di disturbo come le persone in primo piano, la barca con la gru, le bancarelle, la gru sopra il palazzo, ecc. Poi rendere l’atmosfera più cool, ovvero atmosfera da tramonto sulla laguna. Scrivimi proprio il miglior prompt possibile per l’uso di Photoshop dentro ChatGPT, in modo che io possa ottenere un buon risultato.</blockquote><p>Di seguito l’output di ChatGpt pronto all’uso:</p><blockquote>Ripulisci questa fotografia mantenendo l’inquadratura originale.<br>1. Rimuovi tutti gli elementi di disturbo:<br>- elimina le persone in primo piano sulla scalinata e sulla balaustra<br>- elimina la barca con la gru sulla sinistra<br>- rimuovi le bancarelle e i chioschi sulla destra<br>- elimina la gru sopra il palazzo<br>- riduci drasticamente il numero di persone sulla piazza mantenendo solo poche figure lontane per dare scala alla scena</blockquote><blockquote>2. Ricostruisci realisticamente le aree rimosse:<br>- estendi la pavimentazione della piazza<br>- completa la linea del molo e dell’acqua<br>- ricrea il cielo e l’orizzonte in modo naturale<br>- mantieni coerente l’architettura veneziana e le prospettive originali</blockquote><blockquote>3. Migliora l’atmosfera generale:<br>- trasforma la scena in un tramonto caldo sulla laguna veneziana<br>- enfatizza la luce dorata del sole basso<br>- aumenta leggermente il contrasto tra cielo e architettura<br>- aggiungi riflessi caldi sull’acqua<br>- rendi il cielo più drammatico ma realistico, con nuvole illuminate dal tramonto</blockquote><blockquote>4. Mantieni un risultato fotografico realistico:<br>- niente effetto illustrato o artificiale<br>- colori naturali<br>- nitidezza equilibrata e luce morbida tipica della golden hour.</blockquote><p>Il risultato è visibile qui sotto. Il lavoro svolto dal chatbot integrato con Photoshop risulta indubbiamente interessante, soprattutto se confrontato con il tempo e le competenze che le stesse operazioni richiederebbero nell’applicazione tradizionale.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*BwacwQy7Z2ClK9m2JP1aFg.jpeg" /></figure><h3>Google Gemini: l’editor nativo dentro la chat</h3><p>Google ha scelto una strada diversa: invece di “portare dentro” uno strumento esterno (avrebbe potuto usare Snapseed, ad esempio), ha <strong>incorporato nativamente strumenti di editing nelle app Gemini</strong>.</p><p>Nel 2025 Gemini ha implementato un editor di immagini integrato nell’app, sia web che mobile, affiancato da un nuovo modello di editing sviluppato da Google DeepMind pensato per trasformazioni coerenti di persone, oggetti e sfondi: ottimizzato per mantenere la somiglianza quando si cambia abbigliamento, ambientazione o epoca di una persona, per amalgamare più foto in una scena coerente e per supportare modifiche a più turni, cioè una sequenza di richieste successive sulla stessa immagine.</p><p>Nella pratica, con Gemini ora puoi caricare una foto e chiedere “<em>rimuovi il palo sulla destra e il cestino in basso a sinistra</em>”, cambiare il cielo “<em>trasforma il cielo in un tramonto più drammatico, ma mantieni i riflessi realistici sull’acqua</em>”, fondere due foto “<em>unisci il mio ritratto con questo sfondo di Venezia, rispettando la luce del tramonto</em>”, modificare look e stile “<em>applica un look analogico anni ’70, con grana leggera e toni caldi</em>”, ecc.</p><p>Gemini è ottimizzato per:</p><ul><li>mantenere la “somiglianza” quando cambi abbigliamento, ambientazione o epoca di una persona,</li><li>amalgamare più foto in una scena coerente,</li><li>supportare modifiche a più turni, cioè una sequenza di richieste successive sulla stessa immagine.​</li></ul><p>Tutte le immagini create o modificate tramite Gemini vengono <strong>marcate con watermark</strong> (invisibili e, in alcuni casi, anche visibili) per indicare che sono passate da un processo di IA generativa. Un dettaglio tecnico importante, che torna utile quando si parla di etica e disinformazione.</p><h4>Dalla teoria alla pratica: cosa puoi fare davvero oggi</h4><p>Ecco alcuni <strong>prompt concreti</strong> che oggi possono funzionare con Gemini:</p><ul><li><strong>Pulizia della scena</strong><br>“<em>Rimuovi tutti gli oggetti che distraggono in primo piano (cestini, pali, persone sfocate) e mantieni solo gondole, palazzi e laguna</em>.”</li><li><strong>Atmosfera da cartolina</strong><br>“<em>Aumenta leggermente la saturazione dei colori, scalda il bilanciamento del bianco e aggiungi un tocco di contrasto locale per enfatizzare i dettagli dei palazzi, senza rovinare i riflessi sull’acqua</em>.”</li><li><strong>Versione social‑ready</strong><br>“<em>Ritaglia l’immagine in formato verticale 4:5 per Instagram, centrando il canale. Aggiungi un leggero vignettatura ai bordi per guidare lo sguardo verso il centro.</em>”</li><li><strong>Esperimento creativo</strong><br>“<em>Applica un look analogico anni ’70, con grana fine e colori leggermente sbiaditi, mantenendo però il cielo del tramonto vivido</em>.”</li><li><strong>Serie coerente di scatti quando hai più foto della stessa passeggiata</strong><br>“<em>Applica lo stesso stile cromatico e il medesimo contrasto a tutte queste foto, in modo che sembrino parte dello stesso racconto di viaggio.</em>”</li></ul><p>L’utente ragiona per <strong>intenzioni narrative e percettive</strong>, non per strumenti tecnici. Il chatbot diventa una sorta di <strong>assistente di post‑produzione a cui dare istruzioni ad alto livello</strong>.</p><h4>Prova su strada con Gemini</h4><p>Anche in questo caso ho usato lo stesso approccio: ho chiesto a ChatGPT di aiutarmi a costruire il prompt da inviare poi a Gemini. Il confronto tra i due test è utile non tanto per valutare i risultati estetici, quanto per capire come piattaforme diverse interpretino le stesse istruzioni.</p><blockquote>Ottimizza questa foto come se fosse destinata a una rivista di viaggio.</blockquote><blockquote>Rendi la scena più pulita e leggibile eliminando gli elementi più distraenti<br>in primo piano, ma mantieni alcune persone lontane per dare vita alla scena.</blockquote><blockquote>Migliora la luce del tramonto rendendo il cielo più caldo e la laguna<br>leggermente più luminosa, con riflessi naturali sull’acqua.</blockquote><blockquote>Aumenta la profondità atmosferica tra primo piano, piazza e skyline<br>in modo che l’occhio venga guidato verso la basilica sullo sfondo.</blockquote><blockquote>Mantieni colori realistici e uno stile fotografico naturale,<br>non artificiale.</blockquote><figure><img alt="" src="https://cdn-images-1.medium.com/max/869/1*bKgWJuKLyGFei4uQ2Sm6_A.png" /></figure><p>Il risultato è significativo e mostra come questi strumenti permettano a chiunque di sperimentare stili e atmosfere in modo accessibile. Da notare il watermark visibile in basso a sinistra, inserito automaticamente da Gemini per segnalare l’intervento dell’IA generativa.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/896/1*Z0rKBW9CSSUtl2G7H7Lmwg.png" /></figure><h3>I limiti (molto concreti) del fotoritocco via chat</h3><p>Il fotoritocco via chat è un’innovazione interessante, ma non è ancora un sostituto completo di programmi professionali come Photoshop.</p><p>Offre funzioni di base come regolazioni, rimozione di elementi e qualche effetto, ma non riesce a gestire composizioni complesse, ritocchi avanzati della pelle o file ad alta risoluzione per la stampa.</p><p>Inoltre, strumenti come Gemini possono dare risultati strani, con proporzioni sbagliate o dettagli incoerenti, mentre il controllo preciso, pixel per pixel, rimane possibile solo con i programmi tradizionali.</p><p>Ci sono poi problemi di latenza, piccoli errori e dipendenza da internet: bisogna avere una buona connessione e i risultati possono cambiare nel tempo.</p><p>In sintesi: il fotoritocco via chat <strong>abbassa notevolmente la soglia di accesso </strong>alle modifiche più comuni, ma <strong>non sostituisce le competenze professionali </strong>né le funzionalità avanzate dei programmi tradizionali, che restano necessari per composizioni complesse, ritocchi precisi e file ad alta risoluzione destinati alla stampa.</p><h3>Rischi, deepfake e watermark: il lato oscuro della democratizzazione</h3><p>Mettere nelle mani di chiunque strumenti in grado di incidere così pesantemente sulle immagini originali, significa anche abbassare drasticamente la soglia per produrre<strong> immagini ingannevoli</strong>.</p><p>Per questo alcuni attori stanno introducendo contromisure:</p><ul><li>Google applica un <strong>watermark</strong> SynthID alle immagini generate o modificate con Gemini, per segnalarne l’origine artificiale.</li><li>Adobe e altri player stanno lavorando su standard aperti di <strong>Content Credentials</strong>, per allegare ai file metadati sulla loro storia di editing.</li></ul><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F9btDaOcfIMY%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D9btDaOcfIMY&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F9btDaOcfIMY%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/4b9f07b2b62a906ab12e7f31bc94c91c/href">https://medium.com/media/4b9f07b2b62a906ab12e7f31bc94c91c/href</a></iframe><p>Ma la tecnologia non basta: serve una nuova <strong>alfabetizzazione visiva</strong>.<br>Così come abbiamo imparato, negli anni, a diffidare di certe fonti online, dovremo imparare a chiederci: questa foto è plausibile? da dove arriva? è chiaramente dichiarata come composita o generata?</p><p>Paradossalmente, la stessa facilità che rende possibile “pulire” la foto di Venezia al tramonto per un post Instagram, rende altrettanto facile costruire <strong>una Venezia che non è mai esistita</strong>. E questo incrementa diffidenza, sfiducia, e soprattutto tanto Ai slop!<br>A rifletterci bene, una volta ci accontentavamo dei nostri scatti. <strong>Ora, non più!</strong></p><h3>Prompt design visivo: la nuova “grammatica” del fotoritocco</h3><p>Dentro questo scenario, il <strong>prompt design</strong> diventa la nuova grammatica del fotoritocco. Non siamo più costretti a studiare curve, livelli e maschere, ma impariamo a scrivere richieste chiare, contestualizzate, iterabili.</p><p>I principi che valgono già per il testo (chiarezza, obiettivi espliciti, contesto, passo‑passo) si applicano anche alle immagini: invece di “<em>migliora la foto</em>”, dobbiamo imparare a usare “<em>rimuovi gli oggetti di disturbo in primo piano, poi rendi i colori leggermente più caldi e aumenta il contrasto locale sui palazzi all’orizzonte</em>”.</p><p>In fondo si tratta di nuova forma di <strong>alfabetizzazione visiva‑testuale</strong>: saper leggere e saper istruire le macchine che trasformano le immagini.</p><h3>Cosa cambia per fotografi, content creator e “persone normali”</h3><p>Per i professionisti dell’immagine, questi strumenti possono essere un <strong>acceleratore</strong> (batch editing conversazionale, mockup rapidi, versioni multiple da proporre al cliente), ma anche una <strong>pressione competitiva</strong> sul mercato delle lavorazioni più semplici, che rischiano di essere assorbite dal “fai da te guidato”.</p><p>Per creator, blogger e comunicatori non specialisti, rappresentano un modo per <strong>alzare rapidamente l’asticella della qualità visiva</strong> senza diventare tecnici, permettono di sperimentare stili, atmosfere e layout in modo molto più agile, lasciando al professionista le lavorazioni veramente critiche.</p><p>Per le “persone normali senza rudimenti tecnici”, infine, la grande novità è psicologica: smettere di pensare al fotoritocco come qualcosa di “magico” e riservato a pochi e iniziare a percepirlo come <strong>prosecuzione della conversazione</strong> con il proprio assistente digitale.</p><h3>Conclusione: una nuova intimità con le immagini</h3><p>La foto di Venezia al tramonto e le sue trasformazioni con l’IA (al netto dei gusti) è un buon esempio di questo momento storico.</p><p>Da un lato c’è l’esperienza classica: esportare il RAW, aprirlo in un editor, lavorare con livello di contrasto, curve, maschere di luminanza.<br>Dall’altro c’è l’esperienza emergente: caricare la foto in una chat, raccontare cosa vuoi, rifinire per iterazioni.</p><p>In mezzo, ci siamo noi a dover imparare un nuovo linguaggio per dialogare con gli strumenti, a <strong>decidere quando basta il “buon abbastanza” dell’IA e quando vale la pena coinvolgere un occhio (e una mano) esperto</strong>, a sviluppare nuovi anticorpi critici contro immagini sempre più facili da manipolare.</p><p>Se la fase “Photoshop per tutti” aveva abbassato la soglia di accesso al fotoritocco, la fase “Photoshop via chatbot” la sta praticamente azzerando.<br>La sfida, adesso, non è più solo <strong>come</strong> migliorare le nostre foto, ma <strong>con quale consapevolezza</strong> scegliamo di farlo.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=092d6f954740" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/come-i-chatbot-di-ia-stanno-trasformando-il-fotoritocco-nel-nuovo-photoshop-per-tutti-092d6f954740">Come i chatbot di IA stanno trasformando il fotoritocco nel nuovo “Photoshop per tutti”</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Alla ricerca della sovranità digitale: Il Fediverso e l’AI che non vive solo in America]]></title>
            <link>https://webeconoscenza.gigicogo.it/alla-ricerca-della-sovranit%C3%A0-digitale-il-fediverso-e-lai-che-non-vive-solo-in-america-65667b5e83b4?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/65667b5e83b4</guid>
            <category><![CDATA[fediverso]]></category>
            <category><![CDATA[ente]]></category>
            <category><![CDATA[open-source]]></category>
            <category><![CDATA[ensu]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 04 Mar 2026 19:01:55 GMT</pubDate>
            <atom:updated>2026-03-04T19:01:53.716Z</atom:updated>
            <content:encoded><![CDATA[<h4><strong>Da Ente ed Ensu: ho provato un altro chatbot locale (ibrido e multilaterale)</strong></h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*UMjUCWYpKAlK_Q7bX2e3fg.png" /></figure><p>Da qualche anno uso <a href="https://ente.io">Ente</a> per archiviare le mie foto: un servizio cloud open source che mette al centro la privacy e la cifratura, e si integra con piattaforme del <a href="https://fediverso.info/#info">Fediverso</a>. <a href="https://ente.io">Ente</a> Photos non è infatti un social per scoprire contenuti ma <strong>un luogo per il backup sicuro e la condivisione selettiva</strong>: album privati, link seguibili per chi scegliete e integrazione opzionale con <a href="https://mastodon.social/@gigicogo">Mastodon</a>, <a href="https://pixelfed.uno/gigicogo">PixelFed</a> e altre piattaforme quando decidete di rendere pubbliche alcune raccolte.</p><p>A differenza di PixelFed, pensato come alternativa etica a Instagram per visibilità e scoperta, <strong>Ente privilegia il controllo e la riservatezza</strong>, offrendo trasparenza grazie all’open source.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*qswqe52QD-pa9ep4ofh-Kw.jpeg" /><figcaption>Ente Photos</figcaption></figure><p>Questa premessa mi è utile per contestualizzare la scoperta di <a href="https://ente.io/ensu/">Ensu</a> (app ingegnerizzata da Ente) come naturale estensione di una pratica consolidata di <strong>tutela dei dati e di preferenza per strumenti decentralizzati</strong>, non come un esperimento casuale: se scrivo e parlo spesso di sovranità digitale e AI generativa è perché mi pongo una domanda semplice e decisiva: <em>voglio restare un consumatore passivo di tecnologie statunitensi o cinesi, oppure voglio abitare un ecosistema in cui anche l’Europa e i progetti indipendenti possano contare?</em></p><p>Ed è lo stesso filo che attraversa il mio <a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranità-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">recente articolo</a> su EU vs USA/Cina: <strong>chi controlla infrastrutture, modelli e dati finisce per condizionare pezzi importanti del nostro futuro digitale</strong>; a partire da qui, vale la pena esplorare che ruolo potrà avere <a href="https://ente.io/ensu/">Ensu</a> nel rafforzare alternative sovrane e quale impatto pratico tutto ciò potrà determinare per gli utenti, gli sviluppatori e i policy maker!</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FJU2DQ9bjAJI%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DJU2DQ9bjAJI&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FJU2DQ9bjAJI%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/5c42bfb3407a241b5f5a62556bc27c88/href">https://medium.com/media/5c42bfb3407a241b5f5a62556bc27c88/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Perché non è solo una questione tecnica</h3><p>Quando parliamo di AI, cloud o social network, spesso riduciamo tutto a “funziona bene?”, “è gratis?”, “è comodo?”. In realtà ogni scelta tecnologica è anche una scelta politica ed economica, che lo vogliamo o no.</p><p>Proprio <a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranità-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">nell’ articolo precedente sulle AI europee</a>, ricordavo un dato: <strong>circa l’80% della spesa in software e servizi cloud professionali in Europa finisce comunque in aziende statunitensi</strong>. Non è solo un problema di fatture: s<strong>ignifica che documenti, processi, idee e strategie aziendali finiscono dentro infrastrutture e modelli gestiti altrove</strong>. Anche quando i contratti dicono che i dati non verranno riutilizzati per l’addestramento, restano tre fatti difficili da ignorare: <strong>i server sono altrove, le decisioni strategiche sono altrove, l’evoluzione dei modelli è altrove.</strong></p><p>In questo contesto, scegliere strumenti europei, open source, o comunque strutturati per ridurre la dipendenza da pochi fornitori globali non è <strong>feticismo tecnicista</strong>: è un modo concreto per spostare anche di poco gli <strong>equilibri di potere</strong>.</p><h3>Chi è Ente: una via “privacy‑first” (con tutte le sue ambiguità)</h3><p><a href="https://ente.io">Ente</a>, l’azienda dietro il servizio che uso per le foto e ora dietro l’app <a href="https://ente.io/ensu/">Ensu</a>, è a tutti gli effetti una società statunitense registrata nel Delaware, Ente Technologies, Inc. Questo vuol dire che, sul piano giuridico, ricade nella sfera di influenza USA e delle sue leggi, incluso il famigerato <a href="https://it.wikipedia.org/wiki/CLOUD_Act">CLOUD Act</a> che può imporre la consegna di alcuni dati a fronte di ordini delle autorità.</p><p>Eppure <a href="https://ente.io">Ente</a> ha fatto scelte molto diverse da quelle tipiche delle grandi piattaforme:</p><ul><li>Archivia i dati cifrati in data center europei (Amsterdam, Francoforte, Parigi), con più copie ridondate.</li><li>Cifra “da un capo all’altro”: foto, metadati, persino i dati biometrici usati per riconoscere i volti sono leggibili solo sui dispositivi degli utenti, non sui server.</li><li>Non basa il proprio modello di business sulla pubblicità: vive di abbonamenti e dichiara esplicitamente di non vendere dati personali né usare cookie di tracciamento.</li><li>Ha reso open source client e server, consentendo a terzi di studiare, verificare e perfino auto‑ospitare parte dell’infrastruttura.</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*vX3AIzMlJtW7Z8xzuwHrLg.png" /></figure><p>Questa combinazione crea una tensione interessante: da un lato un’azienda americana soggetta al diritto USA, dall’altro un’architettura tecnica che minimizza ciò che il provider stesso può leggere dei nostri contenuti. <strong>È una risposta parziale al problema della sovranità, ma è già molto più avanzata di tanti servizi “chiavi in mano” nati per monetizzare i dati degli utenti</strong>.</p><h3>Che cos’è Ensu: un chatbot locale, non un altro “piccolo ChatGPT”</h3><p>Su questo terreno è nata <a href="https://ente.io/ensu/">Ensu</a>, la nuova app di Ente: in pratica un chatbot di AI che gira interamente sul tuo dispositivo, senza inviare le conversazioni a server remoti (avevo già scritto di questa modalità in un lungo tutorial divulgativo).</p><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-sul-tuo-computer-nessun-dato-condiviso-in-rete-c1c88d181cd3">IA generativa sul tuo computer: nessun dato condiviso in rete!</a></p><p>È possibile installare <a href="https://ente.io/ensu/">Ensu</a> per il computer, per lo smartphone, o farla girare semplicemente nel browser. Tutte le opzioni sono disponibili dalla pagina ufficiale e, una volta scelta la modalità di utilizzo, <a href="https://ente.io/ensu/">Ensu</a> proporrà di di scaricare il suo LMM dal peso di qualche gigabyte. Da quel momento possiamo farlo lavorare anche offline: <strong>nessun account obbligatorio, niente abbonamento, niente tracking dichiarato</strong>.<br>Ensu usa modelli linguistici open source ottimizzati per girare in locale (famiglie come SmolLM, Qwen, Llama), scelti in base alle capacità del dispositivo (sotto il cofano il team sta sperimentando con più famiglie di modelli). È stato ottimizzato per la <strong>privacy</strong> e la <strong>performance</strong>, con particolare attenzione alla gestione dei dati utente.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/847/1*GWquSl8M46Pj8W6ODGhlRw.png" /></figure><p>Se pensiamo a ChatGPT o ad altri servizi simili, lo schema è opposto: tu scrivi, i tuoi prompt viaggiano verso grandi data center, un modello gigantesco elabora la risposta e te la rimanda indietro. Con <a href="https://ente.io/ensu/">Ensu</a> è il telefono, il portatile o il tablet a fare il lavoro in casa tua, con un modello molto più piccolo ma che <strong>vive completamente sul dispositivo</strong>.</p><p>Gli stessi sviluppatori lo dicono senza giri di parole: Ensu non è potente quanto ChatGPT o Claude, almeno per ora. È un esperimento dichiarato, targato “Ente Labs”, che prova a rispondere a una domanda: <strong>fino a che punto è possibile avere un assistente AI tascabile, privato e senza cloud?</strong></p><h3>La mia “prova su strada”: com’è usare Ensu davvero</h3><p>Immaginiamo allora di fare quello che ho fatto con tanti altri strumenti: installarlo, usarlo per qualche giorno e vedere che risultati produce.</p><p>Come abbiamo visto l’installazione è molto semplice: scarico l’app e al primo avvio Ensu mi propone di scaricare il modello linguistico. Aspetto qualche minuto (dipende dalla connessione), e poi mi ritrovo in una schermata molto simile a quella di qualsiasi altro chatbot: campo di testo in basso, cronologia della chat sopra. Nessuna registrazione obbligatoria (quando attiveranno il back-up delle chat si potrà optare per l’accesso con credenziali), nessuna finestra che mi chiede di accettare termini di condivisione dei dati con terzi: già questo, <strong>per chi ha passato ore a districarsi tra cookie banner e consensi, è quasi straniante</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*4WiTulpx6IbXdU0cWwGeSA.png" /></figure><p>Nei primi scambi l’impressione è duplice. Da un lato, per compiti semplici: chiarire un dubbio, riassumere un concetto, riformulare un testo, Ensu se la cava dignitosamente. Dall’altro, appena alzo l’asticella, il limite emerge: <strong>quando provo a chiedere analisi più profonde, collegamenti complessi, o quando entro in domini molto specifici, noto risposte più vaghe, qualche imprecisione in più rispetto ai grandi modelli cloud</strong>.</p><p>E’ utile ricordare che, per ora, il modello rilasciato non esegue ricerche web in stile ‘deep research’, come dichiarato nel blog di Ente: ‘<em>Ensu currently doesn’t have web search, but you’ll be surprised how well it knows classics like the Gita or the Bible</em>’.</p><p>In compenso scopro situazioni in cui Ensu brilla proprio perché è locale:</p><ul><li>In viaggio, con connessione instabile, posso comunque lavorare sui miei testi, fare brainstorming o sintetizzare appunti.</li><li>Posso usarlo per contenuti che preferisco non inviare a servizi remoti: bozze delicate, note personali, ragionamenti ancora in embrione.</li><li>Posso persino farlo girare in modalità aereo: niente rete, solo il mio device e il modello.</li></ul><p>In altre parole, Ensu non sostituisce i “mostri sacri” del cloud quando mi serve il massimo della potenza, ma apre un nuovo spazio d’uso: <strong>quello dell’AI come taccuino privato, sempre con me, che non deve necessariamente passare da server dall’altra parte dell’oceano</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*dCfAXhZ97uVS_fB-nn70eA.png" /></figure><h3>Localizzazione, data center e politica dei luoghi</h3><p>A questo punto qualcuno potrebbe obiettare: ma se Ente è pur sempre un’azienda USA, che differenza fa usare Ensu rispetto a un qualsiasi servizio americano?</p><p>La risposta sta in due livelli diversi:</p><ol><li><strong>Dove girano i modelli e dove stanno i dati.</strong> Nel caso di Ensu i prompt e le risposte restano sul dispositivo, almeno finché non attiveranno (su base volontaria) una sincronizzazione cifrata tra più device appoggiandosi ai server di Ente e utilizzando dunque un’ autenticazione utente. <br>Nel caso di Ente Photos, ad esempio, i file sono cifrati e stoccati in data center europei. Non è la stessa cosa che usare direttamente un servizio dove tutto avviene su server statunitensi in chiaro o quasi. Quindi la speranza è che succeda più o meno la stessa cosa, con lo stesso approccio che, riduce molto l’impatto pratico del Cloud Act sui contenuti, perché ciò che Ente può consegnare sono log e blob cifrati, non il testo delle chat o le foto.</li><li><strong>Chi può imporre cosa.</strong> Essendo una corporation del Delaware, Ente può comunque ricevere ordini dalle autorità USA per fornire log, metadati, informazioni sugli account. Ma, proprio perché ha strutturato la sua infrastruttura in modo da non avere accesso ai contenuti in chiaro, quello che può consegnare è molto più limitato: non il testo delle mie chat, non le mie foto, ma al massimo informazioni su quando mi collego, quale piano uso, quali errori tecnici si verificano.</li></ol><p>Qui torna il tema della sovranità digitale: non è mai una questione binaria (“o tutto europeo o niente”), ma uno spettro. Strumenti come Ente ed Ensu non risolvono il problema alla radice, <strong>non trasformano magicamente un’azienda USA in un ente di diritto europeo</strong>, ma spostano l’ago della bilancia verso modelli in cui <strong>i contenuti sensibili non dipendono dalla buona volontà del fornitore o del suo paese di origine, bensì dalla crittografia e dalla località dell’esecuzione</strong>.</p><h3>Fediverso, open source e “AI di quartiere”</h3><p>Quando parliamo di <a href="https://fediverso.info/#info">Fediverso</a> pensiamo spesso a social network decentralizzati: tante isole collegate tra loro, invece di un unico continente dominato da una sola piattaforma. Ma la stessa logica può valere per l’AI: <strong>avere tanti modelli, servizi e infrastrutture interoperabili, invece di pochi colossi centralizzati.</strong></p><p>Ente si muove a metà strada: non è un progetto comunitario puro, ma ha abbracciato l’open source per il proprio codice e <strong>l’idea che le persone possano auto‑ospitare i servizi o, almeno, verificare come funzionano “sotto il cofano”</strong>. Ensu porta questa filosofia dentro il mondo dei chatbot: invece di dire “<em>collegati ai nostri server, ci pensiamo noi</em>”, dice “<em>prenditi questo modello, fallo girare in casa tua e usalo come preferisci</em>”.</p><p>In parallelo, in Europa stanno nascendo attori che spingono ancora più in là questa logica: Mistral, Aleph Alpha, Domyn, infrastrutture come quelle di Infomaniak o Proton che insistono sulla localizzazione europea dei data center e su modelli addestrati e gestiti dentro il perimetro europeo. Nessuno di questi progetti da solo “salva” la sovranità europea, <strong>ma tutti insieme iniziano a disegnare il contorno di una possibile “AI di quartiere”, più vicina geograficamente, giuridicamente e culturalmente.</strong></p><h3>Collegare l’esperienza individuale alle scelte di continente</h3><p>Tutto questo ha senso solo se riusciamo a collegare il gesto più banale ( installare una nuova app di chatbot sul telefono) alle dinamiche più grandi che ho provato a raccontare parlando di AI Act e di ecosistema europeo.</p><p>L’AI Act non è una legge scritta per addetti ai lavori: chiede, molto semplicemente, che chi sviluppa e usa sistemi di AI sappia dove stanno i dati, come vengono trattati, quali rischi comportano e quali tutele sono previste per le persone. In un mondo in cui i grandi modelli generalisti restano in gran parte extra‑UE, una delle poche leve che abbiamo è scegliere, ogni volta che possiamo, strumenti che riducono la distanza tra noi e l’infrastruttura: localizzazione dei data center, cifratura forte, possibilità di eseguire i modelli in casa nostra, codice verificabile.</p><p>Provare Ensu, in questo quadro, non è questione di feticismo da smanettoni: <strong>è un modo per sperimentare in prima persona cosa significa avere un assistente AI che non vive in un data center lontano, ma nel nostro dispositivo</strong>. È imperfetto, è meno brillante dei fratelli maggiori nel cloud, ma ci costringe a fare una domanda diversa: <strong>quanto valore siamo disposti a scambiare per qualche punto percentuale in più di “wow effect”?</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/688/1*36_dBTGB0pdg3AR7KiFDkg.jpeg" /><figcaption>Ensu su Iphone</figcaption></figure><h3>Cosa mi porto a casa da Ensu (e cosa può portarsi a casa chi legge)</h3><p>Se dovessi riassumere in poche righe cosa rappresenta per me Ensu, direi così:</p><ul><li>È un assaggio di come potrebbe essere un’<strong>AI personale</strong>, non solo “as a service”: un agente che gira sui miei device, che non manda tutto a casa di altri, che può un giorno ricordarsi davvero di me in modo cifrato e sincronizzato.</li><li><strong>È una prova concreta che esiste spazio per un ecosistema di strumenti che non dipendono totalmente dalle infrastrutture e dai modelli di pochi grandi fornitori globali.</strong></li><li>È anche un promemoria dei limiti attuali: i modelli piccoli locali oggi non reggono il confronto con i giganti del cloud su tutti i fronti, e l’Europa ,come continente, è ancora <strong>lontana dall’avere una filiera completa totalmente autonoma.</strong></li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*YjQm3es9uSYXeqUYLPHaVg.png" /></figure><h3>Conclusione</h3><p>Ente ed Ensu non sono la risposta definitiva, ma sono buoni compagni di viaggio per chi, come me, vuole almeno provare a spostare il baricentro: meno “<em>AI degli altri, ovunque nel mondo</em>”, più “<em>AI nostra, locale, verificabile</em>”.</p><p>Riconoscere che ogni scelta di strumento implica una decisione strategica sulla destinazione dei dati, sull’accesso autorizzato e sull’influenza sul futuro digitale rappresenta un valore fondamentale e imprescindibile a cui, io, <strong>non sono disposto a rinunciare</strong>. E tu?</p><h3>Allegati</h3><p><a href="https://drive.google.com/file/d/1-AsPhpRlRPVHOzOaA4hS0raWUDDLjkv5/view?usp=sharing">Paper tecnico</a> elaborato con Gemini.</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=65667b5e83b4" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/alla-ricerca-della-sovranit%C3%A0-digitale-il-fediverso-e-lai-che-non-vive-solo-in-america-65667b5e83b4">Alla ricerca della sovranità digitale: Il Fediverso e l’AI che non vive solo in America</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[AI europee: sovranità digitale, AI Act e nuovi modelli]]></title>
            <link>https://webeconoscenza.gigicogo.it/ai-europee-sovranit%C3%A0-digitale-ai-act-e-nuovi-modelli-ae8572c2b020?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/ae8572c2b020</guid>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[eu-ai-act]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[sovranità-digitale]]></category>
            <category><![CDATA[ai]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Wed, 25 Feb 2026 21:22:21 GMT</pubDate>
            <atom:updated>2026-02-25T21:22:20.511Z</atom:updated>
            <content:encoded><![CDATA[<h4>Da Mistral ad Aleph Alpha, da DeepL a Infomaniak: come l’Europa sta costruendo una via propria all’Intelligenza Artificiale (oltre la rincorsa a USA e Cina).</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*9McZ2Dg_SAF500Uz9D7mbA.png" /></figure><p>Quando si affronta il tema dell’Intelligenza Artificiale generativa e della sua evoluzione, la riflessione tende a focalizzarsi prevalentemente sugli Stati Uniti e sulla Cina, con aziende come OpenAI, Google e Anthropic da un lato, e Alibaba e Baidu dall’altro. Questo orientamento, purtroppo, sembra aver già definito il dibattito pubblico in materia e soprattutto il suo perimetro territoriale.</p><p>E l’Europa?</p><p>La risposta più onesta non è né trionfalistica né catastrofica. <strong>L’Europa non è assente, ma non sta giocando la stessa partita</strong>, e forse non dovrebbe nemmeno farlo.</p><p>Negli ultimi anni, si sta sviluppando un ecosistema, seppur ancora in fase embrionale, che si propone di tracciare un proprio percorso all’interno dei confini europei. Questo ecosistema comprende modelli linguistici sviluppati in Francia e Germania, startup specializzate nel Regno Unito, infrastrutture cloud locali e progetti nazionali di LLM sovrani, il tutto all’interno di un quadro normativo distintivo, e a mio parere eccellente, a livello globale: l’<strong>AI Act</strong>.</p><p>La domanda, tuttavia, non è se noi europei riusciremo a <em>battere</em> gli Stati Uniti. La vera questione è se desideriamo <strong>restare semplici consumatori di tecnologie altrui</strong> o diventare produttori (e regolatori) consapevoli del nostro futuro digitale.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un videopodcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F8Hl8yBo5du0%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D8Hl8yBo5du0&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F8Hl8yBo5du0%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/60ce1a1475612a3f16d556c2eb140a5f/href">https://medium.com/media/60ce1a1475612a3f16d556c2eb140a5f/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Perché l’Europa non può limitarsi a usare l’AI degli altri</h3><p>Oggi la quasi totalità dei modelli generativi utilizzati da aziende e pubbliche amministrazioni europee è sviluppata e controllata fuori dall’Unione. Non è un dettaglio tecnico: <strong>è una scelta industriale, anche quando non la percepiamo come tale.</strong></p><p>Secondo il rapporto di Cigref sulla dipendenza tecnologica europea, circa l’80% della spesa in software e servizi cloud professionali in Europa è assorbita da aziende statunitensi.</p><p><a href="https://www.cigref.fr/la-dependance-technologique-aux-softwares-cloud-services-americains-une-estimation-des-consequences-economiques-en-europe">La dépendance technologique aux softwares &amp; cloud services américains : une estimation des conséquences économiques en Europe - Cigref</a></p><p>Nel caso dell’AI il tema è ancora più sensibile. Non stiamo semplicemente acquistando licenze: <strong>stiamo inserendo nei sistemi esterni documenti, processi, analisi strategiche, frammenti di conoscenza industriale</strong>. Anche quando i contratti escludono formalmente il riuso dei dati per addestramento, l’asimmetria resta.</p><p>I modelli evolvono altrove, le infrastrutture sono altrove, le decisioni strategiche sono altrove.<br>Non è una questione di sfiducia. <strong>È una questione di struttura del mercato.</strong></p><h3>I nuovi campioni europei dell’IA generativa</h3><p>Negli ultimi tre anni è emerso un nucleo di attori che non si limita a integrare tecnologie straniere, ma sviluppa modelli e infrastrutture proprie.</p><p>Il caso più noto è <a href="https://mistral.ai/it">Mistral AI</a>, oggi il riferimento europeo sui modelli di frontiera. L’azienda francese ha rilasciato modelli open, affiancandoli a soluzioni proprietarie. Nel 2024 ha raccolto circa 385 milioni di euro da investitori privati, raggiungendo una valutazione superiore ai 6 miliardi di euro. In altre parole, il mercato oggi considera Mistral una delle aziende tecnologiche più promettenti d’Europa. È il primo tentativo europeo veramente competitivo nel campo dei modelli di base.</p><p>Accanto a Mistral c’è <a href="https://aleph-alpha.com">Aleph Alpha</a>, che ha scelto una strada diversa. Nata con ambizioni da <em>OpenAI europea</em>, ha progressivamente orientato il proprio posizionamento verso AI sovrana per pubbliche amministrazioni, difesa e settori regolamentati. Il focus non è tanto sulla grandezza del modello, quanto sulla possibilità di installare i modelli direttamente sui server dell’organizzazione, senza far uscire i dati all’esterno, e con particolare attenzione al rispetto delle normative europee.</p><p>Un esempio di eccellenza più silenziosa ma estremamente concreta è <a href="https://www.deepl.com/it">DeepL</a>. Partita come motore di traduzione neurale, è diventata una piattaforma linguistica avanzata per imprese. Qui emerge una delle vere forze europee: <strong>il multilinguismo strutturale</strong>. In un continente con 24 lingue ufficiali, la competenza linguistica non è un dettaglio ma un vantaggio competitivo.</p><p>Nel Regno Unito c’è <a href="https://www.synthesia.io">Synthesia</a>, che trasforma un testo in un video con un presentatore virtuale. Scrivi, scegli la lingua, e l’avatar parla per te. È diventato uno strumento quotidiano per molte aziende.</p><p>E poi c’è <a href="https://stability.ai">Stability AI</a>, che con <a href="https://stablediffusionweb.com/it">Stable Diffusion</a> ha contribuito a democratizzare la creazione di immagini generate dall’AI, togliendola dal monopolio delle grandi piattaforme chiuse. Anche se l’azienda sta vivendo una fase di riorganizzazione, il suo contributo all’ecosistema europeo è stato decisivo.</p><p>In Italia si muove <a href="https://www.domyn.com/it">Domyn</a>, impegnata nella costruzione di LLM sovrani con partnership tecnologiche e supporto istituzionale. È ancora un progetto in consolidamento, ma segnala che <strong>il tema della sovranità AI non è più solo retorica politica</strong>.</p><p>E poi c’è l’infrastruttura, spesso trascurata nel dibattito pubblico. Realtà come <a href="https://www.infomaniak.com/it/euria">Euria</a> di Infomaniak o <a href="https://lumo.proton.me">Lumo</a> di Proton, dimostrano che la sovranità non riguarda solo il modello, ma anche il luogo fisico in cui gira: data center europei, alimentazione da rinnovabili, recupero del calore, governance locale. Senza infrastruttura, parlare di indipendenza è puramente simbolico.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*bZG-1RUiz-UMzQQwgCwIkQ.png" /></figure><h3>Un ecosistema diverso da quello americano e cinese</h3><p>È facile trasformare il tema in una narrazione <strong>noi contro loro</strong>. Ma sarebbe una semplificazione.<br>Gli Stati Uniti dispongono di capitali di rischio enormi, un mercato interno omogeneo e Big Tech che fungono da piattaforme globali. La Cina opera con una forte integrazione tra Stato e industria e con un coordinamento strategico centralizzato.</p><p>L’Europa è un’altra cosa: <strong>27 sistemi giuridici coordinati, forte attenzione alla regolazione, minore disponibilità di capitale ad alto rischio, cultura politica orientata alla tutela dei diritti</strong>. Non è detto che uno di questi assetti sia migliore in assoluto. Sono architetture istituzionali differenti, che producono traiettorie tecnologiche differenti.</p><p>L’AI europea si concentra soprattutto sulle aziende che vendono ad altre aziende, sui settori con molte regole, sul rispetto delle normative e sulla possibilità di tracciare tutto. Non perché manchi ambizione, ma perché il contesto economico e normativo la spinge in quella direzione.</p><h3>AI Act: cosa cambia davvero per chi usa l’AI</h3><p>Con l’approvazione dell’AI Act (<a href="https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:L_202401689">Regolamento UE 2024/1689</a>), l’Unione Europea ha introdotto il primo quadro normativo completo sull’Intelligenza Artificiale.</p><p>Non è una legge <em>per giuristi</em>. Impatta concretamente chi sviluppa, integra o utilizza sistemi AI.</p><p>Il principio è semplice:<strong> classificare l’AI in base al rischio</strong>. Alcune pratiche sono vietate; altre, considerate ad alto rischio, sono soggette a obblighi stringenti. Per i modelli General Purpose AI, come i grandi modelli linguistici che siamo abituati ad usare giornalmente, sono previsti <strong>requisiti di trasparenza, documentazione tecnica, valutazione dei rischi, attenzione al diritto d’autore e meccanismi di monitoraggio</strong> per i modelli con rischio sistemico.</p><p>Tradotto per chi non è tecnico: <strong>usare l’AI non è più solo una scelta tecnologica, ma anche contrattuale e organizzativa</strong>. Bisogna sapere dove stanno i dati, come vengono trattati, quali garanzie offre il fornitore e se è conforme al quadro europeo.</p><p>Non è un freno all’innovazione in sé. È un tentativo di rendere l’innovazione governabile.</p><h3>Come può distinguersi davvero l’Europa</h3><p>Competere frontalmente con OpenAI o Google sul piano della scala finanziaria è difficile nel breve periodo. Ma la competizione non è solo questione di dimensione.</p><p>Secondo il report di Roland Berger sulla sovranità AI in Europa, senza una base industriale e infrastrutturale autonoma il continente rischia una dipendenza strutturale analoga a quella già osservata nel cloud.</p><iframe src="https://drive.google.com/viewerng/viewer?url=https%3A//italianelfuturo.com/wp-content/uploads/2025/09/Roland_Berger_AI-sovereignty.pdf&amp;embedded=true" width="600" height="780" frameborder="0" scrolling="no"><a href="https://medium.com/media/cefa8cb1ca995ddf01f0d9f9111c35d2/href">https://medium.com/media/cefa8cb1ca995ddf01f0d9f9111c35d2/href</a></iframe><p>La differenza può nascere altrove: nei modelli verticali specializzati per sanità, manifattura e pubblica amministrazione; nella capacità di integrare AI e sostenibilità energetica; nella costruzione di sistemi auditabili e conformi per settori <strong>dove affidabilità e tracciabilità contano più della spettacolarità delle demo</strong>.</p><p>In altre parole, l’Europa potrebbe non diventare il principale produttore di modelli di intelligenza artificiale generalisti, ma potrebbe diventare <strong>il punto di riferimento mondiale per l’intelligenza artificiale regolamentata, industriale e infrastrutturale</strong>.</p><p>Non è una prospettiva glamour. È una strategia.</p><h3>Indipendenza non significa isolamento</h3><p>Essere indipendenti nell’era dell’AI non significa chiudere le frontiere digitali o smettere di usare strumenti americani.</p><p>Significa diversificare. Significa chiedere trasparenza contrattuale. Significa investire in soluzioni europee quando sono competitive. <strong>Significa considerare l’AI non solo come strumento di produttività, ma come infrastruttura di potere economico.</strong></p><p>Ogni prompt inserito in un sistema esterno è un micro-trasferimento di valore. Non è drammatico. <strong>Ma è cumulativo.</strong></p><p>La sovranità digitale non è <strong>nazionalismo tecnologico</strong>. È consapevolezza industriale.</p><p>Continuare a nutrire quasi esclusivamente AI americane o cinesi con i nostri dati, le nostre idee e le nostre strategie significa accettare, di fatto, una <strong>sottomissione tecnologica e culturale</strong>.</p><h3>Conclusione</h3><p>La questione fondamentale, di primaria importanza, non risiede nel determinare se l’Europa riuscirà a <strong>prevalere nella competizione globale</strong> per l’Intelligenza Artificiale. Piuttosto, la domanda cruciale è se l’Europa intenda almeno <strong>partecipare attivamente a tale competizione con le proprie risorse e capacità</strong>.</p><p>Sebbene questa questione sia di indubbia rilevanza, non rappresenta l’unica riflessione necessaria. Esiste, infatti, un’ulteriore domanda, di pari importanza, ma di natura più personale: <strong>continueremo ad utilizzare l’Intelligenza Artificiale in qualità di semplici consumatori globali, oppure desideriamo appartenere a un continente che opta per una gestione autonoma del proprio futuro digitale, evitando di delegare tale responsabilità ad altri?</strong></p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*mQh1tlDa8OfVQtDBTIeIbQ.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=ae8572c2b020" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/ai-europee-sovranit%C3%A0-digitale-ai-act-e-nuovi-modelli-ae8572c2b020">AI europee: sovranità digitale, AI Act e nuovi modelli</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[IA generativa per le presentazioni: dal caos al processo]]></title>
            <link>https://webeconoscenza.gigicogo.it/ia-generativa-per-le-presentazioni-dal-caos-al-processo-7a9195aaca9b?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/7a9195aaca9b</guid>
            <category><![CDATA[presentations]]></category>
            <category><![CDATA[slides]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <category><![CDATA[pitch-deck]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Sat, 31 Jan 2026 17:19:26 GMT</pubDate>
            <atom:updated>2026-01-31T18:55:12.904Z</atom:updated>
            <content:encoded><![CDATA[<h4>Strumenti, limiti e metodo reale per usare l’AI generativa nelle presentazioni professionali</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*N3d3EB5RHzWMmlXIJdTqiA.jpeg" /></figure><p>Se ricordate, nove mesi fa avevo affrontato questo stesso tema con estrema curiosità e tante aspettative.</p><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-migliorare-le-presentazioni-analisi-del-contesto-e-strumenti-principali-81f6419d742e">IA generativa per migliorare le presentazioni. Analisi del contesto e strumenti principali.</a></p><p>Ci torno volentieri anche perchè sono fortemente interessato a questi scenari in prima persona.</p><p>Le mie attività professionali, infatti, mi portano a generare tantissime presentazioni, soprattutto per i corsi che erogo (a proposito, <a href="https://www.caldarinieassociati.it/calendario-corsi/?category=&amp;location=&amp;s_speaker=41457">qui</a> trovate il calendario del primo semestre 2026) e dunque tendo a perfezionare questa attività professionale nell’ottica di offrire slide accattivanti, leggibili, comprensibile e facilmente memorizzabili.</p><p>L’AI Generativa aiuta moltissimo in tutto questo ma, come sempre, la genesi delle idee e dei contenuti, e soprattutto il <strong>controllo sui risultati</strong>, devono essere in mano a noi (me per primo) in piena e matura adesione al concetto #HITL <strong>Human-in-the-loop</strong>.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un podcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2F-3iNurz5v7Y%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3D-3iNurz5v7Y&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2F-3iNurz5v7Y%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/8ce45b137147969f5972413fbd3c355c/href">https://medium.com/media/8ce45b137147969f5972413fbd3c355c/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><h3>Prima parte: metodologie.</h3><h4>Da ore di lavoro a pochi minuti: La rivoluzione è già qui!</h4><p>Ricordo con chiarezza il tempo impiegato nella creazione di presentazioni mediante software quali PowerPoint o Keynote, un processo che richiedeva ore di meticolosa attenzione ai dettagli, tra i quali il posizionamento preciso delle immagini, la selezione accurata dei font e la verifica costante degli allineamenti. L’esito finale, dopo un impegno di 5–6 ore, risultava, nella migliore delle ipotesi, accettabile.</p><p>Nonostante i progressi tecnologici, molti professionisti continuano a dedicare una media di 2,5 ore alla creazione di una singola presentazione. Tuttavia si intravede un cambiamento significativo all’orizzonte: gli strumenti di intelligenza artificiale dedicati a questo scopo che hanno fatto la loro comparsa un paio di anni fa, oggi cominciano a dimostrarsi molto maturi e in grado di <strong>trasformare per sempre</strong> il modo in cui gestiamo questo processo.</p><h3>Il flusso che funziona: Il metodo in 5 step</h3><p>Prima di parlare di strumenti specifici, ecco il metodo che ha trasformato il mio modo di lavorare:</p><h4>STEP 1: Definire lo script con un chatbot</h4><p><strong>Il segreto:</strong> la qualità dell’output dipende dalla qualità del prompt, perciò un prompt molto vago del tipo : <strong>‘</strong><em>Crea una presentazione sul paradigma della generazione di slides con l’AI</em>’, NON FUNZIONA!</p><p>E’ dunque necessario lavorare di fino e fornire più dettagli possibile all’inizio. E questo il vero investimento (come in tutti i progetti seri).<br>Su questo fronte ammetto che mi faccio aiutare dal metodo del <strong><em>meta-prompting</em></strong>. Se vi ricordate ne parlai in un articolo dedicato</p><p><a href="https://webeconoscenza.gigicogo.it/come-addestrare-la-tua-ia-a-scrivere-prompt-perfetti-a803c75e341c">Come addestrare la tua IA a scrivere prompt perfetti</a></p><p>e dunque, per ottenere dei prompt adatti anche alla gestione delle nostre slide, rimando a questa tecnica.<br>Detto ciò, proviamo dunque a utilizzare qualcosa di meno vago per chiedere all’AI di costruirci qualcosa di valido per generare slide dall’effetto WOW:</p><pre>Crea lo script per 10 slide utili a presentare l&#39;evoluzione degli strumenti di generazione slides (presentazioni) con strumenti di AI Generativa.</pre><pre>PUBBLICO: generalista con competenze tecniche di base<br>DURATA: 20 minuti<br>OBIETTIVO: divulgare e incentivare questa pratica</pre><pre>STRUTTURA RICHIESTA:<br>Slide 1: titolo + sottotitolo<br>Slide 2: il paradigma che si sta affermando<br>Slide 3: i migliori strumenti del 2026<br>Slide 4-6: caratteristiche distintive degli strumenti e dei competitor (almeno 4 fra Gamma, Canva, Skywork e Beautiful.ai)<br>Slide 7-8: generazione via artifacts di Claude, ChatGPT e Canvas o NotebookLM di Google<br>Slide 9: i migliori strumenti dal panorama cinese<br>Slide 10: conclusioni + Q&amp;A</pre><pre>Per OGNI slide includi:<br>- Titolo chiaro (max 8 parole)<br>- 3-5 bullet point (max 100 caratteri ciascuno)<br>- Note speaker (60 secondi di parlato)<br>- Suggerimenti visual (tipo grafico, icona, foto)</pre><pre>Tono: Da divulgatore esperto, diretto, orientato all&#39;azione<br>- Colori: Blu, grigio, accenti di giallo (tema comunicazione)<br>- Font: Sans-serif moderno<br>Suggerimenti visivi:<br>- Possibilmente, un concetto per slide: Spazi bianchi generosi<br>- Template in box/card separati</pre><p>Come strumento, possiamo usare qualsiasi chatbot AI di buon livello come ChatGPT, Claude, Perplexity o Gemini e otterremo uno schema completo, pronto per essere trasformato in slide. Ovvero il nostro ‘<em>script</em>’.</p><p>Il risultato, essendo abbastanza consistente, lo metto a disposizione per il download come documento (<strong>attenzione: per scelta e tempo di lettura, non vado a modificare lo script generato, dunque il modello <em>Human-in-the-loop</em> si ferma qui per necessità divulgativa</strong>):</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1lTQqOvtPx4ehmfDNfBuRYFwC2rNGE9mNBPGiwcvm1_8%2Fpreview%3Fembedded%3Dtrue&amp;display_name=Google+Docs&amp;url=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1lTQqOvtPx4ehmfDNfBuRYFwC2rNGE9mNBPGiwcvm1_8%2Fedit%3Fusp%3Dsharing&amp;image=https%3A%2F%2Flh7-us.googleusercontent.com%2Fdocs%2FAHkbwyKMEg6ArDrvxXtYUKo9DSi3GowAjEkCJbL3cRWRK2EmK4OsvzhI-dT6tQ944XfPTg8rOgIH6hApJb7BFqeMY6zk_QUMItbmtpB9P2vDtqritBz4ZfA%3Dw1200-h630-p&amp;type=text%2Fhtml&amp;scroll=auto&amp;schema=google" width="700" height="530" frameborder="0" scrolling="no"><a href="https://medium.com/media/887fff5a6f4c7999a440e7dbebde0c7a/href">https://medium.com/media/887fff5a6f4c7999a440e7dbebde0c7a/href</a></iframe><h4>Step 2: scegliere il template giusto</h4><p>Non tutti i template sono uguali per l’AI. Scegliere quello giusto dipende dall’obbiettivo e dal pubblico a cui ci rivolgiamo.<br>Una volta individuato lo stile più idoneo basta scegliere lo strumento di AI che meglio si adatta. Di seguito le mie preferenze, basate su test personalissimi e dunque suscettibile di perfezionamento:</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*2YvqzBp2QONLEX0xBXWh7g.png" /></figure><p>Perché secondo me il minimalista è il più idoneo per la mia attività?<br>Fondamentalmente perchè usa font semplici (quasi sempre sans-serif), si concentra su 2/3 colori al massimo, genera un layout pulito con titolo e bullet point (utilissimi per la <strong>scansionabilità dei testi</strong>) e lascia spazi bianchi con una certa generosità. Dovendo produrre molte slide per i miei corsi di formazione pretendo che l’AI non abbia “distrazioni di design” ma si concentri su struttura pura.</p><h4>Step 3: generare le slide con uno strumento AI dedicato</h4><p>Per questa fase utilizzerò lo script generato e proverò ad incollarlo in alcuni strumenti di generazione che ho testato, selezionandoli in base alle loro caratteristiche e per gli scopi che, di volta in volta, mi sono utili al momento. Ripeto che <strong>non opererò correzioni e miglioramenti, in modo da comprenderne meglio le potenzialità e i limiti</strong>:</p><p><strong>Esempio pratico con </strong><a href="https://gamma.app"><strong>Gamma</strong></a><strong> (quello che uso di più):</strong></p><ol><li>Apro Gamma e procedo con la funzione: “+ Creare un nuovo AI”</li><li>Scelgo la modalità “Incolla testo”</li><li>Incollo tutto lo script generato dal chatbot che ho usato (nel mio caso Gemini)</li><li>Attendo la generazione delle 10 ‘card’</li><li>Seleziono quindi il tema “Basic Light”</li><li>Opzionale: Aggiungo ulteriori istruzioni al prompt interno di Gamma</li><li>E infine clicco “Genera”</li></ol><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*G9bTHRB_bt_K3Z6sNWf6Ig.png" /></figure><p>Ed ecco il risultato con 10 slide strutturate, con immagini AI-generate e schema grafico coerente.</p><p>Vi inserisco qui sotto la visualizzazione on line delle stesse e, inoltre, vi indico anche un comodo link per poterle <a href="https://gamma.app/docs/Presentazioni-e-IAGen-nel-2026-Smetti-di-impaginare-inizia-a-comu-teuca0g1un9iifn">scaricare</a> come esempio di studio e/o di manipolazione.</p><p><a href="https://presentazioni-e-iagen-ne-5or2zai.gamma.site/">Presentazioni e IAGen nel 2026: Smetti di impaginare, inizia a comunicare</a></p><p>Ripeto, questo è un lavoro che si può fare in pochissimi minuti e ovviamente è la base per farlo anche con altri strumenti che descriverò di seguito. <br>Personalmente uso parecchio Gamma, perchè ha un motore di AI basato su modelli linguistici avanzati e dunque sinonimo di qualità implicita.</p><p><a href="https://gamma.app"><strong>Gamma</strong></a> utilizza infatti un approccio <strong>modello-agnostico</strong> e ibrido, selezionando di volta in volta il modello linguistico da utilizzare in base alla complessità del compito che gli affidiamo e al piano di abbonamento dell’utente. I due fornitori principali sono:</p><ul><li><strong>OpenAI:</strong> Per la gran parte delle operazioni di <em>ragionamento</em> e struttura, Gamma si appoggia alla famiglia <strong>GPT-4</strong>(specificamente GPT-4o e GPT-4 Turbo). Questi modelli sono responsabili dell’interpretazione del prompt iniziale e della creazione della “struttura ad albero” (outline) della presentazione.</li><li><strong>Anthropic:</strong> Per la gestione di documenti lunghi (allegati PDF, Word) e contesti ampi, Gamma integra <strong>Claude</strong> (in particolare la famiglia <strong>Claude 3 e 3.5 Sonnet</strong>).</li></ul><h4>Step 4: personalizzazione</h4><p>Questa è la fase dove bisogna riconsiderare il modello <em>Human-in-the-loop</em>, inevitabilmente.<br>Sarebbe oltre modo dannoso per la reputazione del relatore ritrovarsi in sede di presentazione con <strong>errori evidenti che renderebbero vano il guadagno di tempo acquisito con l’AI</strong>.<br>Dunque, diverse attività di controllo, affinamento e miglioramento sono necessarie a prescindere dallo strumento di generazione utilizzato:</p><ul><li>Aggiunta del logo aziendale</li><li>Sostituzione dei vari placeholder con dati reali</li><li>Verifica accuratezza delle informazioni</li><li>Correzione di eventuali immagini fuori contesto</li></ul><p>Infine, un errore generale da non sottovalutare mai, è chiedere all’AI di <em>fare le slide</em> senza aver chiarito cosa devono comunicare.</p><p>In questi casi, come abbiamo visto, il risultato è quasi sempre lo stesso: slide visivamente accettabili, ma concettualmente deboli, perché l’AI sta ottimizzando la forma in assenza di un messaggio chiaro.</p><p><em>Se siete interessati solo al metodo, allora potete fermarvi qui. L’articolo è molto lungo. <br>Alternativa? Un pausa caffè!</em></p><h3>Seconda parte. I tool!</h3><h4>Nuovi strumenti e miglioramenti introdotti nel 2026</h4><p>Applicando la medesima metodologia impiegata per l’analisi di cui sopra, procedo ora alla valutazione di alcuni strumenti che potrebbero emergere come fondamentali nel 2026 e che ho preso in considerazione come alternative a <strong>Gamma che, a mio parere, continua a rappresentare la soluzione più affidabile e punto di riferimento per questo settore</strong>.</p><h4>Skywork: Il ricercatore automatico (Una mia scoperta recente)</h4><p><a href="https://skywork.ai/">Skywork AI</a>, piattaforma introdotta sul mercato nel recente Maggio 2025, sta rivoluzionando il settore della creazione di contenuti professionali grazie alla sua duttilità.<br>A differenza di strumenti focalizzati sul design, quali Gamma, Skywork AI adotta un approccio <em>r</em><strong><em>esearch-first</em>, integrando una ricerca automatica avanzata con verifica delle fonti in tempo reale</strong>.<br>Altro punto di forza è la generazione di risultati multimodali all’interno di un’unica piattaforma. In pratica, quando inseriamo un prompt di ricerca, <a href="https://skywork.ai/">Skywork</a> genera automaticamente: documento, slide, grafici e persino podcast.</p><p>Usando dunque lo stesso prompt già utilizzato per Gamma, procedo ad istruire <a href="https://skywork.ai/">Skywork</a> senza indicare particolari parametri, limitandomi a forzare la ‘Ricerca profonda’ e l’utilizzo di Nano Banana come modello per la generazione delle immagini all’interno delle slide.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/854/1*odbZ2PMUGxOfyU29PTH83A.png" /></figure><p>Il risultato, lo potete visualizzare qui sotto e, come potete notare, nella slide 3 (e solo in quella) contiene alcuni disallineamenti nei contenuti, riparabili scaricando la risultante in formato Power Point.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1K3rjJSd12yEzJ-Ex5b7eyZS-YirY1EFK%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1K3rjJSd12yEzJ-Ex5b7eyZS-YirY1EFK%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/d8065c415ce201f5737749157e9e6aec/href">https://medium.com/media/d8065c415ce201f5737749157e9e6aec/href</a></iframe><h4>Canva, lo stagista affidabile per tutti i creativi</h4><p>C’è poco da aggiungere su <a href="https://www.canva.com/">Canva</a> rispetto a quello che quasi tutti già sanno. E’ uno degli strumenti più completi, affidabili e consolidati.<br>Quindi vado dritto al punto. Durante tutto il 2025 Canva si è trasformato e grazie all’approccio full AI (non ancora completato) sta spostando la creatività dalla ‘manipolazione’ alla ‘generazione’.</p><p>Con questa affermazione intendo sottolineare l’evoluzione delle funzionalità di Canva. In passato, gli utenti dovevano possedere competenze specifiche nell’utilizzo degli strumenti di Canva, che erano essenzialmente strumenti di creazione e manipolazione, replicando online le attività che i creativi svolgevano con software come Photoshop o PowerPoint. Tuttavia, l’attuale tendenza è quella di fornire a Canva istruzioni tramite prompt, consentendo alla piattaforma di generare contenuti preliminari che possono essere successivamente rifiniti utilizzando i vari strumenti offerti. Una volta che anche questi strumenti saranno eliminati o completamente riprogettati, l’integrazione dell’intelligenza artificiale in Canva sarà considerata completa.</p><p>Di seguito la procedura:<br>Allego lo script alla finestra di interazione AI di Canva, chiedendogli semplicemente di seguire le istruzioni</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/993/1*51JlAdWpSzglFiItA9wkOg.png" /></figure><p>Nel giro di pochi secondi ricevo il primo semilavorato, ovvero lo schema con i testi. Anche qui sorvolo per scopi divulgativi, ma sottolineo che gran parte delle risultanti erano già soddisfacenti e dunque non richiedevano variazioni di rilievo</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/836/1*_VbM76JRKP2aZZfWOsPCsg.png" /></figure><p>Chiedo dunque a Canva di generare il progetto e, in pochi secondi, ricevo 4 proposte fra le quali scelgo quella che più mi aggrada.<br>Ovviamente Canva mi consentirebbe di intervenire preventivamente sull’editor e di modificare praticamente tutto, a cominciare dai dettagli che, in questa versione, son stati tagliati a discapito delle immagini molto ricche. Forse troppo. Ma lo scopo di questo articolo è significare la velocità di esecuzione per avere un prodotto immediatamente fruibile e dunque sorvoliamo.</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.canva.com%2Fdesign%2FDAG-9VrUCT0%2F4MrYgfKnZSarQtIaTvIzYg%2Fview%3Fembed%26meta&amp;display_name=Canva&amp;url=https%3A%2F%2Fwww.canva.com%2Fdesign%2FDAG-9VrUCT0%2F4MrYgfKnZSarQtIaTvIzYg%2Fview&amp;image=https%3A%2F%2Fstatic.canva.com%2Fstatic%2Fimages%2Ffb_cover-1.jpg&amp;type=text%2Fhtml&amp;schema=canva" width="1920" height="1080" frameborder="0" scrolling="no"><a href="https://medium.com/media/ddb1daa367711c2ebcdb9e8c66d4a0e9/href">https://medium.com/media/ddb1daa367711c2ebcdb9e8c66d4a0e9/href</a></iframe><h3>I cinesi stanno arrivando: Kimi e la rivoluzione asiatica</h3><h4><a href="https://www.kimi.com">Kimi Slides</a>. Il rivale cinese che sorprende</h4><p>Nella prima parte di questa ricerca, come documentato nell’articolo <a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-migliorare-le-presentazioni-analisi-del-contesto-e-strumenti-principali-81f6419d742e">pubblicato a maggio</a> 2025, non avevo ancora avuto l’opportunità di valutare Kimi Slides, uno strumento cinese che ha registrato notevoli progressi nel corso del 2025. Kimi rappresenta un concorrente di notevole rilevanza, in quanto implementa una funzionalità denominata “Deep research” (ricerca approfondita), <strong>progettata per raccogliere informazioni pertinenti da Internet al fine di arricchire le presentazioni</strong> che genera.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/843/1*-ix2hAOU7hRyXRYxxsYs2Q.png" /></figure><p>Pur condividendo numerose caratteristiche con Gamma, il processo di ragionamento di Kimi, fondato sul modello proprietario Moonshot AI, e la sua metodologia di ricerca <strong>richiedono un tempo maggiore a causa dell’applicazione di una ricerca approfondita su Internet</strong>. <br>Gamma, al contrario, si avvale della conoscenza preesistente incorporata nei modelli che utilizza, quali ChatGpt e Claude. <br>A mio modo di vedere, l’approccio utilizzato da Kimi, in determinati contesti, può rappresentare un vantaggio, contribuendo ad accrescere <strong>la profondità scientifica delle presentazioni</strong> che si intendono realizzare.</p><p>Anche nel caso di Kimi ho utilizzato lo stesso identico script e non ho operato modifiche di alcun tipo. Ho infine scaricato le slide in formato Power Point e le metto a disposizione per comparazioni e verifiche.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F13p2rOQDVMs7iGd8RPG8fG6S45JZr1My9%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D13p2rOQDVMs7iGd8RPG8fG6S45JZr1My9%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/e89228291587883066046db2369828af/href">https://medium.com/media/e89228291587883066046db2369828af/href</a></iframe><h3>Altri strumenti cinesi emergenti:</h3><p><a href="https://z.ai/">Z.ai</a> è un altro strumento emergente che si sta affacciando su questo panorama affollato.<br>Utilizza il modello GLM-4 e si distingue in particolare per l’accuratezza e l’aggiornamento delle informazioni. Il suo sistema di ricerca specializzato si è dimostrato capace di estrarre costantemente riferimenti ai modelli più recenti (come Gamma 2 e varie varianti di Qwen) che altri strumenti tendono a trascurare.<br>Dopo aver incollato lo script ho dato un’occhiata ai vari template (anche se avevo forzato le indicazioni visual sullo script) e scelto quello che più mi piaceva.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/701/1*YeyPMl72DPuC75ungnWdug.png" /></figure><p>Il risultato, ovviamente, non ha impattato sui colori (forzati nello script) ma sullo stile che assomiglia abbastanza a quello scelto precedentemente da Skywork.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1jY3aub8eS7VNTMEqNrcGsusDC9oEVy3I%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1jY3aub8eS7VNTMEqNrcGsusDC9oEVy3I%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/bc5c0466db307c8424ada7b1a6d31af9/href">https://medium.com/media/bc5c0466db307c8424ada7b1a6d31af9/href</a></iframe><p>Ci sono altri strumenti cinesi che sto tenendo sotto osservazione ed è probabile che fra qualche mese tornerò sull’argomento.</p><p>Nel contempo veniamo al secondo approccio, ovvero la generazione mediata da tecniche di meta-prompting e comunque ottenibile con passaggi all’interno di strumenti non specificatamente ingegnerizzati per generare presentazioni, come gli ‘artefatti’ di Claude, ChatGPT e/o i Canvas di Gemini e NotebookLM.</p><h3>Claude Artifacts — Il coder visuale</h3><p>Gli artifacts sono app interattive che emergono dalle nostre conversazioni con <a href="https://claude.ai/">Claude</a>. Ne ho parlato parecchio in un articolo qualche mese fa.</p><p><a href="https://webeconoscenza.gigicogo.it/gli-artefacts-di-claude-ora-vogliono-guidare-la-democratizzazione-dellia-2cee2c8f5ab8">Gli Artefacts di Claude ora vogliono guidare la democratizzazione dell’IA</a></p><p>Ovviamente Claude è uno strumento che nel tempo evolve e che permette di fare molte cose fra le quali, generare ‘materiali’ (artifact appunto) come codice, documenti, applicazioni smart e, perchè no, slide.</p><p><strong>Come funziona per presentazioni:</strong></p><p>Sebbene Claude non generi direttamente file PowerPoint, Claude 4.5 utilizza la sua posizione di <strong>modello di sviluppo leader a livello mondiale,</strong> per “disegnare”, ovvero produrre immagini in formato Scalable Vector Graphics (SVG).</p><p>Tale funzionalità presenta dei limiti, in quanto le immagini generate da <a href="https://claude.ai/">Claude</a> non sono facilmente manipolabili. Pertanto, la fase più critica è quella di generazione del prompt, che deve includere sia le istruzioni relative al contenuto, sia quelle relative alla struttura e al tema grafico.</p><p>Per semplificare, Claude genera software che poi genera immagini. Punto!</p><p>Proviamo dunque a passargli il prompt più adatto per lo scopo che, come potete vedere, è una personalizzazione di quello usato per gli altri strumenti, in ottica generazione immagini.</p><pre>Crea 10 slide SVG separate per una presentazione su &quot;Presentazioni e IAGen nel 2026&quot;. <br>Ogni slide deve essere un SVG autonomo, dimensioni 1920x1080px (16:9), stile professionale corporate minimal.</pre><pre>PALETTE COLORI:<br>- Sfondo principale: #2D2D2D (grigio scuro)<br>- Titoli: #FFFFFF (bianco)<br>- Testo body: #E0E0E0 (grigio chiaro)<br>- Accento: #FFD700 (giallo oro)<br>- Elementi grafici: #4A90E2 (blu corporate)</pre><pre>FONT STYLE:<br>- Titoli: sans-serif bold, 72px<br>- Bullet points: sans-serif regular, 36px<br>- Note: non visualizzare le note speaker nelle slide</pre><pre>---</pre><pre>SLIDE 1: Titolo<br>Titolo principale: &quot;Presentazioni e IAGen nel 2026&quot;<br>Sottotitolo: &quot;Smetti di impaginare, inizia a comunicare&quot;</pre><pre>Bullet points (stile lista pulita, icone circolari gialle prima di ogni punto):<br>• L&#39;era del &quot;Pixel Perfect&quot; manuale è finita<br>• Dall&#39;idea alla slide in meno di 60 secondi<br>• Focus sui contenuti, l&#39;IA gestisce la forma<br>• Obiettivo: Recuperare 10 ore di lavoro a settimana</pre><pre>Visual richiesto:<br>- Split-screen orizzontale in basso (30% altezza)<br>- Sinistra: icona mouse vecchio stile con ragnatela<br>- Destra: forma d&#39;onda sonora stilizzata che diventa grafico<br>- Evidenzia &quot;10 ore&quot; in giallo brillante nel testo</pre><pre>---</pre><pre>SLIDE 2: Dal &quot;Drag &amp; Drop&quot; al &quot;Prompt &amp; Refine&quot;<br>Titolo: &quot;Dal &#39;Drag &amp; Drop&#39; al &#39;Prompt &amp; Refine&#39;&quot;</pre><pre>Bullet points:<br>• Vecchio Mondo: Scrivi testo → Cerchi immagini → Impagini a mano<br>• Nuovo Mondo: Fornisci il documento → L&#39;IA struttura → Tu rifinisci<br>• Il ruolo umano si sposta sulla curatela e sulla verifica<br>• La &quot;Bozza Zero&quot; è sempre pronta in 30 secondi</pre><pre>Visual richiesto:<br>- Diagramma di flusso orizzontale centrato<br>- Box 1 (grigio #505050): &quot;INPUT&quot; con icona documento<br>- Freccia spessa gialla con testo &quot;AI Processing&quot;<br>- Box 2 (blu #4A90E2): &quot;OUTPUT&quot; con icona slide stack<br>- Icona occhio umano sopra l&#39;output box</pre><pre>---</pre><pre>SLIDE 3: I migliori strumenti del 2026<br>Titolo: &quot;La &#39;Top Tier&#39; della generazione slide&quot;</pre><pre>Bullet points:<br>• Narrativa &amp; Velocità: Gamma (Leader indiscusso)<br>• Design &amp; Brand Control: Beautiful.ai e Canva Magic Studio<br>• Ricerca &amp; Analisi: Skywork AI (Potenza di calcolo)<br>• Coding &amp; Struttura: Claude Artifacts &amp; ChatGPT Canvas</pre><pre>Visual richiesto:<br>- Matrice 2x2 al centro<br>- Asse X: &quot;Creatività ← → Struttura&quot;<br>- Asse Y: &quot;Velocità ↑ Complessità ↓&quot;<br>- Posiziona testo &quot;Gamma&quot; quadrante alto-sinistra<br>- &quot;Beautiful.ai&quot; alto-destra<br>- &quot;Skywork&quot; basso-destra<br>- &quot;Claude&quot; basso-sinistra<br>- Usa cerchi colorati per ogni brand</pre><pre>---</pre><pre>SLIDE 4: Gamma e Beautiful.ai<br>Titolo: &quot;Velocità vs Controllo: la sfida dei &#39;Nativi&#39;&quot;</pre><pre>Bullet points:<br>• Gamma: &quot;Doc-to-Deck&quot; fluido. Layout flessibili, non statici<br>• Beautiful.ai: &quot;Smart Templates&quot;. Impedisce di rompere il design<br>• Differenza chiave: Gamma è un sito web che sembra una slide<br>• Costo medio: €15-20/mese per utente pro</pre><pre>Visual richiesto:<br>- Split-screen verticale (50/50)<br>- Sinistra: mockup browser con blocco testo espandibile (stile card web)<br>- Destra: mockup slide classica con griglia rigida e icone allineate<br>- Etichette &quot;GAMMA&quot; e &quot;BEAUTIFUL.AI&quot; sopra rispettive sezioni</pre><pre>---</pre><pre>SLIDE 5: Canva e l&#39;ecosistema visuale<br>Titolo: &quot;Canva Magic Studio: l&#39;IA per i non-designer&quot;</pre><pre>Bullet points:<br>• Integrazione totale: Foto, Video e Slide nello stesso ambiente<br>• Magic Switch: Trasforma una lavagna bianca in presentazione<br>• Pro: Libreria asset infinita<br>• Contro: Rischio &quot;effetto template&quot; (tutte sembrano uguali)</pre><pre>Visual richiesto:<br>- Logo Canva stilizzato al centro (cerchio multicolore semplificato)<br>- Tre frecce che partono dal logo verso:<br>  1. &quot;Immagine GenAI&quot; (icona immagine)<br>  2. &quot;Layout Magic&quot; (icona bacchetta magica)<br>  3. &quot;Brand Kit&quot; (icona palette colori)<br>- Sfondo gradiente blu chiaro (#4A90E2 → #6BA3E8)</pre><pre>---</pre><pre>SLIDE 6: Skywork e la potenza di analisi<br>Titolo: &quot;Skywork AI: quando il contenuto è complesso&quot;</pre><pre>Bullet points:<br>• Modello LLM con focus su ricerca e sintesi di documenti lunghi<br>• Generazione slide basata su data-heavy content<br>• Ideale per: Report finanziari, analisi tecniche, paper accademici<br>• Meno focus sull&#39;estetica, più sulla densità informativa</pre><pre>Visual richiesto:<br>- Diagramma &quot;imbuto&quot; (funnel) verticale centrato<br>- In alto: icona documento denso (linee di testo strette)<br>- Imbuto con etichetta &quot;SKYWORK AI&quot;<br>- In basso: grafico a barre pulito stilizzato<br>- Colori tecnici: grigio scuro #3A3A3A e blu scuro #1E3A5F</pre><pre>---</pre><pre>SLIDE 7: Claude Artifacts &amp; ChatGPT Canvas<br>Titolo: &quot;I &#39;Non-Strumenti&#39;: Claude Artifacts &amp; Canvas&quot;</pre><pre>Bullet points:<br>• Claude Artifacts: Genera slide in React/HTML visibili subito<br>• ChatGPT Canvas: Area di lavoro affiancata per iterare su copy<br>• Non esportano in PPTX nativo, ma offrono libertà totale<br>• Uso avanzato: &quot;Crea una dashboard interattiva come slide&quot;</pre><pre>Visual richiesto:<br>- Mockup interfaccia split 60/40<br>- Sinistra: finestra chat con righe di testo<br>- Destra: finestra &quot;artifact&quot; con preview slide codice<br>- Badge triangolare giallo in alto a destra: &quot;Per utenti avanzati&quot;<br>- Bordi finestre arrotondati, stile moderno</pre><pre>---</pre><pre>SLIDE 8: NotebookLM di Google<br>Titolo: &quot;Da fonti a slide: il potere di NotebookLM&quot;</pre><pre>Bullet points:<br>• Carica 50 fonti diverse (PDF, Audio, Testo)<br>• &quot;Grounding&quot; forte: l&#39;IA risponde SOLO basandosi sui tuoi file<br>• Genera outline perfette citando le fonti per ogni punto<br>• Workflow: Fonti → Audio Overview → Struttura Slide</pre><pre>Visual richiesto:<br>- Icona graffetta (paperclip) grande a sinistra<br>- Freccia che punta verso lista di 4 item con quote gialle evidenziate<br>- Stile Google Material Design: pulito, ombreggiature leggere<br>- Colori: grigi chiari con accenti blu Google (#4285F4)</pre><pre>---</pre><pre>SLIDE 9: L&#39;onda cinese<br>Titolo: &quot;L&#39;onda cinese: WPS AI e Kimi&quot;</pre><pre>Bullet points:<br>• WPS Office AI: Il rivale di Microsoft Copilot, più veloce e leggero<br>• Kimi &amp; DeepSeek: Context window enormi (leggono interi libri)<br>• Integrazione mobile-first (via super-app)<br>• Perché ci interessano? Feature che arriveranno qui tra 6 mesi</pre><pre>Visual richiesto:<br>- Mappa stilizzata dell&#39;Asia (contorno semplificato) evidenziata in giallo<br>- Tre loghi testuali: &quot;WPS&quot;, &quot;Kimi&quot;, &quot;DeepSeek&quot; posizionati sulla mappa<br>- Icona smartphone grande in basso a destra<br>- Stile minimal, contorni puliti</pre><pre>---</pre><pre>SLIDE 10: Conclusioni + Q&amp;A<br>Titolo: &quot;Non aspettare la perfezione, inizia oggi&quot;</pre><pre>Bullet points:<br>• Scegli UNO strumento domani mattina e usalo per un task reale<br>• L&#39;IA fa l&#39;80% del lavoro, il tuo 20% è il valore aggiunto<br>• Next Step: Scaricate la guida PDF con i prompt pronti<br>• Spazio alle domande</pre><pre>Visual richiesto:<br>- QR code gigante centrato (400x400px, genera un placeholder con pattern)<br>- Testo sotto QR: &quot;Guida prompt pronti&quot;<br>- In basso in piccolo: &quot;email@example.com | LinkedIn&quot;<br>- Sfondo giallo brillante (#FFD700) invece del grigio scuro<br>- Testo in nero (#1A1A1A) per contrasto</pre><pre>---</pre><pre>ISTRUZIONI TECNICHE IMPORTANTI:<br>1. Genera TUTTE le 10 slide come artifacts separati<br>2. Ogni SVG deve essere completo e autonomo (1920x1080px)<br>3. Usa viewBox=&quot;0 0 1920 1080&quot; per scalabilità<br>4. Margini interni: 100px su tutti i lati<br>5. Allineamento testo: sempre a sinistra tranne titoli (centrati)<br>6. Spaziatura bullet points: 50px tra ogni riga<br>7. Non usare font esterni, solo sans-serif system font</pre><pre>Genera la prima slide, poi aspetta conferma per procedere con le successive.</pre><p>L’ultima istruzione permette un controllo completo, scheda per scheda, ovvero, immagine per immagine.<br>Per obiettivo di divulgazione io l’ho sostituita con: ‘Genera tutte le 10 slide come artifacts separati numerati da 1 a 10’, per ottenere l’intero set di immagini.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/830/1*pueIMcPS4ZptBB000o3XxA.png" /></figure><p>Una volta acquisiste le immagini, dobbiamo semplicemente copiarle nel nostro Power Point, o Keynote o Goggle Presentazioni e il gioco è fatto!</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F1OovrJJTYK3eI2dm2RrXKEJnz1Oj5dFaH%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D1OovrJJTYK3eI2dm2RrXKEJnz1Oj5dFaH%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/1652c04627b32f99917e099b082aa50a/href">https://medium.com/media/1652c04627b32f99917e099b082aa50a/href</a></iframe><p>Obiettivamente il risultato non è granché. Il motivo è molto semplice, avrei dovuto operare come un grafico professionista e invece di chiedere la generazione di tutte le slide simultaneamente, avrei dovuto operare con più calma (e dunque più dispendio di tempo), per verificarle una ad una e chiedergli, tramite prompt mirato:</p><blockquote>“Rendi le frecce più spesse”<br>“Cambia il colore del grafico in rosso e giallo”<br> “Rendi i rettangoli più grandi”</blockquote><p>i miglioramenti da apportare, scheda per scheda.<br>Dunque nuovi tool (molti più di quelli analizzati), approcci diversi, modelli diversi, risultati non sempre apprezzabili.</p><p>E dopo averli provati mi sento obbligato a enfatizzare un concetto che deve farmi/farci da guida: <strong>l’AI può costruire slide migliori. <br>Ma solo chi progetta il messaggio può costruire presentazioni che funzionano</strong></p><p><em>Se vi son piaciuti i tool e avete già fatto la pausa, potete continuare.<br>L’articolo è davvero lungo e nel caso non vi interessi l’approccio progettuale potete fermarvi qui. Non mi offendo … ma non saprete mai cosa vi state perdendo!</em></p><h3>Terza parte. L’approccio progettuale</h3><p>Per questa ultima parte mi affido a un ecosistema. Quello di Google che oggi mi sembra il più completo.<br>Se, dal punto di vista dell’output ciò che viene generato da <a href="https://notebooklm.google.com">NotebookLM </a>non si discosta molto da Calude, ovvero risultanti non modificabili (fino a un certo punto), l’approccio di tipo progettuale è veramente diverso e <strong>per certi versi più scientifico</strong>.</p><p>Di NotebookLM vi ho parlato spesso e ho fatto tantissime prove su strada, dunque non mi dilungo oltre se non per dire che Google ha aggiunto un sacco di nuove funzionalità nel tempo, ed ora lo strumento è pienamente integrato anche con i Gem di Gemini.<br>Dunque, tutto il tema del <strong>meta-prompting e delle metodologie associate</strong>, si esalta alla perfezione dentro l’ambiente proprietario di Google.</p><p>Qui abbiamo a disposizione tre strade da vagliare:<br>1. Usare Gemini e fornirgli uno script per ottenere direttamente delle slides;<br>2. Lavorare solo su NotebookLM per ottenere anche in questo ambiente delle slide native (funzionalità nativa ‘<strong>Slide Decks’);</strong><br>3. Ibridare e collegare i due ambienti in un Gem per ottenere il massimo da un punto di vista scientifico</p><h4>1. Gemini Canvas nativo</h4><p>In questo primo caso non devo far altro che incollare il nostro amato script, quello che ho usato in tutte le prove fin qui descritte, e attendere il risultato.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/822/1*t-jv1w5xLPYpZZRIEL1BDA.png" /></figure><p>Grazie alla funzionalità ‘pro’ di Gemini, sono state automaticamente implementate delle modifiche alle istruzioni fornite nello script, che riporto di seguito per illustrare le potenzialità del modello:</p><blockquote>Analisi dell’output</blockquote><blockquote>Ho trasformato il tuo script in un oggetto digitale che rispecchia il contenuto della presentazione stessa:</blockquote><blockquote>Forma e Sostanza: Ho usato un design scuro (“Dark Mode”) come richiesto, con accenti gialli per evidenziare i concetti chiave, proprio come indicato nella visual description della Slide 1.</blockquote><blockquote>Layout Dinamici: Invece di una struttura statica, le slide cambiano layout (Split screen, Matrice, Flusso) in base al tipo di contenuto, dimostrando la flessibilità citata nella Slide 4 (Gamma vs Beautiful).</blockquote><blockquote>Nota Critica: Ho mantenuto le tue previsioni sul 2026 (WPS AI, Skywork). Sebbene oggi (2025–26) Skywork sia un modello LLM potente, l’uso specifico per “slide finanziarie perfette” è una proiezione ottimistica che condivido come target, ma che richiederà ancora un po’ di fine-tuning rispetto alla realtà attuale dei modelli. Comunque, nel contesto della presentazione futura, regge perfettamente.</blockquote><blockquote>Puoi navigare le slide usando le frecce direzionali. Fammi sapere se vuoi raffinare qualche “prompt” visivo.</blockquote><p>Direi che va bene, così, accetto di buon grado anche i suoi punti di vista e vadoo a condividere il risultato che, questa volta, può essere comodamente esportato su Google Drive senza nessun altro passaggio intermedio.<br>Un’altra opzione è quella poter condividere direttamente il link pubblico, cosa che faccio per semplificare il tutto.</p><p><a href="https://gemini.google.com/share/124e7d967788">‎Gemini - direct access to Google AI</a></p><h4>2. Notebook nativo con Slide Deck</h4><p>Con questa modalità sarebbe sufficiente incollare il testo dello script nelle fonti del nostro taccuino di NotebookLM. <br>Reputo però conveniente, non solo per scopi divulgativi, inserire in questa fase un’arricchimento tipico dello strumento, ovvero la ‘Deep research’ (ampio tema di cui ho parlato più <a href="https://webeconoscenza.gigicogo.it/allucinazioni-ai-da-fenomeno-a-soluzione-06351a08a47a">volte</a>) per ampliare la base di conoscenza utile a un’approccio più professionale e scientifico per la generazione delle nostre slide. Ergo chiedo a NotebookLM di ampliare il raggio d’azione.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/823/1*0WBZLiArmp3BG50Nh5lg5g.png" /></figure><p>Una volta ricevute anche queste fonti, non devo far altro che aggiungerle alla base di conoscenza del taccuino e chiedere a NotebookLM di procedere con la generazione delle slide.<br>Qui, un passaggio intermedio, mi permetterebbe di raffinare ancora di più il prompt, aggiungendo istruzioni specifiche proprio per lo stile, i font, le immagini, ecc.</p><p>Et voilà. A voi le slide generate. Non male, vero?</p><p><a href="https://www.slideshare.net/slideshow/confronto-sui-tool-di-generazione-di-slide-con-ia-pdf/285429199">Confronto sui tool di generazione di slide con IA.pdf</a></p><p>Ora però, il problema già evidenziato con Claude si ripete. Ovvero le slide generate non sono esportabili in formato Power Point.<br>NotebookLM ne permette la condivisione via link, oppure in formato pdf.<br>Piccola parentesi. Si stanno già affacciando nel panorama degli strumenti avanzati alcuni in grado di trasformare un pdf di NotebookLM in Power Point editabile. <br>Io ne ho provato uno: <a href="https://codia.ai/noteslide">https://codia.ai/noteslide</a> che lascio a voi giudicare. <br>Un’altra possibilità (più tortuosa) è quella di imporatre il pdf su uno specifico strumento di Canva: <a href="https://www.canva.com/it_it/strumenti/converti-pdf/">https://www.canva.com/it_it/strumenti/converti-pdf/</a> e renderlo modificabile con un processo di trasformazione delle immagini testuali in campi editabili.</p><h4>3. Metodo ibrido e/o complementare con NotebookLM e i Gem di Gemini</h4><p>Non mi dilungo molto su questa parte perchè è uno scenario in divenire e che forse Google riuscirà anche a semplificare. Quindi vi descrivo il processo che sembra breve ma che, in realtà, prevede un po’ di investimento in termini di tempo.</p><p><strong>Presupposti: </strong><br>1) Il taccuino di NotebookLM è la base di conoscenza da cui partire<br>2) Il Gem di Gemini è il braccio operativo che si alimenta della base di conoscenza di NotebookLM e interpreta le nostre istruzioni, il più possibile dettagliate.<br>3) Gemini è il motore applicativo, con i suoi Canvas e con l’ingegneria dei suoi modelli di generazione avanzata.</p><p>Creo dunque il nuovo GEM</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*a9uz3jXH-sCIryBok1bNZA.png" /></figure><p>E nel box istruzioni, inserisco questo testo:</p><pre>Sei un Senior Presentation Architect e Prompt Engineer esperto in LLM.<br>Il tuo UNICO obiettivo è assistermi nel creare il prompt perfetto da inserire in Gemini Canvas per generare slide (contenuti, struttura e visual) di alto livello professionale.<br>NON sei qui per farmi complimenti o per dirmi che ho ragione.<br>NON usare toni lusinghieri (&quot;Ottima scelta&quot;, &quot;Fantastico argomento&quot;).<br>Sii secco, pragmatico, colloquiale e ipercritico.</pre><pre>## 1. FASE DI ANALISI CRITICA (OBBLIGATORIA)<br>Prima di generare qualsiasi prompt per Canvas, devi analizzare la mia richiesta:<br>- Se l&#39;argomento è vago, dimmelo brutalmente.<br>- Se mancano dati o fonti, chiedimeli. Non inventare (Zero Hallucinations Policy).<br>- Se la struttura logica non regge, smontala e proponi un&#39;alternativa migliore (es. da lineare a piramidale).<br>- Chiedimi sempre: &quot;Chi è il target?&quot; e &quot;Qual è l&#39;obiettivo unico della presentazione?&quot;.</pre><pre>## 2. GENERAZIONE DEL PROMPT PER CANVAS<br>Solo dopo aver chiarito i punti sopra, genera il prompt che io dovrò incollare in Canvas.<br>Il prompt che generi deve seguire RIGOROSAMENTE questa struttura tecnica per massimizzare le performance di Canvas:</pre><pre>STRUTTURA DEL PROMPT DA GENERARE (Output atteso):<br>---<br>**Ruolo:** Agisci come esperto di [Argomento specifico] e Slide Designer.<br>**Task:** Crea il contenuto dettagliato per una presentazione di [N] slide su [Argomento].<br>**Formato Output:** Usa Markdown. Per ogni slide devi fornire:<br>1.  **Titolo:** Accattivante e breve.<br>2.  **Layout suggerito:** (es. Titolo + Bullet points, Solo Immagine, Confronto, Citazione).<br>3.  **Contenuto Testuale:** Sintetico, diviso in punti elenco. NO muri di testo.<br>4.  **Speaker Notes:** Cosa devo dire a voce (script colloquiale).<br>5.  **Visual Prompt:** Descrizione dettagliata per generare l&#39;immagine della slide (da usare con Imagen 3 o Midjourney). Scrivi questo prompt visuale in INGLESE per massimizzare la qualità dell&#39;immagine.<br>---</pre><pre>## 3. REGOLE DI STILE E FORMATTAZIONE<br>- Quando generi il &quot;Visual Prompt&quot; per le slide, sii specifico sullo stile (es. &quot;Minimalist vector art&quot;, &quot;Cinematic photorealistic&quot;, &quot;Corporate memphis style&quot;).<br>- Se cito dati o studi nel mio input, il prompt per Canvas deve obbligare Canvas a citare la fonte esplicita nella slide o nelle note.<br>- Usa l&#39;italiano per tutto, tranne per i prompt di generazione immagini (inglese).</pre><pre>## 4. ESECUZIONE<br>Attendi il mio input. Se ti do solo un titolo chiedimi i dettagli. Se ti do i dettagli, procedi con l&#39;analisi critica e poi con il prompt per Canvas.</pre><p>Nella scelta dello strumento predefinito non ho indicato preferenze (infatti deve limitarsi a generare prompt perfetti).<br>Nella scelta della base di conoscenza ho linkato direttamente il taccuino di NotebookLM che contiene già fonti sufficienti sul tema.<br>Ora sono pronto a chiedergli un prompt perfetto che, poi, utilizzerò direttamente con la chat di Gemini con la funzione Canvas (non con il GEM stesso che rimane relegato al ruolo di assistente).<br>Il risultato è questo ed è molto diverso dallo script iniziale che hoo usato finora per tutte le prove con gli altri strumenti. Diciamo che è più raffinato e Canvas oriented. Ok?</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1MQExQlPwYzHrFH-JBrRlYAxm2dAE0uWI7g7gN_JU2t4%2Fpreview%3Fembedded%3Dtrue&amp;display_name=Google+Docs&amp;url=https%3A%2F%2Fdocs.google.com%2Fdocument%2Fd%2F1MQExQlPwYzHrFH-JBrRlYAxm2dAE0uWI7g7gN_JU2t4%2Fedit%3Fusp%3Dsharing&amp;image=https%3A%2F%2Flh7-us.googleusercontent.com%2Fdocs%2FAHkbwyIWxPwK4tF-D1hJTZuRI8XtSNOB2Aesl92mJjT9_rR0XiOV0L_j6Y08ABL3SIC-W6dC06IJ0PYPq2zEWfM7jDuM6BQ01HsCLZ0OGQqtvwl0LkBD6xFA%3Dw1200-h630-p&amp;type=text%2Fhtml&amp;scroll=auto&amp;schema=google" width="700" height="530" frameborder="0" scrolling="no"><a href="https://medium.com/media/c4755c5163258a3d7c8c1921370059e2/href">https://medium.com/media/c4755c5163258a3d7c8c1921370059e2/href</a></iframe><p>Ora, con questo script posso chiedere a Gemini di crearmi le slide. <br>Et voilà.</p><iframe src="https://cdn.embedly.com/widgets/media.html?url=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fd%2F12N0kvG9p2Q8FD6V1UUoN78URWZ8yCGgL%2Fedit%3Fusp%3Dsharing%26ouid%3D116464593685021093087%26rtpof%3Dtrue%26sd%3Dtrue&amp;type=text%2Fhtml&amp;schema=google&amp;display_name=Google+Docs&amp;src=https%3A%2F%2Fdocs.google.com%2Fpresentation%2Fembed%3Fid%3D12N0kvG9p2Q8FD6V1UUoN78URWZ8yCGgL%26size%3Dl" width="700" height="559" frameborder="0" scrolling="no"><a href="https://medium.com/media/d9a2b2545102188a0410bc0a815939c8/href">https://medium.com/media/d9a2b2545102188a0410bc0a815939c8/href</a></iframe><h3>Conclusioni: La vera rivoluzione non è l’AI, è il processo</h3><p>La generazione automatica delle slide non è una moda, né un trucco per “fare prima”. È il segnale di un cambiamento più profondo: <strong>la separazione definitiva tra contenuto e impaginazione</strong>.</p><p>Nel momento in cui uno script ben fatto diventa l’unità di valore principale, la slide smette di essere un artefatto grafico e torna a essere ciò che dovrebbe sempre essere: <strong>uno strumento di comunicazione</strong>.</p><p>Tutti gli strumenti che ho testato, da Gamma a Skywork, da Canva a NotebookLM, funzionano. E la differenza non la fa l’algoritmo, ma <strong>la maturità del workflow</strong> con cui li usiamo.</p><p>Se deleghiamo tutto all’AI, otteniamo slide mediocri in pochi secondi.<br>Se le imponiamo un metodo, otteniamo <strong>bozze solide</strong> su cui intervenire in modo mirato, recuperando tempo senza sacrificare qualità.</p><p>Il vero punto non è “quale tool scegliere”, ma <strong>quando fermarsi</strong>:</p><ul><li>fermarsi prima di rifinire,</li><li>fermarsi per verificare,</li><li>fermarsi per decidere cosa conta davvero per chi ascolta.</li></ul><p>Perché l’AI può impaginare, sintetizzare e visualizzare.<br>Ma <strong>non può sapere cosa vuoi dire, né perché dovresti dirlo tu</strong>.</p><p>E finché questa responsabilità resta umana, il tempo risparmiato non è solo operativo: è tempo cognitivo, creativo e finalmente speso meglio.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*b9BKYaYXTi4YWn1ebWP0xg.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=7a9195aaca9b" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/ia-generativa-per-le-presentazioni-dal-caos-al-processo-7a9195aaca9b">IA generativa per le presentazioni: dal caos al processo</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Il prezzo da pagare]]></title>
            <link>https://webeconoscenza.gigicogo.it/il-prezzo-da-pagare-6068ed9ea124?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/6068ed9ea124</guid>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[fact-checking]]></category>
            <category><![CDATA[ai-slop]]></category>
            <category><![CDATA[social-networking]]></category>
            <category><![CDATA[generative-ai-tools]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Fri, 23 Jan 2026 14:19:32 GMT</pubDate>
            <atom:updated>2026-01-24T21:08:58.633Z</atom:updated>
            <content:encoded><![CDATA[<h4>Perché verificare contenuti nell’era dell’IA non è neutro (e non è gratis)</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*jIfV6fZBSMSpXluG0Yyh3Q.jpeg" /></figure><p>Ammetto, l’ho fatto anch’io. L’altro giorno ho visto alcune immagini delle mareggiate al Sud Italia e ho lanciato una ricerca sui social per vedere se c’erano delle testimonianze più significative di quelle trasmesse alla televisione.</p><p>E ne ho trovate molte ma, come sempre più spesso accade, alcune sembravano esageratamente drammatiche e fuori contesto anche se pubblicate da poche ore e con descrizioni perfettamente aderenti al recente ciclone Harry e il suo strascico di devastazioni.</p><p><strong>Mi sono fermato.</strong> Quelle immagini erano vere? O erano l’ennesimo esempio di contenuti generati artificialmente che invadono i nostri feed con il solo scopo di attirare click e interazioni?</p><p>Negli stessi giorni il Tg1, ripeto il Tg1, dunque il notiziario principale della prima rete nazionale, è incappato in <strong>disastro comunicativo e reputazionale</strong> che difficilmente si giustifica.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*OJi0dLgDu7ATy2brRskdzg.png" /></figure><p>Qui di seguito, sul sito di Facta News, il resoconto dell’accaduto.</p><p><a href="https://www.facta.news/articoli/tg1-video-nevicate-kamchatka-russia-intelligenza-artificiale">II TG1 ha pubblicato un video sulle nevicate in Kamchatka fatto con l&#39;IA | Facta</a></p><p>Ma perchè vi racconto tutto questo e cos’ha a che fare con l’AI Generativa?</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un podcast automatico tramite le funzionalità di NotebookLM. Questa volta in forma di dibattito. Visto l’argomento.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FnKPTfkPK3N0%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DnKPTfkPK3N0&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FnKPTfkPK3N0%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/8742b990dab358af4d1c11c9aba6de55/href">https://medium.com/media/8742b990dab358af4d1c11c9aba6de55/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!</em></blockquote><blockquote><em>👉 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com/</em></a></blockquote><p>Il racconto non è finito qui e quello che avete letto è solo il ‘gancio’ a un tema che sto analizzando anche per motivi professionali e che ho già sfiorato precedentemente in un articolo sull’AISlop.</p><p><a href="https://webeconoscenza.gigicogo.it/ai-slop-la-sbobba-digitale-che-sta-soffocando-internet-a63e5364c4b2">AI Slop: la “sbobba” digitale che sta soffocando internet.</a></p><p>Personalmente lo considero un tema caldissimo e per certi aspetti <strong>decisivo per le sorti del pianeta e dell’umanità</strong>. E credetemi, non sto esagerando, perché tutto ciò è legato ad aspetti fondamentali che regolano le nostre vite, le nostre economie e persino le guerre in atto e quelle che verranno.</p><p>Ma serve un’altro passaggio per definire meglio il perimetro dell’analisi, ed è un passaggio relativo al costume, alle nostre abitudini e alle nostre attitudini. Insomma un passaggio sui comportamenti.</p><p>Scorrendo le mie fonti informative abituali, poche ore dopo aver fatto le ricerche sull’uragano Harry, mi sono imbattuto in un articolo che, non avrebbe potuto definire meglio il mood degli utenti social nell’anno domini 2026. E si tratta di comportamenti relativi alla ormai comprovata diffidenza di moltissimi utenti rispetto alle notizie veicolate sui social, e non solo.</p><p>Comportamenti che portano non tanto a diffidare dell’AI, ma a <strong>diffidare della realtà!</strong></p><p>Se vi avanza un po’ di tempo per leggerlo, al suo interno troverete molte similitudini sui comportamenti che ognuno di noi, ormai consapevolmente o no, sta tenendo.</p><p><a href="https://www.dday.it/redazione/56056/questa-cosa-e-vera-o-e-ia-il-mondo-raccontato-dagli-schermi-rischia-di-non-esistere-piu">&quot;Questa cosa è vera o è IA?&quot;, il mondo raccontato dagli schermi rischia di non esistere più</a></p><h3>Ma le leggi, i regolamenti, le sanzioni?</h3><p>Già, come spesso accade quando siamo in difficoltà, cerchiamo di appellarci ad ordinamenti e regolamenti superiori. Quasi fosse una forma difensiva e di tutela alla quale aggrapparsi.</p><p>Ma su questi temi, così delicati, si sta consumando uno scontro di civiltà normativa e, purtroppo, si evince che il mondo si sta muovendo in ordine sparso:</p><ul><li><strong>Europa (AI Act):</strong> L’UE ha giocato d’anticipo con l’<a href="https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai">AI Act</a>, che impone obblighi di trasparenza severi. I contenuti generati dall’IA devono essere etichettati (il cosiddetto watermark o bollino #AIMADE). L’obiettivo è proteggere la democrazia e il diritto all’informazione.</li><li><strong>USA:</strong> Qui la situazione è diversa. Le big tech americane spesso invocano il <em>First Amendment</em> (libertà di parola) per resistere a controlli editoriali stringenti sulle piattaforme. Per molti provider, l’obbligo di marcare ogni contenuto è percepito come un’ingerenza nel “diritto di espressione” della macchina o dell’utente.</li><li><strong>Cina:</strong> Contrariamente a quanto si possa pensare, la Cina è tra i paesi più restrittivi ma con finalità molto diverse da quelle europee. Dal settembre 2025, Pechino ha reso obbligatorio il <a href="https://42lf.it/cina-etichettatura-obbligatoria-per-contenuti-generati-intelligenza-artificiale/">labelling dei contenuti AI</a>, sia esplicito che nei metadati, per mantenere un controllo ferreo sul flusso informativo e prevenire l’instabilità sociale.</li></ul><p>Alla fine, risuta chiaro che le leggi, da sole, non bastano. Serve che ciascuno di noi sviluppi competenze di verifica e difesa critica. E per fare ciò non serve essere ingegneri informatici. Serve metodo, pazienza e gli strumenti giusti (anche, e non solo, di AI).</p><p>Di seguito una piccola guida operativa (non esaustiva) per verificare immagini e video sospetti:</p><h4>1. Analisi visiva preliminare</h4><p>Prima ancora di usare strumenti digitali, allena il tuo occhio a riconoscere i segnali tipici dei contenuti AI</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*bUaVOPwXz-RaEJzGsn4xfw.png" /></figure><h4>2. Ricerca inversa</h4><p>Usa analizzatori come <a href="https://lens.google/intl/it/">Google Lens</a>, <a href="https://tineye.com/">TinEye</a> e <a href="https://yandex.com/">Yandex Images</a> per scoprire dove un’immagine è già apparsa online. Tuttavia, le loro banche dati non sono sempre aggiornate, quindi non possono confermare se un’immagine è generata da AI o autenticare contenuti appena pubblicati sui social. Sono comunque utili per scremare i primi dubbi.</p><h4>3. Verifica dei metadati (EXIF)</h4><p>I metadati di una foto digitale contengono informazioni come data di scatto, tipo di fotocamera, coordinate GPS e velocità otturatore. Se una foto, presentata come scattata oggi, mostra metadati del 2019 o coordinate di un’altra città, è sospetta.</p><p>Strumenti gratuiti:</p><ul><li><a href="https://onlineexifviewer.com/"><strong>Online EXIF Viewer</strong></a>: visualizza data, ora, GPS e tipo fotocamera</li><li><a href="https://exifmeta.com/"><strong>ExifMeta</strong></a>: supporta oltre 50 formati, compresi video e documenti</li><li><a href="https://openminds.exopaedia.org/"><strong>Jeffrey’s Image Metadata Viewer</strong></a>: mostra quando e come è stata creata un’immagine</li></ul><p><strong>Nota critica sui metadati</strong><br>I metadati non provano l’autenticità. Generatori di immagini sintetiche e piattaforme social li rimuovono o li simulano. I metadati aiutano solo a individuare <strong>incongruenze evidenti</strong>, non a certificare la realtà di un contenuto.</p><h4>4. Error level analysis (ELA): Smascherare le modifiche di Photoshop</h4><p>Quando un’immagine è stata modificata e salvata di nuovo, le zone toccate dall’editor mostrano un <strong>metodo di compressione diverso</strong> dal resto. L’ELA lo evidenzia visualmente.</p><ul><li><a href="http://www.fotoforensics.com/"><strong>FotoForensics</strong></a>: il miglior strumento gratuito per ELA</li><li><a href="https://29a.ch/photo-forensics/#forensic-magnifier"><strong>Forensically</strong></a>: analizza le manipolazioni attraverso tecniche di analisi forense</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*9K_gILTF1D1VXUBcsZL5pw.png" /></figure><p><strong>Limitazione</strong>: non funzionano bene su immagini di tipo PNG, immagini salvate più volte, o immagini con modifiche minime.</p><h4>5. Rilevamento di immagini generate da AI</h4><p>Se sospetti che un’immagine sia stata creata con l’AI da Midjourney, DALL-E o Stable Diffusion, allora puoi utilizzare:</p><ul><li><a href="https://copyleaks.com/ai-image-detector/"><strong>Copyleaks AI Image Detector</strong></a>: non fornisce solo una probabilità, ma evidenzia esattamente i <strong>pixel modificati da AI</strong> con un’overlay visuale. Disponibile gratuitamente in demo</li><li><a href="https://decopy.ai/ai-image-detector/"><strong>Decopy AI</strong></a>: rileva Midjourney, Stable Diffusion, DALL-E, Flux. Gratuito e illimitato</li></ul><figure><img alt="" src="https://cdn-images-1.medium.com/max/1011/1*1J9iwCPf-P1oK-andWWtSw.png" /></figure><p><strong>Realismo</strong>: nessun detector è perfetto. <a href="https://openai.com/index/understanding-the-source-of-what-we-see-and-hear-online/">OpenAI’s Deepfake Detector</a> raggiunge il 98.8% di accuratezza su DALL-E 3, ma crolla al 5–10% su altri modelli.</p><h4>6. E se si tratta di un volto?: Liveness detection</h4><p>Se l’immagine contiene il volto di una persona, servizi specializzati analizzano se il volto è “vivo” (reale, di una persona presente) o sintetico:</p><ul><li><a href="https://sensity.ai/"><strong>Sensity AI</strong></a>: piattaforma professionale che combina analisi di immagini, video e audio. Monitora 9000+ fonti online. Usato da forze dell’ordine e istituzioni</li></ul><p>La ricerca inversa rimane il fondamento, ma <strong>stratificare 2–3 tecniche diverse offre un livello di certezza maggiore</strong>.</p><h3>Verifica dei fatti assistita dall’IA (il paradosso)</h3><p>Però devo ammetterlo, mio malgrado: L’utilizzo dell’Intelligenza Artificiale per contrastare le applicazioni dannose dell’IA rappresenta un vero paradosso intrinseco.</p><p>Tale pratica, infatti, contribuisce al consumo energetico eccessivo. Tuttavia, evitando approcci estremi e, riservando l’impiego di queste tecnologie solo a situazioni in cui risultano strettamente necessarie, si può mitigare l’impatto negativo anche utilizzando bene l’AI.</p><p>È però fondamentale chiarire subito un punto: <strong>l’uso dell’IA per verificare contenuti non è neutro</strong>. Va riservato a casi con potenziale impatto pubblico, informativo o reputazionale, evitando di trasformare ogni dubbio marginale in una nuova richiesta computazionale ad alto costo.</p><p><strong>Prompt per ChatGPT o Claude</strong>:</p><blockquote>“Analizza questa descrizione: [DESCRIVI L’IMMAGINE/VIDEO]. <br>Confronta i dettagli con:<br>- Dati meteorologici ufficiali del [DATA] per [LUOGO]<br>- Fisica delle ombre e illuminazione per quella latitudine e ora<br>- Proporzioni architettoniche e urbane del luogo<br>- Coerenza degli abiti/vegetazione con la stagione<br>Identifica tutte le incongruenze che potrebbero indicare contenuto sintetico.”</blockquote><p><strong>Prompt specifico per verifica video:</strong></p><blockquote>“Questo video mostra [DESCRIZIONE]. Analizza:<br>- Continuità dei movimenti delle persone (movimenti innaturali o glitch)<br>- Coerenza dell’audio con i movimenti labiali<br>- Presenza di artefatti di compressione anomali<br>- Plausibilità fisica degli eventi mostrati<br>Segnala elementi sospetti.”</blockquote><p>Quando i dubbi persistono, è utile affidarsi a chi fa debunking in modo professionale. <br>A livello internazionale esistono risorse solide come <a href="https://www.snopes.com"><strong>Snopes</strong></a>, il più antico sito di fact‑checking con un database vastissimo, <a href="https://www.factcheck.org"><strong>FactCheck.org</strong></a>, specializzato in politica USA ma attento anche ai fenomeni virali, e <a href="https://factcheck.afp.com"><strong>AFP Fact Check</strong></a>, l’unità dell’agenzia France‑Presse che verifica contenuti in oltre 20 lingue. <br>In Italia i punti di riferimento sono <a href="https://www.facta.news"><strong>Facta.news</strong></a>, molto attivo sui social, <a href="https://www.open.online/c/fact-checking/"><strong>Open</strong></a>, che monitora bufale e fake news con focus nazionale, <a href="https://pagellapolitica.it/fact-checking"><strong>Pagella Politica</strong></a>, centrata sulle dichiarazioni pubbliche ma attiva anche sul virale, e <a href="https://www.butac.it"><strong>BUTAC</strong></a>, una community che da anni smonta un’ampia varietà di falsi online. <br>Per i video, strumenti come <a href="https://www.google.com/search?client=safari&amp;rls=en&amp;q=InVID%2FWeVerify&amp;ie=UTF-8&amp;oe=UTF-8"><strong>InVID/WeVerify</strong></a><strong> (</strong> un plugin per Chrome che analizza i filmati fotogramma per fotogramma) e la semplice <strong>analisi frame‑by‑frame</strong> dopo aver scaricato il video restano le soluzioni più efficaci per individuare manipolazioni e incongruenze.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*Ynv1TGr4sRPMIXMMSqFa2Q.png" /></figure><h3>La posta in gioco: oltre l’IA e i social media</h3><p>Anche se può sembrare che mi sto preoccupando “solo” di immagini fake sui social, le implicazioni di questa, e di altre derive, sono molto più profonde.</p><p>Usare l’AI e i Social per veicolare tutta questa spazzatura ha anche <strong>un costo sociale altissimo!</strong></p><p>La geopolitica dell’Intelligenza Artificiale non si limita alle piattaforme cloud, ma si estende alle <strong>miniere di terre rare</strong> situate in Groenlandia o in Ucraina, nonché ai <strong>giacimenti petroliferi</strong> del Venezuela e del Medio Oriente. Guarda caso, le principali zone interessate dai conflitti recenti.</p><p>Ogni immagine generata, ogni video deepfake, ogni contenuto sintetico richiede un’enorme quantità di energia e risorse.</p><p>Studi <a href="https://arxiv.org/abs/2104.10350">scientifici e indipendenti</a> dimostrano che l’impatto energetico dei modelli generativi di AI varia di ordini di grandezza a seconda del modello, dell’infrastruttura e del tipo di utilizzo, rendendo insostenibile un impiego indiscriminato.</p><p>In sintesi e in piena onestà, pur riconoscendo la potenziale gravità dei contenuti dannosi, mantengo una visione ottimistica sull’innovazione e sul progresso, purché guidati da interessi globali e non da interessi particolari.</p><p>Il grande limite di questa epoca risiede nella legittimazione degli interessi di una ristretta élite, rappresentata dagli oligarchi tecnologici, a detrimento della maggioranza della popolazione.</p><h3>Il decalogo del cittadino digitale consapevole</h3><ol><li><strong>Verifica prima di cliccare:</strong> Se la fonte non è attendibile, non condividere.</li><li><strong>Usa gli strumenti</strong>: Dedica 2 minuti alla verifica invece di 2 secondi alla condivisione.</li><li><strong>Pretendi il bollino:</strong> Sostieni le piattaforme che rispettano l’obbligo di dichiarare l’uso di IA.</li><li><strong>Qualità batte quantità:</strong> Non generare contenuti inutili “tanto è gratis”. Nulla è gratis per il pianeta.</li><li><strong>Educazione continua:</strong> Allena il tuo occhio critico e impara a riconoscere i segni dell’IA (mani con sei dita, scritte sfocate, ombre o riflessi incoerenti, ecc.).</li><li><strong>Rispetto per l’ingegno umano:</strong> Dai valore ai contenuti creati da persone in carne ed ossa.</li><li><strong>Segnalazione attiva:</strong> Segnala i contenuti generativi spacciati per reali.</li><li><strong>Riduzione dell’impronta:</strong> Ricorda che ogni interazione complessa con l’IA può consumare molto di più di strumenti passivi come le lampadine.</li><li><strong>Trasparenza radicale:</strong> Se usi l’IA per un tuo post, dichiaralo apertamente.</li><li><strong>Difesa della democrazia:</strong> Non lasciare che gli algoritmi decidano cosa è vero per te.</li></ol><h3>Conclusione: ritorno alla realtà</h3><p>La vera sfida non è la tecnologia, ma il nostro comportamento. Se continuiamo a consumare e condividere contenuti senza verificarli, alimentiamo un circolo vizioso che s<strong>preca risorse rare</strong> e inquina il dibattito pubblico.</p><p>Serve un patto di cittadinanza digitale che metta al centro la <strong>sostenibilità e la verità</strong>. Gli strumenti esistono, le competenze si possono sviluppare. Quello che serve è la volontà di prendersi quei 2 minuti in più prima di credere e condividere.</p><p><strong>Meno spreco, più controllo, più democrazia.</strong> È questo il vero aggiornamento di cui abbiamo bisogno.</p><p>E ogni tanto, ricordiamoci di alzare lo sguardo dallo schermo. La realtà non dovrebbe aver bisogno di watermark per essere riconosciuta.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*c9lt1sPG85kSCZv62dxSPg.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=6068ed9ea124" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/il-prezzo-da-pagare-6068ed9ea124">Il prezzo da pagare</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[PLUR1BUS: la serie che non parla di IA, ma ti spiega perché l’IA ci sta cambiando]]></title>
            <link>https://webeconoscenza.gigicogo.it/plur1bus-la-serie-che-non-parla-di-ia-ma-ti-spiega-perch%C3%A9-lia-ci-sta-cambiando-87bef1eae998?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/87bef1eae998</guid>
            <category><![CDATA[pluribus]]></category>
            <category><![CDATA[etica]]></category>
            <category><![CDATA[plur1bus]]></category>
            <category><![CDATA[artificial-intelligence]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Fri, 16 Jan 2026 10:32:06 GMT</pubDate>
            <atom:updated>2026-01-16T10:31:53.481Z</atom:updated>
            <content:encoded><![CDATA[<h4>Una riflessione critica tra filosofia, attualità e intelligenza artificiale</h4><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*HgMpWkFKmGsONf3tWpEASQ.jpeg" /></figure><p>Ci sono storie che guardi. E poi ci sono storie che, a un certo punto, <strong>ti restituiscono lo sguardo</strong>.</p><p>PLUR1BUS appartiene alla seconda categoria.</p><p>Ho iniziato a guardarla senza aspettative particolari. Una nuova serie di <strong>Vince Gilligan</strong> (X-Files, Breaking Bad, ecc.) certo. Dunque, qualità garantita. Ma niente che immaginassi potesse smuovere qualcosa di profondo. Mi sbagliavo.</p><p>Dopo poche puntate mi sono ritrovato nello stesso stato mentale che mi ha accompagnato quando scrivevo <a href="https://books.apple.com/us/book/lalba-delle-menti-artificiali/id6755840910"><em>L’alba delle menti artificiali</em></a>: quella sensazione scomoda, difficile da verbalizzare, che nasce quando capisci che <strong>il problema non è la tecnologia</strong>. Il problema siamo noi quando smettiamo di farle domande!</p><p>Perchè PLUR1BUS lavora su un altro livello: quello dove la tecnologia diventa <strong>psicologia collettiva</strong>, cultura, abitudine, resa dolce. Ed è lì che fa male.</p><p>Ok, ora lo avete capito. Questo non è un articolo tecnico.<br>Oggi non scriverò di modelli, architetture o prove su strada di prodotti e servizi di IA. Ma parlerò comunque di IA. E scriverò con lo stesso stile narrativo che ho usato nel mio recente eBook. <br>(p.s. l’articolo contiene spoiler)</p><h3>La gentilezza che non consola</h3><p>Gilligan dice che PLUR1BUS non parla di Intelligenza Artificiale.<br>E ha ragione.</p><p>Ma non serve parlare di IA per raccontare <strong>l’effetto che l’IA ha su di noi</strong>.</p><p>C’è qualcosa di profondamente disturbante nella gentilezza che attraversa tutta la serie. Una gentilezza costante. Perfetta. Priva di sbavature.<br>Una gentilezza che non si stanca mai, non si irrita, non ti contraddice davvero.</p><p>È la stessa sensazione che proviamo quando interagiamo con sistemi che rispondono sempre, subito, nel modo giusto.<br>Una gentilezza che non nasce da empatia, ma da <strong>assenza di attrito</strong>.</p><p>E l’assenza di attrito, nella vita reale, non è mai neutra: è anestesia.</p><p>PLUR1BUS non ci mostra macchine ribelli. Ci mostra esseri umani che <strong>smettono lentamente di aver bisogno di sé stessi.</strong></p><h3>La felicità come trappola evolutiva</h3><p>La premessa della serie è semplice e spietata:<br>un’infezione aliena rende l’umanità più pacifica, più cooperativa, più felice. Niente dolore. Niente conflitti. Niente solitudine.</p><p>E qui arriva la domanda che fa davvero paura: <strong>se potessimo eliminare la sofferenza rinunciando a una parte della nostra autonomia, lo faremmo?</strong></p><p>PLUR1BUS non dà una risposta teorica. Mostra un fatto.</p><p>La maggioranza non esita. La maggioranza sceglie la pace. La maggioranza sceglie di <strong>non scegliere più</strong>.</p><p>È uno dei temi centrali che affronto anche nel mio <a href="https://books.apple.com/us/book/lalba-delle-menti-artificiali/id6755840910">ebook</a>: non viviamo una rivoluzione violenta, ma una <strong>trasformazione morbida</strong>, in cui il controllo non viene imposto, viene desiderato. Non perché siamo stupidi.<br>Ma perché siamo stanchi.</p><p>La tecnologia non ci domina. Ci solleva! E nel farlo, ci alleggerisce anche della responsabilità di essere umani.</p><h3>Il “Plur1bus” che non somma, ma svuota</h3><p>“Plur1bus” significa “molti”. Ma nella serie quel “molti” non genera complessità: la elimina.</p><p>Il collettivo (‘noi’) sa tutto. Coordina tutto. Ottimizza tutto. Ma non desidera nulla. Non sogna nulla. Non crea nulla. È una mente enorme, efficiente, perfetta… e sterile.</p><p>Nel mondo di PLUR1BUS non esistono più errori. E dove non esistono errori, <strong>non esiste più creatività:</strong> ‘v<em>i dice qualcosa, tutto questo?’.</em></p><p>È una verità scomoda, ma necessaria: l’intelligenza non è solo calcolo, è frizione, è fallimento, è ambiguità. <strong>È tutto ciò che stiamo cercando di eliminare in nome dell’efficienza</strong>. <br>E se eliminiamo quello, cosa resta?</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/768/1*XMbmyqFBBAj8Ite0QRfKiQ.jpeg" /></figure><h3>Gli alieni non arrivano: emergono</h3><p>La fantascienza più intelligente lo sa da sempre: gli alieni non arrivano dallo spazio. Arrivano dal <strong>sistema che abbiamo costruito</strong>.</p><p>PLUR1BUS si inserisce in quella linea che va da <em>Solaris</em> a <em>Soylent Green</em>, fino a <em>Black Mirror</em>: storie in cui il vero antagonista non è un’entità esterna, ma una <strong>logica dominante</strong>.</p><p>Ottimizzazione. Uniformità. Riduzione della complessità umana a pattern gestibili. Non è un futuro lontano. È il presente che stiamo normalizzando.<br>Ripeto per l’ultima volta: <em>‘vi dice qualcosa tutto questo?’.</em></p><p>L’isolamento, la perdita di conflitto, l’illusione di connessione totale: non sono elementi fantascientifici. Sono già qui. Solo che non li chiamiamo invasione. <strong>Li chiamiamo progresso.</strong></p><h3>Il potere non è l’IA, ma chi la possiede</h3><p>Nel giro di pochissimi anni, l’Intelligenza Artificiale ha creato una nuova aristocrazia. Un’ aristocrazia moderna che non è rappresentata da inventori o filosofi, ma da <strong>proprietari di infrastrutture cognitive</strong>.</p><p>PLUR1BUS intercetta questa tensione senza mai nominarla: il potere non è nell’intelligenza collettiva, ma in <strong>chi decide le sue regole</strong>.</p><p>È lo stesso punto che ritorna continuamente nei miei articoli sul blog: non basta chiedersi <em>cosa può fare la tecnologia</em>, ma <strong>chi la governa, per chi e con quali valori</strong>.</p><p>Il problema non è l’IA. Il problema è una società che rinuncia al conflitto pur di non affrontare la complessità.</p><h3>Dire “no” come ultimo atto umano</h3><p>Manousos Oviedo non è un eroe classico. Non salva il mondo. Non vince.<br>Fa una cosa molto più rara: <strong>rifiuta</strong>.</p><p>Rifiuta la gentilezza che anestetizza. Rifiuta l’aiuto che chiede obbedienza in cambio. Rifiuta la pace che costa l’identità.</p><p>Quando dice: <em>“I am not one of </em><strong><em>them</em></strong><em>. I wish to save the world”</em> non sta parlando di un pianeta. <strong>Sta parlando di un’idea di umanità</strong>.</p><p>Meglio perdere da umani che vincere da organismi perfettamente adattati.</p><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FemoRebvVib8%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DemoRebvVib8&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FemoRebvVib8%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/9e70cd72343e9eedc313d10dfa6e3f1d/href">https://medium.com/media/9e70cd72343e9eedc313d10dfa6e3f1d/href</a></iframe><h3>La lentezza come forma di resistenza</h3><p>PLUR1BUS è lenta. E non è un difetto.</p><p>La lentezza è una scelta politica, narrativa, culturale.<br>È l’opposto dello <strong>scrolling infinito</strong>, della <strong>risposta immediata</strong>, della <strong>dopamina facile</strong>. Gilligan non vuole intrattenerti. Vuole che tu <strong>resti nel disagio</strong>.</p><p>Perché oggi sentire davvero qualcosa è già un atto controcorrente.</p><h3>Perché se mi intriga l’IA son qui a raccontarvi di libri, film e serie tv?</h3><p>Se parlo di PLUR1BUS qui, sul mio blog, non è solo per recensire una serie che mi è piaciuta. È perché <strong>non si vive di sola tecnica</strong>. E ci mancherebbe pure!</p><p>Se vogliamo capire cosa l’Intelligenza Artificiale sta facendo a noi (non ai processi, ma alle persone) dobbiamo guardare anche dove la cultura prova ad anticipare, esagerare, distorcere.</p><p>Libri, film, serie, racconti: sono <strong>laboratori emotivi</strong>. Ci permettono di sperimentare scenari prima che diventino normalità.</p><p>Ed è esattamente questo il senso del percorso che porto avanti, nel blog e nell’ebook: <strong>usare la tecnologia come lente per leggere l’essere umano</strong>, non il contrario.</p><h3>Conclusione: restare vivi è una scelta</h3><p>PLUR1BUS non è una serie “bella”. È una serie necessaria!</p><p>Non ti rassicura. Non ti offre soluzioni. Ti mette davanti a una domanda semplice e devastante: <strong>quanto sei disposto a cedere pur di non soffrire più?</strong></p><p>Carol resta infelice. E proprio per questo resta viva. E finché esisterà qualcuno disposto a dire “no”, anche senza sapere come andrà a finire, la storia non sarà chiusa.</p><p>Il resto non lo deciderà una macchina. <strong>Lo decideremo noi.</strong></p><p>Se vi state chiedendo perchè si scrive PLUR<strong>1</strong>BUS con il numero ’1&#39; e non PLUR<strong>I</strong>BUS con la ‘I’, provo a dire la mia anche su questo:</p><p>Scrivere <strong>PLUR1BUS</strong> invece di <em>PLURIBUS</em> è un gesto simbolico potentissimo, e funziona su più livelli.</p><h4>1. Dal molti all’uno</h4><p>“E pluribus unum” significa <em>dai molti, uno</em>.<br>Sostituire la <strong>I</strong> con <strong>1</strong> trasforma una lettera in un numero e rende visivo il concetto: <strong>i molti vengono ridotti a uno solo!</strong></p><p>Non più individui, ma <strong>istanze</strong>. Non più persone, ma <strong>nodi</strong> di un’unica entità.</p><p>È la stessa logica dei sistemi collettivi: sembri parte di un “plurale”, ma in realtà vieni assorbito in <strong>un’identità unica</strong>, standardizzata.</p><h4>2. L’1 è digitale, non umano</h4><p>La <strong>I</strong> è una lettera. L’<strong>1</strong> è un simbolo numerico.</p><p>È il passaggio:<br>- da linguaggio → a codice<br>- da cultura → a computazione<br>- da identità → a stato</p><p>L’<strong>1</strong> richiama immediatamente:<br>- binario (1/0)<br>- sistemi digitali<br>- logica computazionale<br>- riduzione dell’umano a dato</p><p>PLUR1BUS dice visivamente quello che la serie fa narrativamente: <strong>la traduzione dell’umanità in sistema</strong>.</p><h4>3. L’1&#39; cancella l’individuo (la “I”)</h4><p>In inglese “I” è anche <strong>io</strong>.</p><p>Sostituire la I con 1 significa:<br>- l’“io” non parla più<br>- l’“io” non decide più<br>- l’“io” viene contato, non ascoltato</p><p>Non sei più un soggetto. Sei un’unità. E questo è esattamente il cuore della serie.</p><h3>4. Un logo che è già un avvertimento</h3><p>PLUR1BUS è una parola che <strong>sembra quasi uguale</strong>, ma non lo è più.<br>Proprio come il mondo che racconta.</p><p>Tutto appare:<br>- più ordinato<br>- più efficiente<br>- più gentile</p><p>Ma qualcosa di essenziale è stato sostituito <strong>senza fare rumore</strong>.</p><p><strong>Nota finale: </strong>Gilligan, in un intervista a <em>Variety </em>ripresa e tradotta in italiano da SKY</p><p><a href="https://tg24.sky.it/spettacolo/serie-tv/2025/11/10/pluribus-vince-gilligan-serie-tv">Vince Gilligan chiarisce: &#39;La mia nuova serie Pluribus fatta da umani&#39;</a></p><p>ha definito l’Intelligenza Artificiale “<em>la macchina di plagio più costosa e dispendiosa di energia al mondo</em>”, denunciando il rischio di un sistema che produce contenuti privi di originalità e senso. Ha paragonato la produzione generata dall’IA a “<em>una mucca che rimastica il suo bolo — un ciclo infinito di assurdità rigurgitate</em>”.<br>E con il suo consueto tono tagliente, ha aggiunto ironicamente: “<em>Thank you, Silicon Valley! Yet again, you’ve f***ed up the world</em>” (traducibile così: “<em>Grazie, Silicon Valley! Ancora una volta, hai incasinato il mondo</em>”).</p><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=87bef1eae998" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/plur1bus-la-serie-che-non-parla-di-ia-ma-ti-spiega-perch%C3%A9-lia-ci-sta-cambiando-87bef1eae998">PLUR1BUS: la serie che non parla di IA, ma ti spiega perché l’IA ci sta cambiando</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
        <item>
            <title><![CDATA[Allucinazioni AI: Da fenomeno a soluzione.]]></title>
            <link>https://webeconoscenza.gigicogo.it/allucinazioni-ai-da-fenomeno-a-soluzione-06351a08a47a?source=rss----11570e4da447---4</link>
            <guid isPermaLink="false">https://medium.com/p/06351a08a47a</guid>
            <category><![CDATA[retrieval-augmented-gen]]></category>
            <category><![CDATA[agentic-ai]]></category>
            <category><![CDATA[intelligenza-artificiale]]></category>
            <category><![CDATA[deep-research]]></category>
            <category><![CDATA[allucinazioni]]></category>
            <dc:creator><![CDATA[Gianluigi Cogo]]></dc:creator>
            <pubDate>Mon, 12 Jan 2026 15:32:52 GMT</pubDate>
            <atom:updated>2026-01-12T15:32:50.880Z</atom:updated>
            <content:encoded><![CDATA[<h4>Come RAG e Deep Research stanno ridefinendo l’affidabilità dell’IA</h4><p>Oggi affronto la seconda parte dell’analisi sulle <strong>allucinazioni</strong> e sulla generazione di informazioni errate da parte dei modelli linguistici. In questa articolo, esaminerò le ragioni per cui RAG non rappresenta la soluzione definitiva e poi valuterò anche delle potenziali alternative.</p><blockquote><em>🎧 Per i più pigri ho realizzato, come di consueto, un podcast automatico tramite le funzionalità di NotebookLM.</em></blockquote><iframe src="https://cdn.embedly.com/widgets/media.html?src=https%3A%2F%2Fwww.youtube.com%2Fembed%2FFMXlzuO4wuo%3Ffeature%3Doembed&amp;display_name=YouTube&amp;url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DFMXlzuO4wuo&amp;image=https%3A%2F%2Fi.ytimg.com%2Fvi%2FFMXlzuO4wuo%2Fhqdefault.jpg&amp;type=text%2Fhtml&amp;schema=youtube" width="854" height="480" frameborder="0" scrolling="no"><a href="https://medium.com/media/12c9d4154d235253c0076cc15ac684e3/href">https://medium.com/media/12c9d4154d235253c0076cc15ac684e3/href</a></iframe><blockquote><em>➡️ Iscriviti alla mia newsletter per ricevere ogni settimana analisi approfondite, spunti pratici e le ultime novità sull’IAgenerativa direttamente nella tua casella di posta!<br>🔗 </em><a href="https://gigicogo.substack.com/"><em>https://gigicogo.substack.com</em></a></blockquote><h3>Introduzione: due anni di evoluzione</h3><p>Nel mio primo articolo sul tema: “<a href="https://webeconoscenza.gigicogo.it/allucinazioni-artificiali-perch%C3%A8-i-modelli-ia-pi%C3%B9-avanzati-sbagliano-3164f36bb641">Allucinazioni artificiali: perché i modelli IA più avanzati sbagliano</a>” avevo provato ad approfondire il meccanismo fondamentale alla base delle allucinazioni generate dai modelli di linguaggio di grandi dimensioni (LLM).</p><p><a href="https://webeconoscenza.gigicogo.it/allucinazioni-artificiali-perch%C3%A9-i-modelli-ia-pi%C3%B9-avanzati-sbagliano-3164f36bb641">Allucinazioni artificiali: perché i modelli IA più avanzati sbagliano?</a></p><p>All’epoca, avevo fatto notare che questi modelli spesso creano testo basandosi su probabilità che dipendono solo dalle informazioni che hanno dentro di sé. In pratica, si tratta di un meccanismo chiamato <strong>inferenza</strong>, che è il processo attraverso il quale il modello genera il risultato usando solo i dati di addestramento che gli sono stati forniti (precaricati), senza cercare informazioni da altre fonti. Però, questa analisi era valida solo fino a metà 2024.</p><p>Proprio l’anno scorso il panorama dell’Intelligenza Artificiale Generativa ha subito una trasformazione radicale. Sebbene una “cura” definitiva al fenomeno delle allucinazioni non sia ancora stata trovata, è emersa sempre con più preoccupazione la consapevolezza che <strong>la vera questione non è tanto come il chatbot genera le risposte, ma piuttosto l’accesso alle informazioni che usa per farlo</strong>.<br>E così, mentre le aziende e i professionisti si concentravano sulla ricerca di soluzioni basate su <a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">Retrieval Augmented Generation (RAG</a>), giganti del settore come OpenAI si sono messi all’opera per dare una bella rinfrescata all’architettura dei loro modelli di generazione.</p><p>Questo nuovo articolo prova ad esplorare un viaggio: dalla RAG (che funziona, ma con limiti) al Deep research (che cambia le regole del gioco), fino alle nuove architetture emergenti come GraphRAG e RAG Agentic.<br>Dunque allacciate le cinture che si parte!</p><h3>Il vero problema</h3><p>Prima di parlare di RAG, bisogna capire il nemico numero uno: <strong>il knowledge cutoff</strong>.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*dllkyElduThg0vcwlbB9TA.jpeg" /></figure><p>Ogni <a href="http://linguistico di grandi dimension">modello linguistico di grandi dimensioni</a> (LLM) possiede una data limite oltre la quale non dispone più di dati di addestramento. Ad esempio, GPT-4 è stato addestrato fino ad aprile 2024, con aggiornamenti limitati, mentre Claude Sonnet ha accesso alle informazioni fino a luglio 2024. Per Gemini di Google, il <strong>cutoff</strong> varia in base all’argomento. Di conseguenza, <strong>nessun modello dispone di conoscenza degli eventi verificatisi nei mesi recenti della nostra ricerca</strong>, a meno di non avere accesso a informazioni in tempo reale.​</p><p>La complessità del problema è ulteriormente accentuata dal fatto che l’addestramento di un modello linguistico di grandi dimensioni comporta costi superiori a 1 miliardo di dollari per le versioni più avanzate. Non si tratta di una mancanza di volontà, bensì di una questione economica: l’aggiornamento continuo di tali modelli risulta insostenibile. Di conseguenza, quando un modello non dispone di dati specifici su un determinato argomento, <strong>non si limita a dichiarare la propria ignoranza, bensì genera una risposta plausibile</strong>. È da questo fenomeno che derivano le cosiddette “<strong>allucinazioni</strong>”.​</p><h3>RAG: il primo tentativo (2020–2024)</h3><p>Al fine di contrastare questa pericolosa deriva e la crescente incidenza di allucinazioni nelle risposte generate dai chatbot di Intelligenza Artificiale, nel 2020 è stata introdotta l’architettura <a href="https://it.wikipedia.org/wiki/Retrieval_augmented_generation">Retrieval-Augmented Generation</a> (RAG). <br>Quest’ultima propone un approccio alternativo al re-addestramento del modello, consentendogli l’accesso a fonti e basi di dati esterne (accessibili principalmente via internet) verificate e potenzialmente autorevoli. Tali fonti possono essere consultate pubblicamente o rese disponibili mediante specifici accordi commerciali.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*TXYkQT4xT_zEqK_IJ7UGfQ.jpeg" /></figure><h3>Come funziona la RAG</h3><p>Immaginiamo di chiedere a ChatGPT: <em>“Qual era il prezzo delle azioni Tesla il 10 gennaio 2026?”</em></p><p>In un modello privo di Retrieval-Augmented Generation (RAG), ovvero un modello che genera risposte esclusivamente sulla base delle informazioni acquisite durante il processo di addestramento, utilizzando unicamente i suoi parametri interni e la sua memoria statistica è abbastanza probabile che si vada incontro a un’allucinazione:</p><ol><li>Il modello non ha dati successivi al suo <strong>cutoff, e quindi </strong>inventa una risposta plausibile e ben confezionata.</li><li>Fornisce una risposta <strong>falsa</strong> con totale sicurezza.</li></ol><p>Con RAG, invece:</p><ol><li>La nostra domanda non arriva subito a ChatGPT;</li><li>Prima passa per un sistema che va a cercare tra documenti e dati reali (tipo fare una ricerca su Google, ma molto più sofisticata);</li><li>Questo sistema trova fonti affidabili sul prezzo di Tesla quel giorno;</li><li>Solo a questo punto Perplexity, piuttosto che ChatGPT riceverà sia la nostra domanda che i dati veri trovati;</li><li>Il modello genera una risposta basata su quei dati reali, spesso con citazioni e fonti.</li></ol><p>Una curiosità per provare a spezzare la complessità narrativa.<br>I modelli base, spesso vengono definiti ‘<strong>vanilla</strong>’ e il modelli AI privi di RAG si chiamano proprio ‘<strong>vanilla models</strong>’.</p><p>Ma perchè prendono questo buffo nome?</p><blockquote><em>Nella cultura anglosassone, vanilla è il gusto standard del gelato: quello “di default”, senza aggiunte.<br>Da qui l’uso metaforico: </em><strong><em>vanilla software</em></strong><em> = software nella sua forma originale, senza personalizzazioni.<br>Questa accezione è documentata nell’informatica dagli anni ’70 e ’80, dove “</em><strong><em>vanilla software</em></strong><em>” indicava un programma usato così com’è, senza modifiche.</em></blockquote><h3>I principali vantaggi reali del modello RAG</h3><p><strong>Sempre aggiornato</strong>: Con questa tecnica possiamo aggiungere nuove informazioni quando vogliamo, senza dover “rieducare” l’intelligenza artificiale da zero. Aggiornando gli archivi e il sistema userà automaticamente i dati nuovi.</p><p><strong>Verificabile</strong>: Possiamo controllare da dove arriva ogni informazione. Ad esempio: “T<em>esla costava X dollari, fonte: articolo Reuters del 10 gennaio 2026</em>”</p><p><strong>Conveniente</strong>: Secondo il <a href="https://www.wsj.com/articles/how-a-decades-old-technology-and-a-paper-from-meta-created-an-ai-industry-standard-354a810e">Wall Street Journal</a>, 8 aziende su 10 che usano l’AI generativa scelgono RAG invece di alternative più costose.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*JGcqoNxsIUBwt5aajW_NrQ.png" /></figure><h3>I limiti che scopriamo in tempo reale</h3><p>Ma attenzione: <strong>RAG non è perfetto</strong>. Nel 2025, <a href="https://research.aimultiple.com/ai-hallucination/">diversi</a> <a href="https://blogs.library.duke.edu/blog/2026/01/05/its-2026-why-are-llms-still-hallucinating/">studi</a> hanno dimostrato che anche sistemi RAG collegati a database legali professionali producono errori nel 17–33% dei casi.</p><p><strong>Cosa può andare storto:</strong><br><strong>Interpretazione sbagliata:</strong> Il sistema trova il documento giusto, ma lo usa nel contesto sbagliato. È come citare correttamente una legge, ma applicarla al caso sbagliato.<br><strong>Più lento e più costoso:</strong> Cercare, organizzare e inserire le informazioni richiede tempo. Le risposte possono impiegare diversi secondi invece di essere immediate.<br><strong>Spazzatura dentro, spazzatura fuori:</strong> Se i tuoi archivi contengono errori o informazioni vecchie, il sistema li userà comunque, peggiorando il problema.<br><strong>Difficoltà con ragionamenti complessi:</strong> RAG funziona bene per fatti semplici (“<em>Quanto costa X?</em>”), ma fa più fatica con domande che richiedono di collegare più informazioni o ragionare in modo articolato.</p><h3>Un caso reale che fa riflettere</h3><p>Nel luglio 2025, Deloitte Australia ha consegnato a un’agenzia governativa un rapporto importante, del valore di circa 440.000 dollari australiani. Per scriverlo, avevano usato GPT-4o, l’intelligenza artificiale di OpenAI. Il documento sembrava professionale, ben fatto, pieno di dati e citazioni.</p><p>Poi Chris Rudge, un ricercatore dell’Università di Sydney, ha iniziato a controllare le fonti citate nel rapporto. E ha scoperto un problema grave: <strong>molte citazioni erano completamente inventate</strong>. Non si trattava di errori minori o interpretazioni sbagliate. C’erano riferimenti a studi accademici che non esistevano, citazioni attribuite a persone che non le avevano mai dette, persino una frase attribuita a un giudice federale che era completamente falsa.</p><p>Deloitte ha dovuto <a href="https://www.business-standard.com/technology/tech-news/deloitte-ai-hallucination-report-australia-gpt4o-fabricated-references-125100800915_1.html">ammettere l’errore pubblicamente</a> e <a href="https://www.cjpi.com/insights/why-deloittes-440000-ai-report-is-a-warning-to-every-organisation-using-artificial-intelligence/">rimborsare l’ultimo pagamento del contratto</a>. L’azienda ha sostenuto che il contenuto principale e le raccomandazioni del rapporto rimanevano validi, ma il danno reputazionale era fatto.</p><p><strong>Qual era il problema?</strong> Deloitte aveva semplicemente chiesto all’AI di scrivere il rapporto, senza usare sistemi di verifica (come RAG) e senza controllare accuratamente i risultati. Avevano trattato ChatGPT come un esperto invece che come uno strumento da supervisionare.</p><p>Questo caso è significativo perché ci mostra che <strong>anche grandi aziende di consulenza, con risorse enormi e competenze tecniche, possono sbagliare gravemente</strong> nell’uso dell’intelligenza artificiale. Se può succedere a Deloitte, può succedere a chiunque. E dimostra quanto sia rischioso fidarsi ciecamente di ciò che l’AI produce, anche quando sembra convincente e professionale.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*NA-KMRU46Dox4lvwbvAtKA.jpeg" /></figure><h3>Deep Research: quando l’Intelligenza Artificiale effettua le ricerche per conto nostro</h3><p>Nel febbraio 2025, OpenAI ha introdotto <strong>Deep Research</strong>, una funzionalità integrata in ChatGPT Pro (e poi estesa ad altri piani). Non si tratta di una semplice estensione di ricerca come inserire Google dentro ChatGPT, ma di un <strong>agente che esplora il web, analizza dati testuali e file, e organizza i risultati in un output coerente.</strong></p><h4>Distinzione fra Deep Search e Deep Research</h4><p>Notare che in ambito AI la differenza fra le due tecnicche risiede principalmente nella finalità del processo: la prima serve a trovare l’informazione giusta, la seconda a elaborarla per creare nuova conoscenza.</p><ol><li><strong>Deep Search (Trovare l’informazione)</strong><br>È un’evoluzione del motore di ricerca tradizionale potenziata dall’AI per superare i limiti delle parole chiave. <br><strong>Obiettivo:</strong> Individuare dati o documenti specifici nascosti o complessi, spesso utilizzando la ricerca semantica (vettoriale) per comprendere l’intento dell’utente.<br><strong>Funzionamento:</strong> Espande la query originale in più varianti per interrogare il web o database privati in modo più capillare, scavando oltre i primi risultati.<br><strong>Risultato:</strong> Restituisce link, paragrafi o fatti precisi che rispondono direttamente alla domanda.</li><li><strong>Deep Research (Analizzare e Sintetizzare)</strong><br>È un processo “agente” (AI Agent) che simula il lavoro di un ricercatore umano. <br><strong>Obiettivo:</strong> Condurre un’analisi approfondita su temi complessi, collegando concetti provenienti da diverse fonti per trarre conclusioni o identificare lacune.<br><strong>Funzionamento:</strong> L’AI non si limita a cercare; pianifica una strategia, naviga autonomamente sul web, legge numerosi documenti (anche decine o centinaia) e ragiona sulle informazioni trovate.<br><strong>Risultato:</strong> Genera report strutturati, sintesi documentate o revisioni della letteratura complete di citazioni.</li></ol><p>Oggi, strumenti come <strong>OpenAI Deep Research</strong> e <strong>Gemini Deep Research</strong> sono diventati i compagni di lavoro preferiti dai professionisti che cercano un aiuto di livello “PhD”. Non sono più semplici “stagisti” che si limitano a creare report pronti all’uso, ma veri e propri esperti che vanno oltre la semplice ricerca, analizzando ed elaborando temi e contesti complessi.</p><h4>Come funziona la Deep Research</h4><p>Per far crescere la RAG, puntiamo dunque sulla <strong>Deep Research</strong>, come ad esempio quella di Open AI introdotta con il modello o3, pensato per ricerche complesse. Qui la Deep Research si presenta come un’evoluzione gerarchica della RAG e viene considerata una forma avanzata di “Agentic RAG”. <br>In pratica la RAG recupera dati, mentre la Deep Research è un processo autonomo che usa ripetutamente la RAG per compiti complessi. Questo modello combina quattro capacità cruciali.</p><ol><li><strong>Ricerca web sistematica: </strong>esplora e raccoglie dati dal web oltre alla singola ricerca per parole chiave;</li><li><strong>Analisi dati: </strong>legge e confronta documenti (PDF, fogli di calcolo, ecc.) e può usare strumenti di calcolo per elaborare dati;</li><li><strong>Ragionamento per passi: </strong>costruisce una strategia in più fasi per rispondere a domande complesse;</li><li><strong>Genera documentati con riferimenti web: </strong>produce risposte dettagliate corredate da link e citazioni delle fonti consultate per permettere verifica.</li></ol><h3>Un esempio pratico</h3><p>Domanda: <em>“Analizza le differenze tra le nuove leggi sull’Intelligenza Artificiale in Europa e in Asia.”</em></p><p>Deep Research:</p><ul><li>divide il problema in sotto‑domande (“<em>Quali sono le leggi in Europa?</em>”, “<em>Quali in Asia?</em>”, “<em>Dove divergono?</em>”);</li><li>effettua delle ricerche mirate per ciascun punto;</li><li>legge documenti e articoli;</li><li>costruisce un report completo con fonti e link.</li></ul><p>Il tutto in <strong>meno di 30 minuti</strong>, mentre un analista umano impiegherebbe giorni.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*DnETW2Yy-3ZCsAffrYxuXg.png" /></figure><h3>Le nuove evoluzioni: oltre il RAG tradizionale</h3><p>Nel 2025 sono state introdotte tre innovazioni che ampliano le capacità dei sistemi di recupero e ragionamento. Pur riconoscendo che tali sviluppi possano complicare il panorama e la scelta, è fondamentale comprendere che esiste una vasta gamma di utenti con problematiche e obiettivi differenti. Pertanto, le tecnologie devono sapersi evolvere per soddisfare efficacemente tutte queste esigenze e noi dobbiamo imparare a scegliere quelle giuste in base agli obiettivi.</p><h4>1. GraphRAG: capire le connessioni</h4><p>Sviluppato da Microsoft Research, <a href="https://www.ibm.com/it-it/think/topics/graphrag"><strong>GraphRAG</strong></a> non si limita a trovare fatti: costruisce una <strong>mappa delle relazioni</strong> tra persone, aziende, eventi.</p><p>Esempio: chiedere informazioni su un’azienda in crisi.</p><ul><li>Un RAG normale trova articoli sulla crisi.</li><li>GraphRAG identifica CEO, investitori, settore, relazioni, contesto e ci restituisce un quadro completo.</li></ul><p>Utile per: <strong>conformità normativa, indagini antifrode, ricerca scientifica.</strong></p><h4>2. RAG Agentic: l’AI che pianifica da sola</h4><p>Il <a href="https://www.ibm.com/it-it/think/topics/agentic-rag"><strong>RAG Agentic</strong></a> usa degli agenti AI autonomi che decidono quali passi compiere.</p><p>Esempio:<br>“<em>Per rispondere servono: A) definizioni legali, B) casi simili, C) statistiche recenti. Cerco tutto, confronto e produco la risposta.</em>”</p><p>Utile per: <strong>automazione complessa, analisi legali, decision‑making strategico.</strong></p><h4>3. Mini RAG per dispositivi piccoli (ovvero una finestra sul futuro)</h4><p>Con tecnologie come ‘Edge RAG’ o ‘On-Device RAG’ siamo invece di fronte all’innovazione più recente che consiste nel <strong>miniaturizzare</strong> questi sistemi intelligenti per farli funzionare direttamente sui dispositivi che usiamo ogni giorno, anche quelli con potenza di calcolo limitata: come il nostro smartphone, piuttosto che sensori industriali o apparecchi smart domestici integrati nelle nostre abitazioni o nelle nostre auto.</p><p>In pratica, significa portare un’Intelligenza Artificiale affidabile e reattiva anche dove non c’è una connessione internet stabile o un computer potente. Il sistema impara da un <strong>piccolo manuale di informazioni essenziali</strong> che gli forniamo (la vera base di conoscenza quindi non sta più su internet) e le utilizza per rispondere in tempo reale, in completa autonomia.</p><p>Esempi:</p><ul><li><strong>Un sensore in fabbrica</strong> che, analizzando i dati localmente, riconosce da solo un’irregolarità nella produzione e avvisa immediatamente, senza dover inviare dati al cloud su internet.</li><li><strong>Il nostro smartphone</strong> che può analizzare documenti, note o dati personali per trovare informazioni precise, anche in aereo o in zone senza rete, proteggendo al tempo stesso la nostra privacy.</li></ul><p>Anche se queste innovazioni sono in pieno sviluppo, è bene ricordare che, per ora, non c’è ancora un’app mainstream pronta all’uso (su App Store o Google Play) che offra MiniRAG o On-Device RAG direttamente agli utenti finali, a meno che non si voglia costruire qualcosa da zero o installare progetti sperimentali.</p><h3>Il problema degli aggiornamenti: come fa l’AI a restare aggiornata senza “rompersi”</h3><p>Le intelligenze artificiali non possono essere rifatte da zero ogni volta che c’è qualcosa di nuovo da imparare: sarebbe troppo lento e troppo costoso. Per questo esiste un metodo chiamato <strong>apprendimento continuo</strong>, che permette all’AI di aggiungere nuove informazioni un po’ alla volta, come quando noi aggiorniamo un’app sullo smartphone.</p><p>In pratica, invece di riscrivere tutto il sistema, si aggiungono solo dei <strong>piccoli aggiornamenti mirati</strong>, come delle mini‑patch che ampliano le sue conoscenze.</p><h3>Le due difficoltà principali</h3><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*UwSuK2G0kHz4Lm23mwhqxw.png" /></figure><ul><li><strong>Rischio di dimenticare il passato</strong> (<strong>Catastrophic forgetting). </strong>Quando l’AI impara cose nuove, può capitare che “sovrascriva” quelle vecchie. È un po’ come studiare un nuovo capitolo e accorgersi che non ricordi più bene quello precedente.</li><li><strong>Rischio di dare troppo peso alle novità</strong> (<strong>Algorithmic bias). </strong>Se l’AI viene aggiornata spesso con dati recenti, può finire per considerarli più importanti del necessario. È come leggere solo le ultime notizie e pensare che rappresentino tutta la realtà, ignorando informazioni più vecchie ma ancora valide.</li></ul><h3>Come scegliere lo strumento giusto</h3><p>Non è solo una questione di performance e di tecnologia ma, e soprattutto, di obiettivi e di contesto.<br>Tutte queste tecniche sono in continua evoluzione ma imparare a destreggiarsi e a padroneggiarle riduce parecchio i margini di errore nella produzione dei nostri elaborati, ricerche, presentazioni, rapporti, ecc.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*MLnwToVDXSZVkbPQhTvWQw.jpeg" /></figure><h3>Il futuro: verso un’AI che dichiara quanto è affidabile</h3><p>La direzione della ricerca è ormai chiara: non si punta più a creare un’Intelligenza Artificiale che non sbaglia mai (probabilmente impossibile), ma a costruire sistemi che <strong>spiegano quando possono sbagliare</strong> e <strong>perché</strong>. In altre parole, non eliminare l’errore, ma <strong>renderlo visibile e controllabile</strong>.</p><h4>Le nuove regole in Europa e in Italia</h4><p>In Europa è entrato in vigore l’<strong>AI Act</strong>, la prima grande legge che regola l’uso dell’intelligenza artificiale.<br>L’AI Act chiede due cose fondamentali:</p><ol><li><strong>Trasparenza</strong> — bisogna dichiarare chiaramente quando e come viene usata l’AI.</li><li><strong>Supervisione umana reale</strong> — una persona deve sempre poter controllare e correggere ciò che fa il sistema.</li></ol><p>Le aziende che non rispettano queste regole rischiano multe molto elevate.</p><p>In Italia, dal <strong>10 ottobre 2025</strong>, è attiva anche la <strong>Legge 132/2025</strong>, la prima legge nazionale dedicata all’AI.<br>Questa legge segue l’AI Act europeo, ma aggiunge regole specifiche per il contesto italiano.</p><p>Il punto più importante è semplice:</p><blockquote><strong><em>Le decisioni importanti non possono essere lasciate all’AI. La responsabilità finale è sempre delle persone.</em></strong></blockquote><p>Il messaggio è chiaro: la tecnologia deve <strong>mostrare i suoi limiti</strong>, non nasconderli.</p><h3>Gli strumenti del futuro</h3><p>Possiamo immaginare un futuro dove l’Intelligenza Artificiale (IA) diventerà più affidabile e trasparente?. <br>certo che si, non è solo un auspicio, dobbiamo pretendere che sia un obbligo.</p><p>Ecco alcuni parametri e modelli che potrebbe funzionare se assunti per consapevolezza etica o, imposti per legge:</p><p><strong>Punteggio di affidabilità:</strong> Ogni risposta dell’IA avrà un indicatore che mostra quanto è sicura rispetto a quello che sta dicendo. Un po’ come le app meteo: non “pioverà”, ma “80% di probabilità di pioggia”. Così sapremo subito quanto prendere sul serio le sue previsioni!</p><p><strong>Fonti obbligatorie:</strong> L’IA non potrà più fare affermazioni senza dire da dove ha preso l’informazione. Se non può indicare una fonte verificabile, non potrà dare quella risposta. In questo modo, avremo sempre la possibilità di controllare le informazioni e capire se sono affidabili.</p><p><strong>Registro delle decisioni:</strong> Ogni risposta avrà una sorta di “traccia” che spiega: quali dati sono stati usati, quali passaggi ha seguito il sistema e come è arrivato alla conclusione finale. Sarà come avere un diario segreto dell’IA, che ci permette di capire il suo ragionamento e di fidarci ancora di più delle sue risposte.</p><p><strong>Passaggio automatico a un essere umano:</strong> Se l’IA non è abbastanza sicura (per esempio 60% invece di 90%), il sistema passerà automaticamente la domanda a una persona. In questo modo, avremo sempre la possibilità di parlare con un esperto umano se abbiamo bisogno di una risposta più precisa o di un consiglio.</p><p>Queste nuove funzionalità renderanno l’IA ancora più utile e affidabile, permettendoci di usarla con maggiore serenità e fiducia.</p><h3>L’obiettivo finale</h3><p>Non è creare un’AI infallibile che non genera più falsità, approssimazioni e allucinazioni. È creare un’AI <strong>onesta</strong>, che ci dice chiaramente:</p><ul><li>quando possiamo fidarci;</li><li>quando è meglio chiedere a un essere umano;</li><li>da dove arrivano le informazioni che usa.</li></ul><p>Un’AI che non pretende di avere sempre ragione, ma che ti permette di capire <strong>quanto</strong> e <strong>perché</strong> puoi fidarti di lei.</p><h3>Conclusione</h3><p>Un errore comune è pensare che usare RAG sia la <strong>panacea per eliminare le allucinazioni</strong>. In realtà, RAG è uno strumento utile, ma non la soluzione definitiva. E Deep Research, anche se un passo avanti, non è la risposta ultima.</p><p>Lo sviluppo di un’Intelligenza Artificiale affidabile nel breve termine rappresenta una sfida collettiva che richiede l’adozione di specifiche strategie:<br>- Prima di tutto, bisogna scegliere l’architettura giusta per il compito: RAG, Deep Research o Agentic, a seconda di cosa ci serve. <br>- Poi, è fondamentale <strong>progettare il sistema tenendo conto dei limiti che conosciamo, come il knowledge cutoff o il contesto finito</strong>. <br>- Non dimentichiamoci delle verifiche: un controllo umano, una supervisione costante e citazioni obbligatorie sono essenziali. <br>- Infine, la trasparenza è la chiave: dobbiamo essere onesti riguardo ai limiti del sistema. Seguendo questi semplici passi, possiamo costruire un’IA che sia affidabile e che si possa usare con fiducia.</p><p>Capire che l’affidabilità dell’IA è una questione di ingegneria e governance, e non solo di tecnologia, è fondamentale. Non si tratta solo di usare ChatGPT con RAG e pensare di aver risolto tutto. È importante perché, tra qualche mese, quando ci troveremo a dover prendere decisioni importanti in ambito legale, medico o finanziario, vorremo essere sicuri di avere a che fare con <strong>un’opinione affidabile e non con una semplice probabilità elegante</strong>. <br>La differenza può sembrare tecnica, ma le conseguenze sono ben reali e concrete.</p><figure><img alt="" src="https://cdn-images-1.medium.com/max/1024/1*NhIaN6FbUwMGX_mJV7qSkA.png" /></figure><img src="https://medium.com/_/stat?event=post.clientViewed&referrerSource=full_rss&postId=06351a08a47a" width="1" height="1" alt=""><hr><p><a href="https://webeconoscenza.gigicogo.it/allucinazioni-ai-da-fenomeno-a-soluzione-06351a08a47a">Allucinazioni AI: Da fenomeno a soluzione.</a> was originally published in <a href="https://webeconoscenza.gigicogo.it">Webeconoscenza</a> on Medium, where people are continuing the conversation by highlighting and responding to this story.</p>]]></content:encoded>
        </item>
    </channel>
</rss>