<?xml version="1.0" encoding="UTF-8" standalone="no"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:blogger="http://schemas.google.com/blogger/2008" xmlns:gd="http://schemas.google.com/g/2005" xmlns:georss="http://www.georss.org/georss" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:openSearch="http://a9.com/-/spec/opensearchrss/1.0/" xmlns:thr="http://purl.org/syndication/thread/1.0" version="2.0"><channel><atom:id>tag:blogger.com,1999:blog-5267136560849468780</atom:id><lastBuildDate>Tue, 05 Mar 2024 17:58:16 +0000</lastBuildDate><category>fisica</category><category>complessita'</category><category>legge di potenza</category><category>matematica</category><category>universo</category><category>archeologia</category><category>astrofisica</category><category>big bang</category><category>intelligenza artificiale</category><category>radiazione</category><category>terremoti</category><category>cosmologia</category><category>machine learning</category><category>prevedibilita'</category><category>statistica</category><category>teoria del caos</category><category>CERN</category><category>adattativo</category><category>archeometria</category><category>auto-organizzazione</category><category>autorganizzazione</category><category>bosone di higgs</category><category>bosoni</category><category>cigni neri</category><category>costante di hubble</category><category>economia</category><category>epilessia</category><category>fat tail</category><category>forma universo</category><category>frattali</category><category>legge di pareto</category><category>management</category><category>matematica ricreazionale</category><category>materia oscura</category><category>modello standard</category><category>particelle virtuali</category><category>radiazione cosmica di fondo</category><category>radioattivita'</category><category>radiografia</category><category>random forest</category><category>teoria dei numeri</category><category>Bak</category><category>EDS</category><category>FTIR</category><category>JMP</category><category>KNN</category><category>Planck</category><category>Pontecorvo</category><category>SAS</category><category>SEM</category><category>SOC</category><category>Wolfram</category><category>XRD</category><category>XRF</category><category>acceleratori di particelle</category><category>adroni</category><category>adroterapia</category><category>algoritmo</category><category>antimateria</category><category>automi cellulari</category><category>azienda</category><category>beni culturali</category><category>bolle speculative</category><category>boosted</category><category>caduta dei gravi</category><category>calore</category><category>cancro</category><category>caos</category><category>causazione</category><category>clustering</category><category>cnao</category><category>code</category><category>conduzione</category><category>conservation</category><category>convezione</category><category>correlazione</category><category>correlazione spuria</category><category>cottura</category><category>creativita'</category><category>curvatura</category><category>data mining</category><category>datazione</category><category>datazione radiocarbonio</category><category>decadimento beta</category><category>deep learning</category><category>dipolo elettrico</category><category>distribuzione di pareto</category><category>distribuzione pareto</category><category>divisori</category><category>dose</category><category>energia oscura</category><category>erdos</category><category>esponente di Hurst. per bak</category><category>evoluzione</category><category>fascio di protoni</category><category>fermioni</category><category>finanza</category><category>fluorescenza</category><category>formiche</category><category>galassie</category><category>gioco della vita</category><category>gioco vita</category><category>goldbach</category><category>grafo</category><category>gravitone</category><category>hubble</category><category>imaging</category><category>intelligenza</category><category>intelligenza collettiva</category><category>intelligenza decentralizzata</category><category>interazione debole</category><category>interazione gravitazionale</category><category>irraggiamento</category><category>isotopi instabili</category><category>isotopi stabili</category><category>isotopistabili</category><category>kindling</category><category>labquake</category><category>leadership generativa</category><category>legge di Zipf</category><category>legge di fourier</category><category>legge di omori</category><category>leggi universali</category><category>lenti gravitazionali</category><category>lurking variable</category><category>mente</category><category>metodo montecarlo</category><category>muografia</category><category>muoni</category><category>nanogeneratore</category><category>nanotecnologie</category><category>neoplasia</category><category>netlogo</category><category>neural network</category><category>neutrini</category><category>numeri amichevoli</category><category>numeri perfetti</category><category>numeri socievoli</category><category>onde gravitazionali</category><category>oscillazione dei neutrini</category><category>paradosso di simpson</category><category>permutazioni</category><category>piezoelettrico</category><category>piramide di cheope</category><category>pizza</category><category>pizza napoletana</category><category>positroni</category><category>predizione</category><category>quarks</category><category>radiazione fossile</category><category>raggi cosmici</category><category>redshit</category><category>reinforcment learning</category><category>resilienza</category><category>reti</category><category>reti neurali</category><category>retroazione</category><category>richard guy</category><category>riflettografia</category><category>robot</category><category>sandpile</category><category>sciami</category><category>skype translator</category><category>sparticelle</category><category>spettromtria di massa</category><category>spin</category><category>sudoku</category><category>supersimetria</category><category>supervisionato</category><category>swarm intelligence</category><category>taleb</category><category>talento</category><category>telefonini</category><category>tempo</category><category>termodinamica</category><category>termoluminescenza</category><category>time to fail</category><category>tomografia</category><category>tumore</category><category>uRaman</category><category>unsupervisionato</category><category>variabile omessa</category><category>wmap</category><title>Quanti di scienza</title><description>
Appunti di viaggio di un fisico curioso...... 
della bellezza di tutto quello che ci circonda,dell'irragionevole efficacia della matematica nello spiegare il mondo intorno a noi, della continua lotta della vita tra ordine e caos, curioso dell'emergenza della complessita' da regole elementari e tant'altro.......
Sara' un viaggio divertente e spero ricco di sorprese.</description><link>http://quantidiscienza.blogspot.com/</link><managingEditor>noreply@blogger.com (Felice)</managingEditor><generator>Blogger</generator><openSearch:totalResults>92</openSearch:totalResults><openSearch:startIndex>1</openSearch:startIndex><openSearch:itemsPerPage>25</openSearch:itemsPerPage><language>en-us</language><itunes:explicit>no</itunes:explicit><itunes:summary> Appunti di viaggio di un fisico curioso...... della bellezza di tutto quello che ci circonda,dell'irragionevole efficacia della matematica nello spiegare il mondo intorno a noi, della continua lotta della vita tra ordine e caos, curioso dell'emergenza della complessita' da regole elementari e tant'altro....... Sara' un viaggio divertente e spero ricco di sorprese.</itunes:summary><itunes:subtitle> Appunti di viaggio di un fisico curioso...... della bellezza di tutto quello che ci circonda,dell'irragionevole efficacia della matematica nello spiegare il mondo intorno a noi, della continua lotta della vita tra ordine e caos, curioso dell'emergenza de</itunes:subtitle><itunes:owner><itunes:email>noreply@blogger.com</itunes:email></itunes:owner><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6074168161403116365</guid><pubDate>Mon, 19 Feb 2024 10:13:00 +0000</pubDate><atom:updated>2024-02-19T02:31:13.342-08:00</atom:updated><title>Accendere una stella sulla terra</title><description>&lt;p align="justify"&gt;&amp;nbsp;&lt;/p&gt;  &lt;p align="justify"&gt;La fusione nucleare, la stessa reazione che alimenta il sole e le stelle, rappresenta un'opportunità senza precedenti nel campo dell'energia. &lt;/p&gt;  &lt;p align="justify"&gt;&amp;nbsp;&lt;/p&gt;  &lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgT9XLGFOO7Ws0EgpvlotabWURTEqCJ4-npVxFCPsrU8MdELEjm8G1JL0z3-_jAoQxz-k5qS8QgYkC4zfRklleYRmeVPJJg2PQyX5-9WDkqBDUvuQ6hdbXaUwirDNpTVhyfXDy7-pwnBWUItmX1sJvFYpYQ8tG5p-HJXWIpFPfjtv4_P3u8CFxnq0Ka/s347/PictureFS1.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="173" data-original-width="347" height="209" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgT9XLGFOO7Ws0EgpvlotabWURTEqCJ4-npVxFCPsrU8MdELEjm8G1JL0z3-_jAoQxz-k5qS8QgYkC4zfRklleYRmeVPJJg2PQyX5-9WDkqBDUvuQ6hdbXaUwirDNpTVhyfXDy7-pwnBWUItmX1sJvFYpYQ8tG5p-HJXWIpFPfjtv4_P3u8CFxnq0Ka/w418-h209/PictureFS1.jpg" width="418" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="justify"&gt;&lt;span style="text-align: left;"&gt;Con la possibilita’ di fornire una fonte di energia pulita, abbondante e virtualmente illimitata, la fusione nucleare potrebbe rivoluzionare il nostro modo di produrre e utilizzare l'energia. Tuttavia, nonostante i significativi progressi compiuti negli ultimi anni, rimangono ancora molte sfide da affrontare prima che la fusione nucleare possa diventare una realtà. Ma che cos'è la fusione nucleare? L'energia creata in una reazione di fusione è diversa da una &lt;/span&gt;&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwiM5ufUk7eEAxX_9AIHHa4OBcAQFnoECBYQAQ&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FFissione_nucleare&amp;amp;usg=AOvVaw0y055lHxvt5bP6eP8dKCeJ&amp;amp;opi=89978449" style="text-align: left;" target="_blank"&gt;&lt;font color="#80ffff"&gt;reazione di fissione&lt;/font&gt;&lt;/a&gt;&lt;span style="text-align: left;"&gt; che è usata nelle &lt;/span&gt;&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwjuz4Tvk7eEAxVd6gIHHcoAAXoQFnoECBsQAQ&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FCentrale_nucleare&amp;amp;usg=AOvVaw27glzzuCPcnSNaBa05lfGX&amp;amp;opi=89978449" style="text-align: left;" target="_blank"&gt;&lt;font color="#80ffff"&gt;centrali nucleari&lt;/font&gt;&lt;/a&gt;&lt;span style="text-align: left;"&gt; convenzionali. Contrariamente alla fissione nucleare, che coinvolge la divisione di nuclei atomici pesanti, la fusione nucleare è un processo in cui due nuclei atomici leggeri si combinano per formare un nucleo più pesante. Durante questo processo viene rilasciata una grande quantità di energia. Questo è lo stesso processo che avviene nel nucleo del sole e di altre stelle per produrre energia. Gli elementi chiave coinvolti nella fusione nucleare sulla Terra provengono dall'acqua (H₂O). Questi sono &lt;/span&gt;&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwjByduJlLeEAxXG8QIHHURGAA4QFnoECBUQAQ&amp;amp;url=https%3A%2F%2Fwww.chimica-online.it%2Fdownload%2Fisotopi-idrogeno.htm&amp;amp;usg=AOvVaw3hznlE_QzU3PoHwFg9aXdk&amp;amp;opi=89978449" style="text-align: left;" target="_blank"&gt;&lt;font color="#80ffff"&gt;isotopi dell'idro&lt;/font&gt;&lt;font color="#80ffff"&gt;geno&lt;/font&gt;&lt;/a&gt;&lt;span style="text-align: left;"&gt; (H), come il deuterio (²H) e il trizio (³H). Gli isotopi si respingono naturalmente, allo stesso modo che le cariche simili nei magneti o quelle elettriche. Quando questi isotopi vengono riscaldati a temperature e pressioni estremamente elevate, possono superare la loro repulsione naturale e fondersi insieme. Rilasciano quindi energia sotto forma di calore e luce. La fusione del deuterio (un isotopo dell'idrogeno con un protone e un neutrone) e del trizio (un altro isotopo dell'idrogeno con un protone e due neutroni) porta alla formazione dell'elio (He, due protoni e due neutroni) e al rilascio di un neutrone e di energia. La reazione di fusione può essere scritta nella seguente forma:&lt;/span&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Deuterio + Tritio → Elio + Neutrone + Energia&lt;/p&gt;  &lt;p align="justify"&gt;Il sottoprodotto della fusione è l'elio che e’ un gas inerte, stabile, non radioattivo e quindi non pericoloso per l'ambiente. La reazione porta anche al rilascio di una quantità significativa di energia che i ricercatori sperano possa essere sfruttata per un suo utilizzo. &lt;/p&gt;  &lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiYmvwLq2fkJufRcILSibmLf4MWeqhCDxzxHmAergXIlXw0ikziImBNT9dOMYvXsobHIoZjtQ96d9JVxTHPXG0ZeohIssz5Q8sCHGZfHKpg3dIXnOAzSl-_ek6iXjWW3vmvimrcpIKAI_NJx21laUcvu-nAPAek6NOKtIMp7xtUi8LG-iqlq0lRKFRt/s579/PictureFS2.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="486" data-original-width="579" height="301" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiYmvwLq2fkJufRcILSibmLf4MWeqhCDxzxHmAergXIlXw0ikziImBNT9dOMYvXsobHIoZjtQ96d9JVxTHPXG0ZeohIssz5Q8sCHGZfHKpg3dIXnOAzSl-_ek6iXjWW3vmvimrcpIKAI_NJx21laUcvu-nAPAek6NOKtIMp7xtUi8LG-iqlq0lRKFRt/w358-h301/PictureFS2.png" width="358" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="justify"&gt;&lt;span style="text-align: left;"&gt;La fusione nucleare offre numerosi vantaggi rispetto alle fonti energetiche convenzionali. Uno dei principali vantaggi è la disponibilità di un'abbondante fonte di combustibile. Il deuterio, un isotopo dell'idrogeno, può essere estratto dall'acqua, mentre il trizio può essere prodotto dal litio. Questo fa si che i combustibili per la fusione siano ampiamente disponibili e accessibili.&lt;/span&gt;&lt;/p&gt;  &lt;p align="justify"&gt;La fusione nucleare, inoltre è una fonte di energia pulita. A differenza dei combustibili fossili, la fusione nucleare non produce gas serra o rifiuti radioattivi di lunga durata. &lt;/p&gt;  &lt;p align="justify"&gt;Negli ultimi anni, sono stati compiuti significativi progressi nella ricerca sulla fusione nucleare. Ad esempio, nel dicembre 2022, il &lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwjc1o-rlLeEAxUH_QIHHZFSAKYQFnoECBQQAQ&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FNational_Ignition_Facility&amp;amp;usg=AOvVaw0EvaVwQOLLHFbWGjFXzzBr&amp;amp;opi=89978449" target="_blank"&gt;&lt;font color="#80ffff"&gt;National Ignition Facility&lt;/font&gt;&lt;/a&gt; (NIF) ha raggiunto un importante traguardo: ha generato da un reattore a fusione più energia di quella inserita. Questo risultato ha dimostrato che la fusione nucleare può essere tecnicamente realizzabile.&lt;/p&gt;  &lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxR37MmWcVZwd80GfHkE1dM40oIzEzfV1Ckfa0N38LNvwYyqngHdZActHf7TYIfVFBOgX_dhRLVxU6PFGCPHUia16KAMHSDg2PYk7rga_lCuBtOM-RKFabYUlgeF5GvL7zUFxq3JIt2G-S_xlJUBkssVU7gm4DEJIuSIpBrjpYIWV8FBztQvMWPyvl/s239/PictureFS3.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="160" data-original-width="239" height="191" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxR37MmWcVZwd80GfHkE1dM40oIzEzfV1Ckfa0N38LNvwYyqngHdZActHf7TYIfVFBOgX_dhRLVxU6PFGCPHUia16KAMHSDg2PYk7rga_lCuBtOM-RKFabYUlgeF5GvL7zUFxq3JIt2G-S_xlJUBkssVU7gm4DEJIuSIpBrjpYIWV8FBztQvMWPyvl/w285-h191/PictureFS3.jpg" width="285" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="justify"&gt;&lt;span style="text-align: left;"&gt;Nell’immagine seguente la simulazione a varie temperature di un plasma caldo prodotto al NIF dopo che un laser colpisce il reattore a confinamento inerziale. Questo tipo di reattore prevede l’utilizzo di laser ad altissima intensità, in grado di concentrare sul bersaglio (pelletts di isotopi di idrogeno) una quantità di energia sufficiente ad innescare la reazione di fusione. All’attivazione dei laser la capsula cilindrica che alloggia il pellet vaporizza istantaneamente liberando raggi X. La sferetta di combustibile nucleare al suo interno implode portando la materia allo stato di plasma. È l’implosione il fenomeno fondamentale per l’innesco della reazione di fusione in questo tipo di reattori: questa, infatti, permette l’incremento di densità, temperatura e pressione necessari a vincere le forze elettrostatiche repulsive dei nuclei. I vari colori dell’immagine mostrano il riscaldamento irregolare del bersaglio e la propagazione dell’energia ad un certo istante t della simulazione.&lt;/span&gt;&lt;/p&gt;  &lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj74Tll_O3fP1iQ9JZSE6pF4JW2d8S1bY2basbp1PJ2XoYkHJOSJfSYKDigdlk3nF0sfebzOkcUFyj4F9U2mhSApyl3UHg5BAvEdSzLj77lDOUtpmG5nqE7QMo8FUU4Dj8wXKLxOIQNV37oORPJxgOx3D-BUiUDC2hbjTiuymU3lTuZIMtW8e5sQY3-/s345/PictureFS4.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="194" data-original-width="345" height="217" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj74Tll_O3fP1iQ9JZSE6pF4JW2d8S1bY2basbp1PJ2XoYkHJOSJfSYKDigdlk3nF0sfebzOkcUFyj4F9U2mhSApyl3UHg5BAvEdSzLj77lDOUtpmG5nqE7QMo8FUU4Dj8wXKLxOIQNV37oORPJxgOx3D-BUiUDC2hbjTiuymU3lTuZIMtW8e5sQY3-/w385-h217/PictureFS4.png" width="385" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="justify"&gt;&lt;span style="text-align: left;"&gt;Quello utilizzato dalla National Ignition Facility, non è l’unico approccio valido. Esiste anche la fusione a confinamento magnetico, in cui un plasma riscaldato viene confinato all’interno di un dispositivo a forma di toro chiamato &lt;/span&gt;&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwiOysnMlLeEAxUY2QIHHeTpDs4QFnoECBEQAQ&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FTokamak&amp;amp;usg=AOvVaw37QUgerMLlcO3Ic-23Plsz&amp;amp;opi=89978449" style="text-align: left;" target="_blank"&gt;&lt;font color="#80ffff"&gt;tokamak&lt;/font&gt;&lt;/a&gt;&lt;span style="text-align: left;"&gt;, e i campi magnetici vengono utilizzati per mantenere il plasma confinato. A queste temperature e densità si verificano reazioni di fusione nucleare, ma mantenere il plasma confinato – impedendogli di colpire le pareti interne o esterne e mantenendolo in uno stato in cui le reazioni di fusione possono verificarsi continuamente in modo sostenuto – è l’aspetto più impegnativo della fusione. Esistono tokamak su piccola scala che operano in modo indipendente in tutto il mondo, e il più grande sforzo internazionale per costruire un reattore a fusione di questo tipo, &lt;/span&gt;&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwiZ0tjclLeEAxWd-AIHHUcbCfkQFnoECBYQAw&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FITER%23%3A~%3Atext%3DITER%2520%25C3%25A8%2520un%2520reattore%2520sperimentale%2Cconoscenze%2520sulla%2520fisica%2520del%2520plasma.&amp;amp;usg=AOvVaw3V-StNyZ1qZBy1pmeWX2tQ&amp;amp;opi=89978449" style="text-align: left;" target="_blank"&gt;&lt;font color="#80ffff"&gt;ITER&lt;/font&gt;&lt;/a&gt;&lt;span style="text-align: left;"&gt;, sta già aspettando risultati interessanti. Allo stato attuale, il tokamak JET in Inghilterra, nel dicembre del 2021, ha prodotto 59 megajoule di energia sostenuta per un periodo di 5 secondi, ma nessuno si aspetta che la fusione a confinamento magnetico superi il pareggio finché ITER non sarà operativo.&lt;/span&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Nella foto seguente l'interno di una camera di fusione Tokamak. Come vedete e’ una grande ciambella in cui viene acceso un plasma che grazie ai campi magnetici creati dalla macchina deve restare confinato al suo interno senza toccare alcuna parete. Finché un plasma può essere confinato magneticamente e controllato all'interno di un dispositivo come questo, è possibile produrre energia di fusione, ma mantenere il confinamento del plasma a lungo termine è un compito estremamente difficile. Il punto di pareggio non è stato ancora raggiunto per la fusione a confinamento magnetico, e non si prevede che lo sarà finché ITER non sarà pienamente operativo. &lt;/p&gt;  &lt;p align="justify"&gt;&amp;nbsp; &amp;nbsp;&amp;nbsp;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjuBN2dNV-ChYQoewqNHlW5gkoMlv6u9tBzjd0jPSMiCsNmTJVs2ME7JU30mUqOQS-dOtGVvwQ5sfrhxOSBAa39Zmtp8Fqt2SLrZwF1rDdQ5TBtjLOHAARinEubCyxwnHHRpJ49t1l3BCDnUZoj7aU7f-e2eN62WGGzAlIc86jnLc9-oJCKS0mmz4Ci/s471/PictureFS6.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="309" data-original-width="471" height="247" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjuBN2dNV-ChYQoewqNHlW5gkoMlv6u9tBzjd0jPSMiCsNmTJVs2ME7JU30mUqOQS-dOtGVvwQ5sfrhxOSBAa39Zmtp8Fqt2SLrZwF1rDdQ5TBtjLOHAARinEubCyxwnHHRpJ49t1l3BCDnUZoj7aU7f-e2eN62WGGzAlIc86jnLc9-oJCKS0mmz4Ci/w377-h247/PictureFS6.png" width="377" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkd5hA-zM9i1GITjrhjQ3QAGrLTZB4bXwsz6NX5WIQMd6mXDoIIbr4rD6ChB5l7qk03NgUeQhdNpThDpFEr6gU0Cos7jqeRO0rKaNEKCxow9_SVQoY99p5VWXZvV6TWhYNLaUlUSrHGRJTp4kwfeqkTtdFpH95SNDSXKomyqeMO2S1AXR2-sDXu1eL/s349/PictureFS5.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="233" data-original-width="349" height="240" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkd5hA-zM9i1GITjrhjQ3QAGrLTZB4bXwsz6NX5WIQMd6mXDoIIbr4rD6ChB5l7qk03NgUeQhdNpThDpFEr6gU0Cos7jqeRO0rKaNEKCxow9_SVQoY99p5VWXZvV6TWhYNLaUlUSrHGRJTp4kwfeqkTtdFpH95SNDSXKomyqeMO2S1AXR2-sDXu1eL/w359-h240/PictureFS5.jpg" width="359" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;br /&gt;&lt;p&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Esistono anche approcci “ibridi”, per ottenere la fusione nucleare che tentano di sfruttare aspetti sia del metodo di confinamento inerziale (come la compressione) che del metodo di confinamento magnetico (come l’uso di campi magnetici e plasmi), con livelli di successo enormemente variabili, anche se nessuno si avvicina ai risultati raggiunti dai vari tokamak e dalla National Ignition Facility.&lt;/p&gt;  &lt;p align="justify"&gt;Molti di questi approcci ibridi sono interessanti dal punto di vista della fisica anche se non mancano i ciarlatani onnipresenti anche in quest’arena, che con la cosiddetta “&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwiq7MzzlLeEAxUF1wIHHYDMAJcQFnoECBgQAw&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FFusione_nucleare_fredda%23%3A~%3Atext%3DFusione%2520nucleare%2520fredda%2520(anche%2520fusione%2Ccos%25C3%25AC%2520notevolmente%2520le%2520difficolt%25C3%25A0%2520tecniche.&amp;amp;usg=AOvVaw3pVPqLuXq9M0ePrd5DYFe_&amp;amp;opi=89978449" target="_blank"&gt;&lt;font color="#80ffff"&gt;fusione fredda&lt;/font&gt;&lt;/a&gt;” o il suo tentativo di ribattezzarla come reazioni nucleari energetiche “low-based” (&lt;a href="https://www.google.com/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;ved=2ahUKEwiRjYOZlbeEAxVX-AIHHVbICrUQFnoECBgQAQ&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FTrasmutazione_LENR&amp;amp;usg=AOvVaw0E3Q36ZWfoZ-nuJb1Lfu9n&amp;amp;opi=89978449" target="_blank"&gt;&lt;font color="#80ffff"&gt;LENR&lt;/font&gt;&lt;/a&gt;), cercano di far passare per ricerca scientifica quello che finora ha fallito ogni test sperimentale. (Ad eccezione della fusione catalizzata da muoni, che comunque non è una via praticabile per una fusione commerciale). &lt;/p&gt;  &lt;p align="justify"&gt;La chiave del successo di qualsiasi tentativo di fusione è la produzione a lungo termine di reazioni che consentano di ottenere un guadagno netto di energia. Anche se ci sono molte affermazioni azzardate da parte di molte aziende del settore privato, solo gli approcci di tipo tokamak e il National Ignition Facility hanno qualche prospettiva di raggiungere e superare quel decantato punto di pareggio nel prossimo futuro.&lt;/p&gt;  &lt;p align="justify"&gt;Ci sono comunque ancora diverse sfide da affrontare prima che la fusione nucleare possa diventare una fonte di energia pratica. Una delle sfide principali è quella di mantenere l'accensione della reazione. L'accensione avviene quando l'energia prodotta dalla reazione di fusione supera l'energia necessaria per avviare e mantenere la reazione stessa. Mantenere le condizioni necessarie per l'accensione è estremamente difficile, poiché richiede il riscaldamento del plasma a temperature estremamente elevate e il suo confinamento per un periodo sufficiente.&lt;/p&gt;  &lt;p align="justify"&gt;Inoltre, ci sono sfide legate alla produzione e alla gestione del combustibile per la fusione. Ad esempio, il trizio, uno dei combustibili utilizzati nelle reazioni di fusione, non è naturalmente disponibile e ha una breve emivita. Sviluppare metodi efficienti per la produzione di trizio e gestire in modo sostenibile la sua fornitura sono aspetti cruciali da affrontare.&lt;/p&gt;  &lt;p align="justify"&gt;Altre sfide includono la resistenza e la durata dei materiali utilizzati nei reattori a fusione, l'efficienza dei sistemi di confinamento del plasma e la complessità dei dispositivi di fusione stessi. Nonostante queste sfide, il futuro della fusione nucleare appare luminoso. Con un impegno continuo nella ricerca e nello sviluppo, è possibile superare le difficoltà tecniche e rendere la fusione nucleare una fonte di energia pratica e sostenibile.&lt;/p&gt;  &lt;p align="justify"&gt;Inoltre, la fusione nucleare potrebbe trasformare radicalmente il settore energetico e avere un impatto significativo sull'ambiente e sull'economia globale. Con l'energia prodotta dalla fusione nucleare, potremmo ridurre la nostra dipendenza dai combustibili fossili e mitigare gli effetti del cambiamento climatico.&lt;/p&gt;  &lt;p align="justify"&gt;In conclusione, nonostante le sfide ancora da affrontare, la ricerca sulla fusione nucleare offre una speranza per un futuro migliore e sostenibile. Con l'impegno e la collaborazione globale (anche di tipo monetaria), la fusione nucleare potrebbe diventare una realtà e trasformare il modo in cui produciamo e utilizziamo l'energia. Secondo i dati americani disponibili al pubblico dal 1954 all’anno scorso sono stati investiti circa 34 miliardi di dollari per la ricerca sulla fusione nucleare, una media di appena 0.5 miliardi di dollari l’anno. &lt;/p&gt;  &lt;p align="justify"&gt;Come confronto, il governo degli Stati Uniti spende in media 1,7 trilioni di dollari in tutte le spese discrezionali. Di questi, solo circa 500 milioni di dollari, ovvero 0,0005 trilioni di dollari (meno dello 0.03%), sono destinati a tutte le forme di ricerca sulla fusione nucleare, cioe’ per tutte quelle ricerche che cercano di risolvere i problemi energetici e climatici della Terra. &lt;/p&gt;  &lt;p align="justify"&gt;Se mai esistesse una ricerca da finanziare per ottenere il massimo ritorno sull’investimento a lungo termine, questa dovrebbe essere proprio la fusione nucleare.&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2024/02/accendere-una-stella-sulla-terra.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgT9XLGFOO7Ws0EgpvlotabWURTEqCJ4-npVxFCPsrU8MdELEjm8G1JL0z3-_jAoQxz-k5qS8QgYkC4zfRklleYRmeVPJJg2PQyX5-9WDkqBDUvuQ6hdbXaUwirDNpTVhyfXDy7-pwnBWUItmX1sJvFYpYQ8tG5p-HJXWIpFPfjtv4_P3u8CFxnq0Ka/s72-w418-h209-c/PictureFS1.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-7141218426065252385</guid><pubDate>Tue, 24 Oct 2023 17:06:00 +0000</pubDate><atom:updated>2023-10-24T10:06:42.527-07:00</atom:updated><title>L’oscurita’ del cielo notturno</title><description>&lt;p align="justify"&gt;Da molto tempo, l'umanità si è interrogata sul motivo per cui lo spazio cosmico, sebbene popolato da innumerevoli stelle, rimanga immerso nell'oscurità. Questo enigma è noto come il &lt;a href="https://it.wikipedia.org/wiki/Paradosso_di_Olbers" target="_blank"&gt;&lt;font color="#80ffff"&gt;paradosso di Olbers&lt;/font&gt;&lt;/a&gt;. Nel XIX secolo, un astronomo di nome Heinrich Olbers si imbatté in una contraddizione che non poteva essere spiegata facilmente: perché il cielo notturno non appare uniformemente luminoso? Un cielo uniformemente luminoso sembrerebbe brillare, mentre il nostro cielo notturno appare nero con una dispersione di stelle, pianeti e galassie sparse nel cielo osservabile. Vediamo di capire come stanno le cose. Gli astronomi stimano che nell'universo osservabile ci siano circa 200 miliardi di trilioni di stelle. Ma come fanno gli astronomi a conoscere questo numero? Di notte, guardando il cielo aperto, si possono vedere migliaia di stelle - circa 6.000. Ma questa è soltanto una piccola percentuale del totale delle stelle presenti nell'universo. La maggior parte di esse è così lontana da noi che non possiamo vederle. Tuttavia, gli astronomi, sono in grado di stimare il numero totale di stelle nell'universo a partire da quello delle galassie. Quest’ultime sono agglomerati di stelle, pianeti, gas e polveri che si trovano vicini tra loro. Simili agli esseri umani, anche le galassie sono molto diverse tra loro, differenziandosi per dimensioni e forme. Il nostro pianeta per esempio è situato nella &lt;a href="https://it.wikipedia.org/wiki/Via_Lattea" target="_blank"&gt;&lt;font color="#80ffff"&gt;Via Lattea&lt;/font&gt;&lt;/a&gt;, una galassia a spirale; le sue stelle sono distribuite in bracci spiraliformi che ruotano intorno al centro della galassia. Altre galassie, invece, hanno una forma ellittica, simile a un uovo, mentre alcune sono irregolari, presentando una varietà di forme. Prima di calcolare il numero di stelle nell'universo, gli astronomi devono stimare il numero totale di galassie. Per farlo, scattano fotografie dettagliate di piccole porzioni del cielo e contano tutte le galassie che si osservano in queste immagini. Il numero ottenuto viene quindi moltiplicato per il totale delle immagini necessarie a coprire l'intero cielo. Il risultato? E’ che ci sono approssimativamente 2.000.000.000.000 di galassie nell'universo, pari a 2 trilioni cioe’ 2000 miliardi di galassie. Gli astronomi non sanno esattamente quante siano le stelle presenti in ognuna di queste 2 trilioni di galassie. La maggior parte di esse è così lontana che non è possibile determinarlo con precisione. Tuttavia, possiamo fare una stima approssimativa del numero di stelle nella nostra stessa Via Lattea. Anche nella nostra galassia, le stelle sono incredibilmente diverse tra loro, caratterizzandosi per una vasta gamma di dimensioni e colori. Ad esempio, la nostra stella, il Sole, è di dimensioni medie, ha un peso medio ed è di temperatura moderata: 15 milioni di gradi Celsius al suo centro. Le stelle più grandi, pesanti e calde tendono a brillare con un colore blu, come &lt;a href="https://it.wikipedia.org/wiki/Vega" target="_blank"&gt;&lt;font color="#80ffff"&gt;Vega&lt;/font&gt;&lt;/a&gt; nella costellazione della Lira, mentre le stelle più piccole, leggere e deboli sono generalmente rosse, come &lt;a href="https://it.wikipedia.org/wiki/Proxima_Centauri" target="_blank"&gt;&lt;font color="#80ffff"&gt;Proxima Centauri&lt;/font&gt;&lt;/a&gt;, che, eccetto il Sole, è la stella più vicina a noi. Le stelle rosse, bianche e blu emettono quantità diverse di luce. Misurando tale radiazione luminosa, in particolare il suo colore e la sua luminosità, gli astronomi riescono a stimare quante stelle compongono la nostra galassia. Utilizzando questo metodo, gli studiosi hanno calcolato che la &lt;a href="https://it.wikipedia.org/wiki/Via_Lattea" target="_blank"&gt;&lt;font color="#80ffff"&gt;Via Lattea&lt;/font&gt;&lt;/a&gt; contiene circa 100 miliardi di stelle - 100.000.000.000. Il passo successivo quindi consiste nel moltiplicare il numero di stelle presenti in una galassia tipica (100 miliardi) per il totale delle galassie nell'universo (2 trilioni). Il risultato è un numero assolutamente sorprendente. Ci sono approssimativamente 200 bilioni di trilioni di stelle nell'universo. In altre parole, 200 sestilioni. È un numero talmente enorme che è difficile persino immaginarlo. Molte di queste stelle sono altrettanto luminose, se non di più, del nostro Sole. Allora, perché lo spazio non è pervaso da una luce abbagliante? Una spiegazione intuitiva potrebbe essere che molte di queste stelle siano situate a distanze enormi dalla Terra. È vero che, all'aumentare della distanza di una stella da noi, la sua luminosità apparente diminuisce, seguendo una legge di riduzione inversamente proporzionale alla distanza, in quanto l’intensita’ di una sorgente luminosa con potenza P ad una certa distanza r da essa va come P/4πr&lt;sup&gt;2 &lt;/sup&gt; dove 4πr&lt;sup&gt;2&lt;/sup&gt; e’ la superficie di una sfera centrata sulla sorgente. Tuttavia, questa spiegazione, da sola, non è sufficiente a risolvere il mistero. Per comprendere meglio la questione, immaginiamo un universo così antico da consentire alla luce di raggiungerci persino dalle stelle più remote. In questo scenario immaginario, tutte le stelle nell'universo sono considerate stazionarie e non in movimento. Possiamo visualizzare questo concetto come se circondassimo la Terra con una bolla immaginaria, posizionando il nostro pianeta al suo centro. Se questa bolla avesse un raggio di 10 anni luce, essa conterrebbe soltanto una dozzina di stelle. Tuttavia, allargando questa bolla a 1.000 anni luce, poi a 1 milione di anni luce, e infine a 1 miliardo di anni luce, le stelle più remote appariranno sempre più deboli anche se ci saranno sempre più stelle all'interno della bolla, ciascuna contribuente alla luminosità complessiva. Anche se le stelle più lontane sembrano sempre più deboli, il cielo notturno dovrebbe apparire molto luminoso. Ma c'è un importante dettaglio che non ancora abbiamo utilizzato: l'età dell'universo è di solo circa 13 miliardi di anni, un periodo relativamente breve dal punto di vista cosmico. Questo significa che la luce delle stelle distanti oltre circa 13 miliardi di anni luce non ha ancora avuto il tempo per raggiungerci. Di conseguenza, la bolla effettiva che circonda la Terra e contiene tutte le stelle che possiamo vedere si estende solo fino a ~13 miliardi di anni luce dalla Terra. E quindi all'interno di essa non ci sono abbastanza stelle da riempire completamente tutte le possibili linee di vista. In alcune direzioni nel cielo, vediamo stelle, mentre in altre non ne vediamo affatto. Questo perche’ in alcune aree oscure del cielo, le stelle che potrebbero ostruire la nostra linea di vista sono così remote che la loro luce non ha ancora raggiunto la Terra. Con il passare del tempo, la luce di queste stelle sempre più remote raggiungerà la Terra. Col trascorrere dei millenni, quindi il cielo notturno sarà completamente illuminato? Questo ci riporta al secondo elemento che dobbiamo considerare e cioe’ il fatto che tutte le stelle siano stazionarie. La realtà è che l'universo è in costante espansione, con le galassie più remote che si allontanano dalla Terra a velocità prossime a quella della luce. A causa di questa espansione accelerata, la luce delle stelle all’interno di queste galassie è spinta verso regioni dello spettro luminoso non visibili all'occhio umano, un fenomeno noto come &lt;a href="https://www.castfvg.it/zzz/ids/doppler.html" target="_blank"&gt;&lt;font color="#80ffff"&gt;spostamento Doppler&lt;/font&gt;&lt;/a&gt;. Un fotone emesso da una stella con una certa lunghezza d’onda durante il suo viaggio verso la Terra subira’ uno stiramento dell’onda a causa della dilatazione dello spazio-tempo dell’universo. Questo comportera’ una lunghezza d’onda sempre maggiore e quindi una sua energia sempre piu’ bassa da uscire dallo spettro visibile. Pertanto, anche se questa luce avesse il tempo di raggiungerci, non potremmo comunque vederla a occhio nudo. Di conseguenza, il cielo notturno non sarà completamente illuminato. Se proiettiamo lo sguardo ancora più lontano nel futuro, alla fine tutte le stelle si esauriranno. Ad esempio, stelle simili al nostro Sole hanno una durata di vita di circa 10 miliardi di anni. Gli astronomi ipotizzano che in un futuro molto distante, tra un bilione di miliardi di anni, l'universo si spegnerà, ospitando solamente residui stellari come nane bianche e buchi neri. Nonostante il cielo notturno non sia colmo di stelle luminose, ci troviamo in un momento unico nella storia dell'universo, in cui possiamo godere di un cielo notturno ricco e complesso, fatto di luci e ombre.&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2023/10/loscurita-del-cielo-notturno.html</link><author>noreply@blogger.com (Felice)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-5646225695209706657</guid><pubDate>Fri, 07 Oct 2022 13:59:00 +0000</pubDate><atom:updated>2022-10-07T07:01:26.951-07:00</atom:updated><title>Il simbolismo della Basilica di Santa Sabina </title><description>&lt;p style="text-align: justify;"&gt;&lt;span style="font-family: arial;"&gt;E' con grande piacere che oggi pubblico un documento realizzato da mia figlia &lt;a href="https://www.linkedin.com/in/gilda-russo-378a75206/" target="_blank"&gt;&lt;span style="color: #01ffff;"&gt;Gilda&lt;/span&gt;&lt;/a&gt; sulla &lt;a href="https://it.wikipedia.org/wiki/Basilica_di_Santa_Sabina"&gt;&lt;span style="color: #01ffff;"&gt;Basilica di Santa Sabina&lt;/span&gt;&lt;/a&gt; in Roma.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT"&gt;&lt;span style="font-family: arial;"&gt;La basilica costruita sull'Aventino&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: arial;"&gt;è un luogo di culto cattolico del centro storico di Roma. Costruita nel V secolo d. C. sulla tomba di Santa Sabina, oltre che una delle chiese paleocristiane meglio conservate in assoluto, sebbene pesantemente restaurata, è sede della curia generalizia dell'Ordine dei frati predicatori. È una delle basiliche minori di Roma.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT"&gt;&lt;span style="font-family: arial;"&gt;Si consiglia di far partire il documento power point in show. Il file per aprirsi nel browser impieghera' qualche minuto. Quindi pazientare. Ne vale la pena. Le pagine possono essere mandatae avanti con il mouse o con il tasto freccia. &amp;nbsp;
&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p&gt;

&lt;/p&gt;&lt;p class="MsoNormal"&gt;&lt;span style="font-family: arial;"&gt;Buona visione :&amp;nbsp; &amp;nbsp;&lt;/span&gt;&lt;a href="https://1drv.ms/p/s!Ap3B3HpHZ5Vdi4gbrsVhjIe1CmDddw?e=g5HONP" style="font-size: x-large; text-align: center;" target="_blank"&gt;&lt;span style="color: #01ffff;"&gt;Link&lt;/span&gt;&lt;/a&gt;&lt;span style="color: #01ffff; font-size: x-large; text-align: center;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;</description><link>http://quantidiscienza.blogspot.com/2022/10/il-simbolismo-della-basilica-di-santa.html</link><author>noreply@blogger.com (Felice)</author><thr:total>1</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6620402526189743272</guid><pubDate>Fri, 02 Sep 2022 18:37:00 +0000</pubDate><atom:updated>2022-09-07T04:38:31.136-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">archeologia</category><category domain="http://www.blogger.com/atom/ns#">archeometria</category><category domain="http://www.blogger.com/atom/ns#">beni culturali</category><category domain="http://www.blogger.com/atom/ns#">conservation</category><category domain="http://www.blogger.com/atom/ns#">datazione</category><category domain="http://www.blogger.com/atom/ns#">EDS</category><category domain="http://www.blogger.com/atom/ns#">fluorescenza</category><category domain="http://www.blogger.com/atom/ns#">FTIR</category><category domain="http://www.blogger.com/atom/ns#">imaging</category><category domain="http://www.blogger.com/atom/ns#">radiazione</category><category domain="http://www.blogger.com/atom/ns#">radioattivita'</category><category domain="http://www.blogger.com/atom/ns#">radiografia</category><category domain="http://www.blogger.com/atom/ns#">riflettografia</category><category domain="http://www.blogger.com/atom/ns#">SEM</category><category domain="http://www.blogger.com/atom/ns#">tomografia</category><category domain="http://www.blogger.com/atom/ns#">uRaman</category><category domain="http://www.blogger.com/atom/ns#">XRD</category><category domain="http://www.blogger.com/atom/ns#">XRF</category><title>L’Archeometria nella lotta contro i falsi nei beni culturali</title><description>&lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p&gt;Il seguente post e’ stato scritto con la collaborazione di &lt;a href="https://www.linkedin.com/in/gilda-russo-378a75206/?originalSubdomain=it"&gt;&lt;font color="#80ffff"&gt;Gilda Russo&lt;/font&gt;&lt;/a&gt; (Conservation Scientist).&lt;/p&gt;  &lt;p align="justify"&gt;La falsificazione di oggetti archeologici e storico-artistici è molto diffusa e va dalla produzione di falsi di mediocre qualità ai falsi prodotti da specialisti. Sono, infatti, noti casi di opere a lungo ritenute autentiche, esposte nei più importanti musei, che sono state identificate come falsi di varia età in tempi successivi e solo attraverso &lt;a href="https://www.treccani.it/enciclopedia/archeometria-metodi-per-lo-studio-e-la-diagnostica_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/" target="_blank"&gt;&lt;font color="#80ffff"&gt;analisi archeometriche&lt;/font&gt;&lt;/a&gt;. Numerose sono le indagini archeometriche che possono essere utili nella individuazione di falsi. Dalle tecniche di datazione assoluta (come la &lt;a href="https://it.wikipedia.org/wiki/Termoluminescenza" target="_blank"&gt;&lt;font color="#80ffff"&gt;termoluminescenza&lt;/font&gt;&lt;/a&gt; o la &lt;a href="https://it.wikipedia.org/wiki/Metodo_del_carbonio-14" target="_blank"&gt;&lt;font color="#80ffff"&gt;datazione al radiocarbonio&lt;/font&gt;&lt;/a&gt;) alle metodologie di indagini che consentono di identificare la composizione chimica dei materiali originali, di degrado e/o di restauro e quindi realizzare studi di autenticazione, sulle tecnologie di produzione e di datazione indiretta. Ancora in questo contesto sono di notevole importanza le tecniche basate &lt;a href="https://it.wikipedia.org/wiki/Diagnostica_per_immagini" target="_blank"&gt;&lt;font color="#80ffff"&gt;sull’imaging diagnostico&lt;/font&gt;&lt;/a&gt; (&lt;a href="https://agenda.infn.it/event/1962/contributions/38263/attachments/26547/30408/08_Morigi.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;Tomografia Computerizzata&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://www.ndt.net/article/aipnd2013/papers/idn18.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;radiografia X&lt;/font&gt;&lt;/a&gt;, &lt;a href="http://www.sbai.uniroma1.it/~giovanni.gigante/Materiale_didattico/La%20Fluorescenza%20dei%20raggi%20x.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;fluorescenza UV&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://artenet.it/riflettografia-ir/" target="_blank"&gt;&lt;font color="#80ffff"&gt;riflettografia IR&lt;/font&gt;&lt;/a&gt;, etc.) che consentono di avere in maniera non invasiva informazioni sulla distribuzione spaziale dei materiali presenti, non direttamente discriminabili ad occhio nudo, e possono dare indicazioni sulla loro natura chimica, differenziando, grazie alle caratteristiche risposte spettrali, le superfici originali da quelle interessate da integrazioni, ritocchi o trattamenti protettivi. &lt;/p&gt;  &lt;p align="justify"&gt;Statuette, gioielli e piccoli oggetti di uso quotidiano sono i falsi più comuni tra gli oggetti metallici. Oltre al caso di prodotti contraffatti nell'antichità, c'è oggi un fiorente mercato dell'arte che coinvolge entrambi i collezionisti privati più o meno ingenui e musei di varia importanza. Nel giugno 2007, il Progetto AUTHENTICO, finanziato dalla Commissione Europea, ha proposto una ricerca multidisciplinare per affrontare questo problema e fornire una strategia per l'autenticazione del patrimonio culturale mobile, in particolare di manufatti metallici (preziosi e non). Una delle tecniche analitiche proposte per verificare l'autenticità e la tracciabilità dei manufatti metallici è &lt;a href="https://agenda.infn.it/event/1962/contributions/38252/attachments/26552/30413/09_Gianoncelli.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;l'XRF portatile.&lt;/font&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Sebbene nell'analisi quantitativa XRF di metalli antichi sorgono alcune difficoltà nella valutazione di fattori di correzione per la forma irregolare o effetti di rilievo, o come determinare la composizione del metallo (bulk) al di sotto della &lt;a href="https://it.wikipedia.org/wiki/Patina" target="_blank"&gt;&lt;font color="#80ffff"&gt;patina&lt;/font&gt;&lt;/a&gt; superficiale, il &lt;a href="https://agenda.infn.it/event/1962/contributions/38252/attachments/26552/30413/09_Gianoncelli.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;Portable XRF&lt;/font&gt;&lt;/a&gt; è ancora la più semplice tecnica non distruttiva che consente di determinare in modo quantitativo la lega con sufficiente precisione, fornendo agli storici dell'arte dati scientifici per ciascun campione. La profondità dell'analisi XRF per i metalli è di solito solo pochi decimi di micron, ma in assenza di rivestimenti metallici (come per esempio oro), e di fenomeni di &lt;a href="https://it.wikipedia.org/wiki/Corrosione" target="_blank"&gt;&lt;font color="#80ffff"&gt;corrosione&lt;/font&gt;&lt;/a&gt; o croste, la composizione esterna dovrebbe essere rappresentativa del bulk dell’oggetto in esame. &lt;/p&gt;  &lt;p align="justify"&gt;In questo post come esempio di applicazione delle tecniche archeometriche mostreremo come l’XRF possa aiutare l’archeologo nel dichiarare falso o no un oggetto di cui si ignora la provenienza. A tale scopo sono stati utilizzati tre oggetti: una statua egiziana di metallo realizzata in tempi moderni e comprata in un negozio di souvenir di un noto museo italiano, un oggetto metallico di forma cilindrica con alcuni fori (etichettato in questo post come flauto per la sua forma che ricorda appunto questo strumento musicale) proveniente da una collezione privata e supposto essere di epoca romana e infine una &lt;a href="https://it.wikipedia.org/wiki/Fibula_(spilla)" target="_blank"&gt;&lt;font color="#80ffff"&gt;fibula&lt;/font&gt;&lt;/a&gt; di epoca romana acquistata su ebay da un antiquariato inglese.&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1SIkJIwg5C4FDAvfD_mCwN5YziQyoiKkw"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1nJ5EJ29jwXlpHW-2Pl62OtmOi18EcuLa" width="639" height="279" /&gt;&lt;/a&gt;  &lt;p align="justify"&gt;Prima di passare ai risultati delle indagini eseguite vediamo un attimo in cosa consiste l’analisi XRF. La spettroscopia di fluorescenza a raggi X (XRF) è una delle tecniche più utilizzate per l'analisi elementare dei materiali. Gli elementi essenziali della tecnica sono abbastanza semplici: gli elettroni del nucleo degli atomi vengono espulsi dai raggi X primari ad alta energia, l'atomo ionizzato instabile si rilassa quindi allo stato fondamentale e una serie di elettroni saltano negli orbitali inferiori per riempire i posti vacanti, emettendo così fotoni di fluorescenza nella regione dei raggi X, che corrisponde alla struttura quantistica dell’atomo. L'emissione di fluorescenza, riportata spesso anche come raggi X secondari, rappresenta lo spettro &amp;quot;caratteristico&amp;quot; dell'atomo e può essere facilmente utilizzato per identificare e quantificare gli elementi chimici. Le righe di emissione dei raggi X calcolate per tutti gli elementi della tavola periodica sono uno strumento essenziale per l'interpretazione di tutti gli spettri misurati. Sebbene il processo di fluorescenza a raggi X possa essere attivato ionizzando gli atomi con raggi gamma generati da elementi radioattivi (ad esempio 57Co, 109Cd, 125I o 241Am), da elettroni sufficientemente energetici prodotti al microscopio elettronico o da protoni opportunamente accelerati (&lt;a href="https://www1.lnl.infn.it/~agozzeli/Internal_Report_LNL/INFN_LNL_265.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;PIXE&lt;/font&gt;&lt;/a&gt;), il metodo di gran lunga più diffuso è l’utilizzo di una sonda che genera dei raggi X prodotti da tubi di laboratorio (raggi X primari) azionati ad alta tensione (tipicamente nell'intervallo 20-60 kV). La gamma di elementi che possono essere analizzati in modo efficiente con strumenti da laboratorio dipende dall'energia dei raggi X primari, e quindi le diverse regioni della tavola periodica possono essere sondate utilizzando tubi a raggi X con anodi diversi, come Cu, Mo, Pd, Rh, Ag, Au o W, ognuno dei quali produce una radiazione caratteristica a diversa energia. Ovviamente l'anodo selezionato deve essere quello di un elemento non contenuto nel campione da analizzare, a causa della sovrapposizione con le linee caratteristiche del tubo. Ad esempio, un anodo di W (59,3 keV) può eccitare le righe K di elementi con numeri atomici tra 15–55 e le linee L degli elementi con numeri atomici tra 65–90. Le linee K degli elementi con numero atomico inferiore al Na (Z = 11) sono facilmente assorbiti anche da pochi centimetri d'aria, e da pochi micrometri della massa del campione e quindi non possono essere analizzati di routine. &lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1WIaLjFbS8oBOJ711gES8QgDZymOsf-Yz"&gt;&lt;img title="clip_image008" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image008" src="https://drive.google.com/uc?id=1hzgnhNx9CR0zM21UYgDGJ3TwZeCPXuN_" width="313" height="360" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;i&gt;Rappresentazione grafica dei livelli di energia degli elettroni dei livelli K, L, M, N in un atomo e transizioni elettroniche Ka, Kb, La, Lb, Lg e Ma corrispondenti alle caratteristiche linee di emissione dei raggi X.&lt;/i&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Se il fascio di raggi X incidente è prodotto da un &lt;a href="http://www.lnf.infn.it/edu/stagelnf/2009/relazioni_masterclass2009/milardi.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;anello di sincrotrone&lt;/font&gt;&lt;/a&gt;, la tecnica XRF è chiamata SRIXE (emissione di raggi X indotta da &lt;a href="https://it.wikipedia.org/wiki/Radiazione_di_sincrotrone" target="_blank"&gt;&lt;font color="#80ffff"&gt;radiazione di sincrotrone&lt;/font&gt;&lt;/a&gt;) e offre alcuni vantaggi rispetto agli stessi esperimenti eseguiti con strumentazione di laboratorio, come una maggiore collimazione del fascio primario, uno sfondo intrinseco molto basso e la possibilità di sintonizzare l'energia della sorgente per eccitare selettivamente specifiche linee di fluorescenza. La configurazione sperimentale per la misurazione degli spettri XRF è composta da una sorgente di raggi X o raggi gamma utilizzata per irradiare il campione, una porta campioni e un sistema per rilevare i raggi X fluorescenti. Un tipico spettro XRF mostra l'intensità dei raggi X di fluorescenza emessi dal campione (comunemente in conteggi/unità di tempo) in funzione dell'energia (in eV), come mostrato di seguito. Dopo un'adeguata calibrazione e correzione per tener conto dell'auto assorbimento della matrice e dell’efficienza del rivelatore, l’integrale delle aree dei picchi di fluorescenza viene convertito in concentrazioni relative o assolute degli elementi chimici analizzati.&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1xF_lE9MCwwPZVB56PrsG0F736b_dyD-Y"&gt;&lt;img title="clip_image010" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image010" src="https://drive.google.com/uc?id=1xVlUHXz2PKuhaZoRyGnTxqs7t26Hboly" width="463" height="269" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;i&gt;Spettro XRF ad alta energia ottenuto con una sorgente radioattiva di 109Cd di 22,1 keV&lt;/i&gt;.&lt;/p&gt;  &lt;p align="justify"&gt;Esistono due tipi principali di sistemi di rivelazione: quelli basati su rivelatori a stato solido e quelli basati su analizzatori multicanale in grado di misurare direttamente l'energia dei raggi X fluorescenti (il sistema è chiamato &lt;a href="https://flore.unifi.it/retrieve/handle/2158/1044076/138276/Tesi_PhD_Mazzinghi.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;EDS&lt;/font&gt;&lt;/a&gt;: energy dispersive spettrometria) e quelli basati su un reticolo di diffrazione, tipicamente un analizzatore a cristallo singolo, che misura l'energia dei raggi X fluorescenti indirettamente diffrangendo le diverse lunghezze d'onda del segnale fluorescente collimato a diversi angoli (il sistema è chiamato &lt;a href="http://geo.geoscienze.unipd.it/sites/default/files/Introduzione%20alla%20Microanalisi.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;WDS&lt;/font&gt;&lt;/a&gt;: spettrometria dispersiva di lunghezza d'onda). Gli spettrometri WDS sono inferiori in velocità di conteggio ma hanno una risoluzione energetica più elevata (tipicamente 5–10 eV) e quindi possono discriminare in modo più efficiente le linee di fluorescenza sovrapposte, mentre gli spettrometri EDS hanno tassi di conteggio più elevati ma una risoluzione energetica sensibilmente inferiore (tipicamente 150–200 eV). Di conseguenza, i sistemi ED-XRF sono spesso utilizzati per una bassa risoluzione e veloce misurazione, come ad esempio per gli apparecchi portatili utilizzati per le misurazioni sul campo, mentre i sistemi WD-XRF vengono utilizzati in laboratorio fornendo misurazioni ad alta risoluzione (ordine dei ppm per campioni ideali). Gli spettrometri EDS sono spesso associati ai microscopi elettronici (&lt;a href="https://www.pagepressjournals.org/index.php/microscopie/article/download/6731/6402/" target="_blank"&gt;&lt;font color="#80ffff"&gt;SEM, TEM&lt;/font&gt;&lt;/a&gt;) per fornire misurazioni chimiche complementari oltre all'imaging e alla diffrazione, mentre diversi spettrometri WDS sono associati principalmente a fasci di elettroni finemente focalizzati nei cosiddetti micro-analizzatori a sonda elettronica (&lt;a href="http://www.ph.unito.it/dfs/solid/Didattica/beni-culturali-lettere/Programma_FdBC.pdf" target="_blank"&gt;&lt;font color="#80ffff"&gt;EPMA&lt;/font&gt;&lt;/a&gt;). Quest'ultimo tipo di strumento, detto anche microsonda elettronica, offre comunemente un buon compromesso analitico tra gli elementi ai limiti di rilevamento (nell'intervallo 1000 ppm), piccole aree tastate e flessibilità di misura. La sensibilità potenzialmente elevata per la maggior parte degli elementi e la relativa facilità d'uso rendono l'XRF molto diffuso in archeometria. Gli strumenti di nuova generazione basati su EDS sono disponibili in commercio sia per misure di laboratorio che portatili. Tuttavia, dovrebbe essere chiaro che per misurazioni XRF eseguite in condizioni non ideali (es. campione sotto vuoto, superficie piana analizzata, attenuazione del campione ecc.), dove la misurazione viene eseguita direttamente su un materiale senza un'adeguata campionatura e preparazione, è difficile ottenere dei risultati quantitativi affidabili, a causa della geometria della superficie, delle possibili patine superficiali e alterazioni, della possibile forma irregolare del campione sondato, geometria di rilevamento non ottimale, ecc. Esistono strumenti a micro-raggio che eseguono scansioni bidimensionali su aree limitate della superficie del campione utilizzando un raggio focalizzato, ottenendo così informazioni chimiche per ogni punto e producendo dati utili per la chimica imaging e mappatura. La tecnica è chiamata scansione XRF. Un'estensione dell'XRF, denominata XRF a riflessione totale (&lt;a href="https://www.researchgate.net/publication/26412853_Total_reflection_X-ray_fluorescence_spectrometry_-_A_versatile_tool_for_ultra-micro_analysis_of_objects_of_cultural_heritage" target="_blank"&gt;&lt;font color="#80ffff"&gt;TRXRF&lt;/font&gt;&lt;/a&gt;), consente la misurazione degli elementi nel campione in concentrazioni minime (ultra-tracce - mg/g nei solidi e ng/g nei liquidi) utilizzando gli angoli di incidenza sulla superficie del campione al di sotto dell'angolo critico, tipicamente &amp;lt; 0,1°. In queste condizioni il raggio primario è totalmente riflesso, penetra nel substrato solo per pochi nm e c'è quindi un'interazione ottimale tra il fascio primario e il campione. L'assorbimento e gli effetti della matrice sul segnale di fluorescenza possono essere in gran parte trascurati e la sensibilità della misurazione è notevolmente migliorata. Il TRXRF è stato utilizzato con successo nell'analisi chimica di pigmenti pittorici, vernici superficiali e miniature di manoscritti. &lt;/p&gt;  &lt;p align="justify"&gt;L’XRF rappresenta una metodologia di analisi non distruttiva e non invasiva quando eseguita tramite spettrometro portatile o da laboratorio su punti del campione direttamente selezionati sulla superficie dell’oggetto da indagare allo scopo di identificare gli elementi chimici costituenti la lega nel caso di reperti metallici, o pigmenti, nel caso di stesure pittoriche. In tal modo è possibile fornire dati utili per la caratterizzazione e lo studio della tecnologia di produzione e, conseguentemente, individuare elementi marcatori che possano fornire importanti informazioni per l’autenticazione e la datazione indiretta del reperto indagato. L’indagine XRF nel caso di reperti costituiti da materiali di natura metallica permette l’analisi qualitativa e, in determinate condizioni anche una determinazione quantitativa, degli elementi chimici in lega e di eventuali elementi presenti sulla superficie introdotti a seguito di patinature artificiali o da naturali processi di corrosione in corso o pregressi.&lt;/p&gt;  &lt;p align="justify"&gt;Lo strumento utilizzato per l’analisi condotta in questo studio è un XRF analyzer della &lt;a href="https://www.thermofisher.com/order/catalog/product/10131166" target="_blank"&gt;&lt;font color="#80ffff"&gt;Thermo-Niton&lt;/font&gt;&lt;/a&gt; modello XL3t 980 Goldd+ (vedi immagine seguente) di un laboratorio privato. Grazie alla sua interfaccia lo strumento è collegabile ad un PC e grazie al software in dotazione è possibile analizzare gli spettri generati. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=17PNP1_19-J9mB47TwUQHJwNJyuMIRs1q"&gt;&lt;img title="clip_image012" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image012" src="https://drive.google.com/uc?id=1RkCUaNkSxP0ZmJoWusPHcfecwnJlwIZu" width="166" height="246" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1BMZJcHhWAk9qpLyVglB9aayv7vtL3Sa8"&gt;&lt;img title="clip_image014" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image014" src="https://drive.google.com/uc?id=11z7xr1M5PnHuQH9rjzYwno93Da2Hvq4F" width="488" height="273" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1xcvGdy80HWn1PYpVwSscBg2CpAHFo_jn"&gt;&lt;img title="clip_image016" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image016" src="https://drive.google.com/uc?id=1myKQq-KLr0yHvKyIlTCKNnQkC94eLdK1" width="474" height="293" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Ritorniamo adesso ai metalli. Si tratta di materiali che riflettono la luce, ottimi conduttori di calore e di elettricità, attaccabili dagli acidi (con relativo sviluppo di idrogeno) e dalle basi e in genere hanno delle buone caratteristiche di resistenza meccanica. I metalli danno il nome ai periodi storici come l’età del bronzo, tardo III millennio a.C. e intero II millennio a.C., e quella del ferro, dalla fine del II millennio a tutto il I millennio a.C.&lt;/p&gt;  &lt;p align="justify"&gt;Alla fine del IV millennio a.C. si verificarono importanti progressi nel campo delle tecnologie tra cui: &lt;/p&gt;  &lt;p align="justify"&gt;- la capacità di estrarre i metalli dai minerali in cui essi si trovano chimicamente combinati;&lt;/p&gt;  &lt;p align="justify"&gt;- la comprensione della possibilità di modificarne le caratteristiche con&amp;#160; particolari&amp;#160;&amp;#160;&amp;#160;&amp;#160; aggiunte, ottenendo leghe di tipo diverso;&lt;/p&gt;  &lt;p align="justify"&gt;- lo sviluppo di tecnologie di lavorazione per ottenere particolari forme e prestazioni meccaniche.&lt;/p&gt;  &lt;p align="justify"&gt;I primi elementi metallici ad essere utilizzati dall’uomo preistorico furono:&lt;/p&gt;  &lt;p align="justify"&gt;Au (oro),&lt;/p&gt;  &lt;p align="justify"&gt;Ag (argento),&lt;/p&gt;  &lt;p align="justify"&gt;Cu (rame),&lt;/p&gt;  &lt;p align="justify"&gt;Sn (stagno),&lt;/p&gt;  &lt;p align="justify"&gt;Fe (ferro),&lt;/p&gt;  &lt;p align="justify"&gt;Pb (piombo),&lt;/p&gt;  &lt;p align="justify"&gt;Hg (mercurio), &lt;/p&gt;  &lt;p align="justify"&gt;Spesso As (arsenico) e Ni (Nichel), furono usati consapevolmente al fine di migliorare le caratteristiche del rame. Le prime attività di estrazione dei metalli dai minerali in cui si trovano combinati si riferiscono al rame. Le prime attività di estrazione del rame, infatti, si ebbero probabilmente intorno al 5000-4000 aC. nel nord-est dell’Iran dove si trovavano giacimenti superficiali. Solo più tardi intorno al 3500 a.C. si scoprì che si poteva ottenere un metallo più facilmente colabile in getti, più duro per lavorazione meccanica, aggiungendo stagno al rame durante il processo di fusione. Nacquero così i bronzi allo stagno iniziando così l’età dell’omonimo periodo storico.&lt;/p&gt;  &lt;p align="justify"&gt;Il ferro invece si ipotizza che sia stato prodotto per la prima volta in modo del tutto casuale in Mesopotamia nel 2700 a.C. Questa scoperta fu più accidentale di quella del rame in quanto il ferro si presentava in forma di massa spugnosa ricca di scorie e impurezze. Una differenza importante fra i due metalli è la grande facilità di lavorazione a freddo del rame, mentre il ferro può essere lavorato solo a caldo, poiché una forte deformazione a freddo produce fratture.&lt;/p&gt;  &lt;p align="justify"&gt;Oltre al bronzo e al ferro anche alcune leghe di zinco sono state usate per secoli: l'ottone è senza dubbio quella più antica, e si ritrovano manufatti in tale lega in Palestina a partire dal 1400 a.C. La vera natura metallica di questo elemento comunque non venne riconosciuta dagli antichi. La fabbricazione dell'ottone era nota ai Romani, con una tecnica che prevedeva il riscaldamento di rame e calamina in un crogiolo. Il calore riduceva gli ossidi di zinco della calamina, e lo zinco libero veniva catturato dal rame, formando l'ottone, che veniva poi colato in stampi o forgiato.&lt;/p&gt;  &lt;p align="justify"&gt;La suddivisione dei metalli in nobili e non da’ luogo a quello che si chiama effetto pila. Quando due metalli vengono in contatto, quello meno nobile si corrode (fungendo da anodo) mentre il metallo più nobile rimarrà intatto. &lt;/p&gt;  &lt;p align="justify"&gt;I materiali e l’ambiente in cui si trovano interagiscono continuamente senza che venga raggiunto un effettivo stato di equilibrio. Tale interazione può produrre fenomeni di degrado la cui entità dipende dalla aggressività dell’ambiente e dalla sua variabilità nel tempo. Mantenere costanti le condizioni ambientali all’interfaccia mteriale-ambiente consente di raggiungere uno stato di stabilità in cui gli effetti di danneggiamento vengono minimizzati. Nel caso dei metalli è l’umidità il principale fattore che influenza la velocità dei processi corrosivi in un ambiente naturale non inquinato. I bronzi (rame e stagno), ma anche altre leghe di rame come gli ottoni (rame e zinco), non si ossidano in mancanza di umidità. Altro fattore di degrado è la temperatura (in presenza di fattori chimici di inquinamento come acido solforico e nitrico, solfato ammonico, composti alogenati (cloruri e fl&lt;b&gt;uoru&lt;/b&gt;ri), i cui effetti sono esaltati dalla presenza di energici ossidanti come l’ozono e influenzati dalla piovosità che può apportare sulla superficie esposta depositi salini (es. aerosol) particolarmente pericolosi.&lt;/p&gt;  &lt;p align="justify"&gt;Nel caso di manufatti collocati in interni, come spesso avviene per la statuaria in bronzo, la loro superficie interagisce anch’essa con l’ambiente modificandosi. Perfino i reperti collocati nei musei possono alterarsi soprattutto in conseguenza delle variazioni del microclima in cui sono collocati. &lt;/p&gt;  &lt;p align="justify"&gt;Il prodotto di alterazione della superficie di un manufatto in bronzo esposto per un periodo di tempo relativamente lungo agli agenti chimici presenti nell’ambiente, sia in esterno, che in interno (anche entro una teca in un museo), è genericamente definito patina. Talvolta la patina è il risultato di un processo di finitura intenzionale, generalmente realizzato con finalità artistiche, in quanto possono essere ottenuti effetti cromatici per esaltare ad esempio la drammaticità dei soggetti rappresentati, o anche per nascondere difetti di colata, o saldature di diverse parti di un monumento fuse separatamente. Altre volte però la patina è realizzata per frode (falsi reperti archeologici in cui con essa si cerca di simulare l’effetto del tempo). La composizione chimica delle patine insieme ad altre caratteristiche chimico-fisiche possono però in alcuni casi renderle in grado di esercitare una azione protettiva nei confronti del manufatto, mentre in altri essere un mero prodotto di corrosione che ne deturpa l’aspetto e ne promuove il degrado.&lt;/p&gt;  &lt;p align="justify"&gt;Già nel I secolo d.C. &lt;a href="https://www.academia.edu/43038304/PLINIO_IL_VECCHIO_NATURALIS_HISTORIA_TRADUZIONE_PRAEFATIO" target="_blank"&gt;&lt;font color="#80ffff"&gt;Plinio&lt;/font&gt;&lt;/a&gt; nella sua “Naturalis Historia” parla di patine nei bronzi definendo &lt;a href="https://www.academia.edu/43038304/PLINIO_IL_VECCHIO_NATURALIS_HISTORIA_TRADUZIONE_PRAEFATIO" target="_blank"&gt;&lt;font color="#80ffff"&gt;Aerugo Nobilis&lt;/font&gt;&lt;/a&gt; il prodotto di alterazione superficiale di caratteristiche estetiche apprezzabili, mentre Virus Aerugo era il prodotto dannoso. Questa differenza costituisce ancora oggi la linea di confine che guida gli interventi di conservazione sull’opera d’arte in bronzo; nella Carta del Restauro del 1972 si prescrive infatti di “non rimuovere la patina Nobile, stabile chimicamente” anche se soprattutto negli interventi di pulitura dei bronzi collocati in esterni è assai difficile la sua precisa individuazione. Il rame (Cu) puro è inizialmente rosso salmone (nei bronzi il colore diventa più chiaro per aggiunte più o meno grandi di stagno (Sn)). In assenza di anidride carbonica (CO2) e agenti aggressivi nell’atmosfera, l’ossigeno dell’aria ossida il rame a Cu2O (ossido di rame, &lt;a href="https://it.wikipedia.org/wiki/Cuprite" target="_blank"&gt;&lt;font color="#80ffff"&gt;cuprite&lt;/font&gt;&lt;/a&gt;) di colore rosso più cupo. La patina che si forma è una miscela di ossido di rame monovalente (Cu2O) con rame metallico. Lo spessore medio di questo strato in media è di 3,5 μm; il colore risultante è il marrone scuro che spesso caratterizza i bronzi conservati in interni (patina nobile).&lt;/p&gt;  &lt;p align="justify"&gt;In presenza di anidride carbonica (CO2) e umidità (H2O), i prodotti che si formano sulle superfici dei bronzi sono di colore verde-azzurro a causa della formazione di due carbonati basici:&lt;/p&gt;  &lt;p align="justify"&gt;· &lt;a href="https://it.wikipedia.org/wiki/Malachite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Malachite&lt;/font&gt;&lt;/a&gt; (CuCO3Cu(OH)2), in strati lisci e compatti di colore verde scuro simile a uno smalto&lt;/p&gt;  &lt;p align="justify"&gt;· &lt;a href="https://it.wikipedia.org/wiki/Azzurrite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Azzurrite&lt;/font&gt;&lt;/a&gt; (2CuCO3Cu(OH)2), di colore fra l’azzurro e il blu intenso.&lt;/p&gt;  &lt;p align="justify"&gt;Si tratta di patine continue e stabili, di gradevole aspetto, assai apprezzate per il loro carattere non pericoloso per la salute del manufatto.&lt;/p&gt;  &lt;p align="justify"&gt;In ambienti urbani più inquinati contenenti SOx si formano in prevalenza solfati di colore verdastro costituiti da: &lt;a href="https://it.wikipedia.org/wiki/Brochantite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Brochantite&lt;/font&gt;&lt;/a&gt; CuSO4.3Cu(OH)2 o &lt;a href="https://it.wikipedia.org/wiki/Antlerite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Antlerite&lt;/font&gt;&lt;/a&gt; CuSO4.2Cu(OH)2. Questi composti si trovano associati allo strato di cuprite (Cu2O) sottostante e sono i principali responsabili del colore verde dei monumenti in bronzo esposti all’aperto. In ambienti fortemente acidi questi solfati si trasformano in solfato di rame idrato (CuSO4.5H2O) composto assai solubile e quindi facilmente dilavabile dalle piogge, favorendo in tal modo il progredire dei fenomeni corrosivi.&lt;/p&gt;  &lt;p align="justify"&gt;I composti di rame a base di cloruri sono i più pericolosi a causa dell’elevata solubilità dei cloruri e notevole conducibilità ionica delle soluzioni. I prodotti di corrosione clorurati si trovano nei manufatti rimasti immersi in acqua di mare, interrati in terreni ad alto contenuto salino, contaminati da sostanze organiche in decomposizione o in ambienti vicini al mare in cui il cloruro di sodio (NaCl) è portato dai venti come aerosol. I principali cloruri di sono l’&lt;a href="https://it.wikipedia.org/wiki/Atacamite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Atacamite&lt;/font&gt;&lt;/a&gt; CuCl2.3Cu(OH)2 (cristalli ortorombici di colore da smeraldo a verde scuro) e la &lt;a href="https://it.wikipedia.org/wiki/Paratacamite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Paratacamite&lt;/font&gt;&lt;/a&gt; (Cu,Zn)Cl2.3Cu(OH)2 (cristalli esagonali pulverulenti di colore verde mela).&lt;/p&gt;  &lt;p align="justify"&gt;La paratacamite e la atacamite si ottengono per ossidazione e idratazione della &lt;a href="https://it.wikipedia.org/wiki/Nantokite" target="_blank"&gt;&lt;font color="#80ffff"&gt;Nantokite&lt;/font&gt;&lt;/a&gt;, un cloruro rameoso (CuCl), di colore grigio pallido e dall’aspetto ceroso e deliquescente, la cui presenza si riscontra frammista a strati di cuprite (ossido di rame) e di atacamite. La reazione di formazione della paratacamite è accompagnata dalla ossidazione del Cu a cuprite (Cu2O) e a idrossido di rame solubile:&lt;/p&gt;  &lt;p align="justify"&gt;2CuCl + 4Cu + ½ O2 + 3H2O = Cu2(OH)3 Cl + Cu2O&lt;/p&gt;  &lt;p align="justify"&gt;I prodotti di corrosione si manifestano in forma di efflorescenze di aspetto pulverulento che si accompagnano alla distruzione delle patine eventualmente presenti. Il fenomeno, pericolosissimo, è anche chiamato “&lt;a href="http://www.researcheritage.com/2018/09/il-cancro-del-bronzo.html" target="_blank"&gt;&lt;font color="#80ffff"&gt;cancro del bronzo&lt;/font&gt;&lt;/a&gt;”. Per una efficace conservazione dei bronzi la Nantokite (CuCl) deve essere sempre eliminata. Di seguito un esempio di patina di malachite e cuprite e sulla destra del cosiddetto cancro del bronzo.&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://www.lamoneta.it/uploads/monthly_05_2013/post-703-0-32319200-1369324178.jpg"&gt;&lt;img title="clip_image018" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image018" src="https://drive.google.com/uc?id=1fsQwyZGeAh94t3Wnk6VjqMYELFaIWqXj" width="248" height="130" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1JNhAPAvoE7HQotw046qwSyd_J6rel_W8"&gt;&lt;img title="clip_image020" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image020" src="https://drive.google.com/uc?id=1UORUPNJGHY0XDVvC1iUK3vMFsz7dZQba" width="251" height="119" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Qui invece un manufatto di rame romano con chiara presenza in superficie di cuprite e malachite.&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1MxMCU8fFOylkd6Qtjx0FMMSrJPw8lmW1"&gt;&lt;img title="clip_image021" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image021" src="https://drive.google.com/uc?id=17UwGQLYaMrYwKHr7OgfyoELk-_0ky_WT" width="246" height="186" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Il rapporto tra il volume del rame originario e l’aumento di volume prodotto dai fenomeni di corrosione è espresso dal cosiddetto volume molare relativo (&lt;a href="https://it.wikipedia.org/wiki/Volume_molare" target="_blank"&gt;&lt;font color="#80ffff"&gt;VMR&lt;/font&gt;&lt;/a&gt;).&amp;#160; Il VMR indica l’accrescimento volumetrico della patina stessa.&amp;#160; Posto 1 il volume iniziale del rame, la cuprite presenta un VMR di 1,67, molto basso (rispetto ad altre patine). Questo significa che la cuprite non altera in modo significativo la superficie dell'oggetto e ne preserva pressoché inalterati i rilievi ed i dettagli.&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=15uuF0EVOKmNadV3s2SOVxcu4aW-FX23Q"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1wwBHw-aAsoqo8UUeIlGdgwV7I6fnX-vC" width="478" height="551" /&gt;&lt;/a&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;La &lt;a href="https://it.wikipedia.org/wiki/Corrosione" target="_blank"&gt;&lt;font color="#80ffff"&gt;corrosione&lt;/font&gt;&lt;/a&gt; può influenzare significativamente le misure del XRF. Da studi del settore emerge che in generale, è possibile vedere in media un depauperamento del contenuto di rame del 35% per oggetti in lega di stagno corrose. Per oggetti con corrosione in superficie e con alto contenuto di stagno e zinco, il depauperamento medio del rame è di circa il 18%, mentre lo zinco non mostra variazioni significative e lo stagno invece mostra un aumento maggiore del 50%. Per gli oggetti corrosi con alto contenuto di zinco è presente una riduzione dello zinco del 9%. Questo dimostra che la &lt;a href="https://www.researchgate.net/publication/313925472_Analisi_archeometallurgiche_delle_monete_bronzee_provinciali_prodotte_in_Cirenaica" target="_blank"&gt;&lt;font color="#80ffff"&gt;decuprificazione&lt;/font&gt;&lt;/a&gt; e la &lt;a href="https://it.wikipedia.org/wiki/Corrosione" target="_blank"&gt;&lt;font color="#80ffff"&gt;dezincificazione&lt;/font&gt;&lt;/a&gt; sono i processi principali della corrosione. Il depauperamento di rame è stato osservato essere il cambiamento più rilevante dei comuni oggetti di bronzo mentre per gli ottoni si è visto che il processo di corrosione principale è la lisciviazione dello zinco. Questi esperimenti dimostrano chiaramente che bisogna fare molta attenzione alla superficie dell’oggetto che stiamo analizzando con l’XRF per capire il grado di corrosione della sua superficie. &lt;/p&gt;  &lt;p align="justify"&gt;I tre campioni selezionati per l’analisi XRF sia dall’analisi ad occhio nudo che da osservazione con stereo microscopio appaiano essere tutti formati principalmente da Cu e quindi appartenenti alla classe dei bronzi. Inoltre, la loro superficie non sembra presentare alterazioni da corrosione. &lt;/p&gt;  &lt;p align="justify"&gt;Sebbene alcuni esempi isolati di leghe di rame preistoriche contengano diversi per cento di zinco, in particolare da Cipro, solo nel primo millennio aC iniziò la produzione deliberata di ottone, probabilmente in Asia Minore. Dal VII secolo aC i Greci iniziarono a parlare di ottone, ma sempre come un metallo costoso ed esotico non prodotto in Grecia, e questo è confermato dall'assenza di zinco nella grande maggioranza dei bronzi greci. Allo stesso modo, dei tanti bronzi etruschi analizzati, solo due rispettivamente del V e III secolo a.C sono risultati essere di ottone con circa l'11% di zinco e meno del 3% di stagno. Nel I secolo aC i romani iniziarono ad utilizzare il processo di cementazione per la produzione dell’ottone. Dapprima molto probabilmente venne utilizzato per la monetazione, ma poi diventò rapidamente popolare in altri campi, in particolare nella lavorazione dei metalli decorativi dove andò a sostituire ampiamente il bronzo. Durante il II e il III secolo d.C. il contenuto di zinco delle monete diminuì, e gli ottoni con un alto contenuto di zinco non vennero più utilizzati, sebbene l'ottone continuasse ad essere popolare rappresentando circa il 30% delle leghe di rame romane. Dal III secolo in poi una lega di rame con una piccola percentuale di piombo, zinco e stagno (oggi chiamata &amp;quot;bronzo duro al piombo&amp;quot; o “gun metal” in lingua inglese) iniziò ad essere utilizzata regolarmente e da allora è rimasto tale. Le origini di entrambi i termini “Ottone” e “Bronzo” non sono note, ma sembra che in epoca medievale tutte le leghe di rame venissero chiamate bronzi, e solo dal Rinascimento il termine bronzo fu usato in Italia per denotare leghe di rame legate con stagno. Tuttavia, i termini sono stati utilizzati indiscriminatamente in Inghilterra fino al XIX secolo. Ai fini di questo post, per ottone si intende una lega di rame a cui è stato aggiunto deliberatamente dello zinco mentre per bronzo una lega di rame in cui è stato introdotto dello stagno. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1uI9ND5V2pCBJ9413xUvYrV_SXafvNUrC"&gt;&lt;img title="clip_image025" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image025" src="https://drive.google.com/uc?id=1Q8cjU9Vjp9ndfaK_PeAny7AjtDQWO2W2" width="314" height="279" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Considerando i valori di Cu, Zn e Sn dei tre campioni sotto analisi possiamo subito vedere che la statua egizia falsa non è di bronzo ma di ottone su cui poi sono state create le tipiche patine verdi in modo artificiale. Per l’oggetto invece riportato come ‘flauto’ la sua composizione lo colloca nella regione individuata come bronzo duro visto il suo contenuto medio di Zn e praticamente la quasi assenza di Sn. La fibula acquistata su ebay invece risulta essere un oggetto essenzialmente di rame visto il suo basso contenuto di Zn e di Sn.&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1NAI5b3yc6JJQxt4bpfUkXWRcORbYEt9O"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1nnT_GfNJeiHtP_7YGKwyj5aJTAMEQTgh" width="447" height="294" /&gt;&lt;/a&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Per poter effettuare un confronto tra gli oggetti in analisi e oggetti simili autentici, si è fatto ricorso ad articoli pubblicati su riviste specializzate dove l’XRF è stata utilizzato per oggetti metallici che vanno dalla preistoria fino al periodo romano (circa 300 dopo Cristo). In giallo sono stati evidenziati i 3 oggetti sotto analisi. Oltre alla statua egizia è presente un’altra statua che rappresenta Minerva dichiaratamente falsa. Entrambe mostrano un elevato contenuto di Cu seguito dallo Zn e una piccola quantità di piombo. Nella tabella seguente il periodo e l’età riportata è quella presente nell’articolo da cui sono stati raccolti i dati XRF. La selezione di campioni di leghe di Cu da un'ampia gamma di tipologie di manufatti e da una vasta gamma di reperti archeologici da diverse aree geografiche fornisce un set di dati il più rappresentativo possibile. Ciò consente la caratterizzazione delle leghe di Cu esenti da distorsioni (bias) dovute alla considerazione di un solo sito o di uno solo tipo di manufatto. &lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1Ieos5Pd2NAt9uKV8owpY-xB37hpYdSbc"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=18LTEpggKKbox577vvty9FSrXewVckVp8" width="564" height="714" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Utilizzando i dati raccolti è possibile vedere come si è evoluta la composizione del bronzo in funzione del periodo storico. In tutte le età precedenti a quella romana il bronzo era ottenuto da una lega di Cu e Sn. In epoca romana si aggiunse anche del piombo. Al contrario collezionando i dati dell’ottone si può vedere come la sua composizione dall’età del ferro fino a quella romana è rimasto praticamente lo stesso. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1JFQt6YwJAIu-i9-iWgMkfLwKPwcBl0z7"&gt;&lt;img title="clip_image031" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image031" src="https://drive.google.com/uc?id=11fUF08A9Yc20zqOGVG4qhksxNKjb3IsR" width="520" height="288" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1rshIqrERtbkvc_cTnHITUV8f5qNKXNQM"&gt;&lt;img title="clip_image033" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image033" src="https://drive.google.com/uc?id=1R8-wrGq9c1wnJRXBGK8o6XCuabochOdN" width="520" height="202" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Il piombo (Pb) veniva aggiunto quando la lega metallica doveva essere utilizzata nella fusione di oggetti grandi e complessi come le statue. Nei casi in cui variano contemporaneamente i tre elementi di lega (es. Zn, Sn e Pb), un grafico bidimensionale come gli ultimi due precedenti non va più bene. Questo problema viene superato in una certa misura mediante l'uso di &lt;a href="https://it.wikipedia.org/wiki/Diagramma_ternario" target="_blank"&gt;&lt;font color="#80ffff"&gt;diagrammi ternari&lt;/font&gt;&lt;/a&gt;. Questi sono in grado di indicare contemporaneamente la differenza tra ottoni e bronzi e tra leghe piombate e senza piombo. &lt;/p&gt;  &lt;p align="justify"&gt;La ricerca effettuata sulle leghe romane di Cu ha permesso di svelare le relazioni tra scelta della lega e i vincoli tecnologici. Questi possono essere visti chiaramente nei livelli di Pb presente nelle leghe romane. A differenza di Zn e Sn, il Pb non è presente nelle leghe di Cu in soluzione solida. Esso forma delle goccioline discrete in tutto il metallo. Questo rende le leghe di piombo più soggette a rompersi quando martellate e forgiate, e così le lamiere e i fili quasi mai hanno più dell'1% di Pb. Il piombo, tuttavia, abbassa il punto di fusione del Cu e produce un fuso di una lega più fluido. Questo lo rende un'utile aggiunta alle leghe che devono essere utilizzati nella fabbricazione di grandi o complesse fusioni, come le statue.&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1HB1mu027n_nW3EU0yhfKapfLNQ4vvJg5"&gt;&lt;img title="clip_image035" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image035" src="https://drive.google.com/uc?id=1AaaZeVn1hZnPoi8EK2EvijJxVuUszpGQ" width="449" height="300" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1yXS0RLGtqn2Ld-gIgZGyqyeCLtTW4dj_"&gt;&lt;img title="clip_image037" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image037" src="https://drive.google.com/uc?id=1doRx6KtamoNpTv7M4sxwGOpyG3LvWtN_" width="442" height="270" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Diversi ricercatori hanno dimostrato che esistevano dei collegamenti complessi tra la forma dei manufatti e le leghe utilizzate per la loro fabbricazione (es. Bayley &amp;amp; Macellaio, 1981; Craddock, 1975, 1996). Uno degli esempi più chiari di questo fenomeno in epoca romana è il gran numero di vasi di bronzo prodotti in Campania e altrove (den Boesterd, 1956). L’analisi di un gran numero di questi vasi ha dimostrato che la maggior parte di loro erano di bronzo piombato. Anche l’archeologo inglese Craddock ha dimostrato che un'ampia gamma di manufatti in leghe di Cu (ad es. statue e strumenti musicali) prodotti nel periodo tardo repubblicano e primo imperiale nell'area mediterranea è stata realizzata con una lega simile al bronzo piombato. &lt;/p&gt;  &lt;p align="justify"&gt;Per quanto riguarda il cambiamento cronologico nelle leghe di Cu di epoca romana sono stati effettuati pochi studi e i risultati non sono molto accurati. Nel grafico di seguito viene riportato il tipo di leghe utilizzate per gli oggetti metallici provenienti da scavi in Gran Bretagna lungo il periodo romano (i secoli sono quelli dopo Cristo). Molti dei tipi di leghe riportate sono presenti a livelli relativamente bassi per tutto il periodo romano (es. ottone piombato e piombo ramato) o mostrano variazioni relativamente piccole nel tempo (es. bronzo duro e bronzo). I cambiamenti significativi nei tipi di lega sono quelli legati al calo dell’ottone senza piombo e il crescente uso del bronzo piombato e bronzo duro al piombo. Nel I secolo d.C. l’ottone rappresentava il 37% delle leghe utilizzate mentre il bronzo al piombo e il bronzo duro al piombo insieme rappresentavano il 27%. Nel IV secolo d.C., l'ottone passa al 4% mentre il bronzo al piombo e il bronzo duro al piombo aumentano al 64%. I cambiamenti cronologici nelle composizioni delle leghe romane analizzate devono, tuttavia, essere considerate con cautela trattandosi di campioni da diversi siti in momenti diversi; i cambiamenti delle leghe analizzate potrebbe riflettere piuttosto i cambiamenti nella documentazione archeologica rispetto ai cambiamenti nell'antica metallurgia del Cu. Inoltre, i diversi tipi di manufatti prodotti e i metodi utilizzati nella fabbricazione potrebbe essere cambiato nel tempo. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1pzcJCKryyZg_fW8bOC-s11jVnfeLBf2i"&gt;&lt;img title="clip_image039" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image039" src="https://drive.google.com/uc?id=12JhjOutf39qKktmFT1ux5hg2_hqrTBD1" width="436" height="360" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Ritorniamo adesso ai nostri tre oggetti. Come anticipato, la statua è chiaramente un falso e quindi ci aspettiamo che il suo spettro sia significativamente diverso dagli oggetti (in particolare proprio una statua) veri. Nel database creato con i dati presi da altri autori e pubblicati su riviste scientifiche specialistiche, abbiamo una statua di Minerva autentica, una statua di Minerva falsa e una statua romana di cui non è riportata l’età e il personaggio che essa rappresenta. Riportando i dati su di un grafico ternario Sn-Zn-Pb si può vedere immediatamente come le 2 statue false si posizionano nel vertice in basso a destra del triangolo che indica un alto contenuto di Zn, un bassissimo contenuto di Sn e un basso contenuto di Pb (in pratica si tratta di ottone). Al contrario le due statue vere si posizionano a metà del lato destro del triangolo che indica un basso contenuto di Zn e un alto contenuto di Pb e Sn (quindi oggetti di bronzo piombato). Questo è un ottimo esempio di come un’analisi XRF possa aiutarci nella individuazione di un falso. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1iwFEVEcgWEM8n_v8OeQuNp0mqqHP2-G5"&gt;&lt;img title="clip_image041" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image041" src="https://drive.google.com/uc?id=1zDRtZaQLjUq1NIBcJZCZ77seugYWGYD9" width="405" height="299" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Passiamo adesso al secondo oggetto e cioè la &lt;a href="https://it.wikipedia.org/wiki/Fibula_(spilla)" target="_blank"&gt;&lt;font color="#80ffff"&gt;fibula&lt;/font&gt;&lt;/a&gt; comprata all’asta su ebay dall’Inghilterra. Qui di seguito un esempio di fibule ad arco. Oltre a questa classe esistevano le fibule ad anello e le fibule a piastre. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=19UWEfTm2cMUI9Ik4ddxmQizFRifAdDEj"&gt;&lt;img title="clip_image043" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image043" src="https://drive.google.com/uc?id=1NjSvZFayEmMDr9Ilt_bjJ2hE_2KpemAW" width="570" height="218" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Una fibula altro non è che un'antica spilla. Tecnicamente il termine latino fibulae si riferisce alle spille romane; tuttavia, il termine è ampiamente utilizzato per riferirsi a spille dell'intero mondo antico e altomedievale. Le fibule erano usate per allacciare i vestiti, i mantelli militari o, in alcuni casi, semplicemente come oggetti decorativi. Furono usate secoli prima della fondazione di Roma e per secoli dopo la sua caduta da greci, persiani, frigi, celti, tedeschi, slavi e molti altri popoli oltre ai romani. Erano usate sia dai soldati che dai civili; da uomini, donne e bambini. Erano usate su abiti, camicie e abiti, nonché sui mantelli. Non venivano utilizzate invece sulla toga, che era semplicemente piegata e drappeggiata. Dopo questa breve descrizione delle fibule ritorniamo alla fibula acquistata su ebay e che abbiamo analizzata con uno strumento XRF.&lt;/p&gt;  &lt;p align="justify"&gt;Ripartendo dalla tabella dove abbiamo raccolto tutti i dati XRF riportata precedentemente salta subito all’occhio il suo basso contenuto di Stagno e una percentuale di Zn al di sotto del 5%. Nel grafico Zn-Sn infatti questo oggetto si posiziona nella zona degli oggetti in rame. Ma quanto erano comuni nel passato le fibule di rame? Non molto come si può osservare dalla tabella sottostante che nel periodo tra il 500 aC e il 100 d.C. riporta solo un 6% di fibule in rame contro un 46% di ottone e circa il 48% di bronzo/bronzo duro. &lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1OkB7XAkUzdrw-nHyeF0YaDPnnFAqqh7U"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1On_oePsW8S0QnHEMl5lmjQivymPMVnoo" width="383" height="273" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=18hMcKUoWkVVnhYYzFTMlInti5HbNo3Xc"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1hPREDPnswMcA8gJMCjFRbiSepBdxy0fz" width="399" height="267" /&gt;&lt;/a&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1q2TR-pLz4sZQNgLPgDw91l4kkkK_DK-e"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1HGmqvFfYMdXE91N9KAGHMvF70gR7Mcgr" width="202" height="90" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Anche se i risultati non confermano in modo schiacciante la falsità dell’oggetto sotto studio, c’è qualche lecito sospetto. Come ulteriore approfondimento e’ stata analizzata la percentuale di elementi presenti in tutte le fibule della tabella riportata sopra. La tecnica delle &lt;a href="https://it.wikipedia.org/wiki/Analisi_delle_componenti_principali" target="_blank"&gt;&lt;font color="#80ffff"&gt;componenti principali&lt;/font&gt;&lt;/a&gt; è una tecnica statistica utilizzata per ridurre la dimensione del campione andando a trovare le componenti che spiegano la maggior parte della variabilità dei dati. Le nuove variabili (le componenti principali) altro non sono che la sovrapposizione con appositi pesi di tutte le variabili x del nostro database. Per il caso che stiamo studiano possiamo vedere come usando le prime 3 componenti principali riusciamo a spiegare circa l’80% della variabilita’ del nostro campione. Uno dei grossi vantaggi delle componenti principali è quello di poter osservare i dati nel piano o nello spazio cosa impossibile nel caso in cui consideriamo tutti i predittori (le variabili x). Nel piano delle prime due componenti principali notiamo come i dati si dispongono su due cluster che formano una V con vertice in (0,0). La cosa interessante è che il ramo di sinistra della V e’ legato alle fibule create mediamente dopo la nascita di Cristo mentre quelle del ramo di destra prima della venuta di cristo. Sembra indicare un passaggio graduale dal bronzo all’ottone, conosciuto nel passato come oricalco la cui origine viene fatta risalire nel primo secolo prima di Cristo e che tenderà a scomparire nel quarto secolo d.C. (vedi grafico precedente). Guardando i dati come si distribuiscono nel piano della prima e terza componente principale si nota subito un &lt;a href="https://it.wikipedia.org/wiki/Outlier" target="_blank"&gt;&lt;font color="#80ffff"&gt;outlier&lt;/font&gt;&lt;/a&gt; evidenziato con un asterisco verde che guarda caso è proprio la fibula acquistata su ebay. Essa si differenzia dalle rimanenti fibule originarie (clusterizzate intorno all’origine del piano) per l’elevato contenuto di Ag (1%). Questo ci porta a pensare che la fibula sia un falso anche se la confidenza non è molto alta in quanto ci sono delle analisi XRF condotte su delle fibule di epoca romana ritrovate in Kossovo in Polonia che mostrano dei contenuti di Ag molto elevati anche se è anche presente un quantitativo di Sn e Pb considerevole. Cosa che non è vero nel nostro caso. Servirebbero ulteriori analisi, come per esempio quelle delle patine per poter dire con certezza che si tratti di un falso. &lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;a href="https://drive.google.com/uc?id=1yzRyexiT6A_p5TD2ADLMULQXJZ-7M_Hm"&gt;&lt;img title="clip_image055" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image055" src="https://drive.google.com/uc?id=1dv1G1eYn6tsr4W4FsmfbpQLO0OJXkVZs" width="519" height="207" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1mOZxyGr_BBtrJTbzUlYW8SmhcXcBpMfG"&gt;&lt;img title="clip_image057" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image057" src="https://drive.google.com/uc?id=16GyRJmz1HoqVoyuXo9XrifkWKoBaApyS" width="522" height="229" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;em&gt;Fibule ritrovate in Kossovo (Polonia) di epoca romana.&lt;a href="https://drive.google.com/uc?id=1B8-7_ZEBu4ZB87rg7ozan3n02UHacdZm"&gt;&lt;img title="clip_image059" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image059" src="https://drive.google.com/uc?id=1Kp2kM-lDnCM9w0V_28PXGgL3RxH1tAqs" width="311" height="215" /&gt;&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Adesso è la volta dell’oggetto a cui è stato assegnato l’identificativo “flauto” ma il cui scopo è del tutto sconosciuto (vedi prima immagine qui di seguito). Si tratta di un oggetto proveniente da una collezione privata e secondo l’acquirente proviene da uno scavo nel territorio della Marsica (Abruzzo). Potrebbe trattarsi di una parte di una tibiae o di una tuba, entrambe &lt;a href="https://italywebradio.it/cultura/gli-strumenti-musicali-nellantica-roma/" target="_blank"&gt;&lt;font color="#80ffff"&gt;strumenti musicali utilizzate dai romani&lt;/font&gt;&lt;/a&gt; (nella seconda immagine qui di seguito parte di tibiae proveniente dal Museo degli strumenti musicali di Roma) &lt;/p&gt;  &lt;p align="justify"&gt;La superficie dell’oggetto non mostra segni di corrosione significativi. La patina sembra essere quella tipica degli oggetti in bronzo. L’oggetto all’interno è cavo e rassomiglia ad un tubo. Il lato sinistro ha un diametro leggermente maggiore del lato destro. A circa un terzo a partire dal lato sinistra si apre un foro con un leggero incavo. &lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1_oN_5kGGcFP95_OCJlODUYNrdJ_znLtb"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1nuXVUa1H-DzEmK3nTsUUA_pG9CAWGSBo" width="393" height="119" /&gt;&lt;/a&gt;  &lt;p align="center"&gt;&lt;a href="https://drive.google.com/uc?id=1hS7ZZodNzdCWui4X-_BQEMiVE8X1UBCj"&gt;&lt;img title="image" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=1PAr0XEsNm4gLLPIMTyp8_ZIMwgJw0ceD" width="395" height="142" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Lo spettro XRF di questo oggetto sembra indicare un oggetto di bronzo duro (basso contenuto di Sn e presenza di Zn al di sotto della soglia per essere classificato come ottone) con un alto contenuto di Fe. &lt;/p&gt;  &lt;p align="justify"&gt;Dall’analisi di &lt;a href="https://it.wikipedia.org/wiki/Clustering" target="_blank"&gt;&lt;font color="#80ffff"&gt;clustering&lt;/font&gt;&lt;/a&gt; degli elementi dei diversi oggetti riportati nella tabella ad inizio post si vede chiaramente come questo oggetto sia molto simile agli oggetti identificati dalle righe 45, 46 e 47 che riportano i risultati di analisi XRF eseguita si di una statua di bronzo presso il &lt;a href="https://it.wikipedia.org/wiki/Museo_archeologico_di_Salonicco" target="_blank"&gt;&lt;font color="#80ffff"&gt;museo di Salonicco&lt;/font&gt;&lt;/a&gt; la cui origine non è nota. L’statua mostra un alto contenuto di Cu, stagno e in alcuni punti piombo confermando che si tratta di bronzo. Comunque, va notato che su molti punti della superficie della stata risulta un’elevata concentrazione di Fe (da 1% fino a circa 30%). Gli autori attribuiscono la presenza di tale elemento alla contaminazione di un oggetto di ferro posto nello stesso ambiente di sepoltura. In alcuni punti la statua mostra un basso contenuto di rame (intorno al 50%) a causa dei processi di corrosione. Diversamente da questa statua l’oggetto analizzato risultato simile ad essa per il basso contenuto di Cu e l’alto contenuto di Fe mostra la presenza di zinco e un basso contenuto di stagno che lo fa rientrare nella categoria del bronzo duro. Elementi come il ferro (Fe) possono essere il risultato del processo di fusione, di aggiunte intenzionali, parte di uno strato di corrosione o contaminazione da oggetti di ferro durante la sepoltura. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1kZhrmgzgzOw3q66L4Fh8oXUFG7eSUSgq"&gt;&lt;img title="clip_image065" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image065" src="https://drive.google.com/uc?id=1uMAXjSRtvBMktQGACeVIdLC0WGAtBo1p" width="340" height="284" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Come già riportato per la statua del museo di Salonicco, il basso contenuto di Cu potrebbe essere dovuto a qualche fenomeno di corrosione anche se la superficie pur presentando il tipico valore verde della malachite non sembra mostrare un notevole degrado come invece si può notare per la tuba del museo romano di strumenti musicali. Per poter definitivamente stabilire l’autenticità del pezzo servirebbe uno studio delle patine presenti sull’oggetto con analisi tipo &lt;a href="http://www.researcheritage.com/2017/12/la-spettroscopia-ft-ir.html" target="_blank"&gt;&lt;font color="#80ffff"&gt;FTIR&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://www.cnr.it/it/news/10858/spettroscopia-raman-per-indagare-i-beni-culturali" target="_blank"&gt;&lt;font color="#80ffff"&gt;u-Raman&lt;/font&gt;&lt;/a&gt;. &lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=19lTpeZBDqQsWZQnxUMxgB9g4mr0j4X_i"&gt;&lt;img title="clip_image067" style="float: left; display: inline; background-image: none;" border="0" alt="clip_image067" src="https://drive.google.com/uc?id=1GGPFrMc-gMMc9A8R9FYZDRePSNvf-Bzz" width="347" align="left" height="683" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1y3dR8IM0sQ7TAojGR-wyZDscqQD7nhE0"&gt;&lt;img title="image" style="display: inline; background-image: none;" border="0" alt="image" src="https://drive.google.com/uc?id=17nyAui4Z0I1cYy3t8gDojJrXBOhctgJQ" width="251" height="680" /&gt;&lt;/a&gt; &lt;/p&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;a href="https://drive.google.com/uc?id=1fks658GcFYZC2JcpJA2JgiBEpwacNEwT"&gt;&lt;img title="clip_image071" style="margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image071" src="https://drive.google.com/uc?id=1d5sDYBSr8wpMbScg4MlsO_I9Cwc9_QgE" width="437" height="444" /&gt;&lt;/a&gt;&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2022/09/larcheometria-nella-lotta-contro-i.html</link><author>noreply@blogger.com (Felice)</author><thr:total>0</thr:total><enclosure length="744804" type="application/pdf" url="https://www.ndt.net/article/aipnd2013/papers/idn18.pdf"/><itunes:explicit>no</itunes:explicit><itunes:subtitle>&amp;#160; Il seguente post e’ stato scritto con la collaborazione di Gilda Russo (Conservation Scientist). La falsificazione di oggetti archeologici e storico-artistici è molto diffusa e va dalla produzione di falsi di mediocre qualità ai falsi prodotti da specialisti. Sono, infatti, noti casi di opere a lungo ritenute autentiche, esposte nei più importanti musei, che sono state identificate come falsi di varia età in tempi successivi e solo attraverso analisi archeometriche. Numerose sono le indagini archeometriche che possono essere utili nella individuazione di falsi. Dalle tecniche di datazione assoluta (come la termoluminescenza o la datazione al radiocarbonio) alle metodologie di indagini che consentono di identificare la composizione chimica dei materiali originali, di degrado e/o di restauro e quindi realizzare studi di autenticazione, sulle tecnologie di produzione e di datazione indiretta. Ancora in questo contesto sono di notevole importanza le tecniche basate sull’imaging diagnostico (Tomografia Computerizzata, radiografia X, fluorescenza UV, riflettografia IR, etc.) che consentono di avere in maniera non invasiva informazioni sulla distribuzione spaziale dei materiali presenti, non direttamente discriminabili ad occhio nudo, e possono dare indicazioni sulla loro natura chimica, differenziando, grazie alle caratteristiche risposte spettrali, le superfici originali da quelle interessate da integrazioni, ritocchi o trattamenti protettivi. Statuette, gioielli e piccoli oggetti di uso quotidiano sono i falsi più comuni tra gli oggetti metallici. Oltre al caso di prodotti contraffatti nell'antichità, c'è oggi un fiorente mercato dell'arte che coinvolge entrambi i collezionisti privati più o meno ingenui e musei di varia importanza. Nel giugno 2007, il Progetto AUTHENTICO, finanziato dalla Commissione Europea, ha proposto una ricerca multidisciplinare per affrontare questo problema e fornire una strategia per l'autenticazione del patrimonio culturale mobile, in particolare di manufatti metallici (preziosi e non). Una delle tecniche analitiche proposte per verificare l'autenticità e la tracciabilità dei manufatti metallici è l'XRF portatile. Sebbene nell'analisi quantitativa XRF di metalli antichi sorgono alcune difficoltà nella valutazione di fattori di correzione per la forma irregolare o effetti di rilievo, o come determinare la composizione del metallo (bulk) al di sotto della patina superficiale, il Portable XRF è ancora la più semplice tecnica non distruttiva che consente di determinare in modo quantitativo la lega con sufficiente precisione, fornendo agli storici dell'arte dati scientifici per ciascun campione. La profondità dell'analisi XRF per i metalli è di solito solo pochi decimi di micron, ma in assenza di rivestimenti metallici (come per esempio oro), e di fenomeni di corrosione o croste, la composizione esterna dovrebbe essere rappresentativa del bulk dell’oggetto in esame. In questo post come esempio di applicazione delle tecniche archeometriche mostreremo come l’XRF possa aiutare l’archeologo nel dichiarare falso o no un oggetto di cui si ignora la provenienza. A tale scopo sono stati utilizzati tre oggetti: una statua egiziana di metallo realizzata in tempi moderni e comprata in un negozio di souvenir di un noto museo italiano, un oggetto metallico di forma cilindrica con alcuni fori (etichettato in questo post come flauto per la sua forma che ricorda appunto questo strumento musicale) proveniente da una collezione privata e supposto essere di epoca romana e infine una fibula di epoca romana acquistata su ebay da un antiquariato inglese. Prima di passare ai risultati delle indagini eseguite vediamo un attimo in cosa consiste l’analisi XRF. La spettroscopia di fluorescenza a raggi X (XRF) è una delle tecniche più utilizzate per l'analisi elementare dei materiali. Gli elementi essenziali della tecnica sono abbastanza semplici: gli elettroni del nucleo degli atomi vengono espulsi dai raggi X primari ad alta energia, l'atomo ionizzato instabile si rilassa quindi allo stato fondamentale e una serie di elettroni saltano negli orbitali inferiori per riempire i posti vacanti, emettendo così fotoni di fluorescenza nella regione dei raggi X, che corrisponde alla struttura quantistica dell’atomo. L'emissione di fluorescenza, riportata spesso anche come raggi X secondari, rappresenta lo spettro &amp;quot;caratteristico&amp;quot; dell'atomo e può essere facilmente utilizzato per identificare e quantificare gli elementi chimici. Le righe di emissione dei raggi X calcolate per tutti gli elementi della tavola periodica sono uno strumento essenziale per l'interpretazione di tutti gli spettri misurati. Sebbene il processo di fluorescenza a raggi X possa essere attivato ionizzando gli atomi con raggi gamma generati da elementi radioattivi (ad esempio 57Co, 109Cd, 125I o 241Am), da elettroni sufficientemente energetici prodotti al microscopio elettronico o da protoni opportunamente accelerati (PIXE), il metodo di gran lunga più diffuso è l’utilizzo di una sonda che genera dei raggi X prodotti da tubi di laboratorio (raggi X primari) azionati ad alta tensione (tipicamente nell'intervallo 20-60 kV). La gamma di elementi che possono essere analizzati in modo efficiente con strumenti da laboratorio dipende dall'energia dei raggi X primari, e quindi le diverse regioni della tavola periodica possono essere sondate utilizzando tubi a raggi X con anodi diversi, come Cu, Mo, Pd, Rh, Ag, Au o W, ognuno dei quali produce una radiazione caratteristica a diversa energia. Ovviamente l'anodo selezionato deve essere quello di un elemento non contenuto nel campione da analizzare, a causa della sovrapposizione con le linee caratteristiche del tubo. Ad esempio, un anodo di W (59,3 keV) può eccitare le righe K di elementi con numeri atomici tra 15–55 e le linee L degli elementi con numeri atomici tra 65–90. Le linee K degli elementi con numero atomico inferiore al Na (Z = 11) sono facilmente assorbiti anche da pochi centimetri d'aria, e da pochi micrometri della massa del campione e quindi non possono essere analizzati di routine. Rappresentazione grafica dei livelli di energia degli elettroni dei livelli K, L, M, N in un atomo e transizioni elettroniche Ka, Kb, La, Lb, Lg e Ma corrispondenti alle caratteristiche linee di emissione dei raggi X. Se il fascio di raggi X incidente è prodotto da un anello di sincrotrone, la tecnica XRF è chiamata SRIXE (emissione di raggi X indotta da radiazione di sincrotrone) e offre alcuni vantaggi rispetto agli stessi esperimenti eseguiti con strumentazione di laboratorio, come una maggiore collimazione del fascio primario, uno sfondo intrinseco molto basso e la possibilità di sintonizzare l'energia della sorgente per eccitare selettivamente specifiche linee di fluorescenza. La configurazione sperimentale per la misurazione degli spettri XRF è composta da una sorgente di raggi X o raggi gamma utilizzata per irradiare il campione, una porta campioni e un sistema per rilevare i raggi X fluorescenti. Un tipico spettro XRF mostra l'intensità dei raggi X di fluorescenza emessi dal campione (comunemente in conteggi/unità di tempo) in funzione dell'energia (in eV), come mostrato di seguito. Dopo un'adeguata calibrazione e correzione per tener conto dell'auto assorbimento della matrice e dell’efficienza del rivelatore, l’integrale delle aree dei picchi di fluorescenza viene convertito in concentrazioni relative o assolute degli elementi chimici analizzati. Spettro XRF ad alta energia ottenuto con una sorgente radioattiva di 109Cd di 22,1 keV. Esistono due tipi principali di sistemi di rivelazione: quelli basati su rivelatori a stato solido e quelli basati su analizzatori multicanale in grado di misurare direttamente l'energia dei raggi X fluorescenti (il sistema è chiamato EDS: energy dispersive spettrometria) e quelli basati su un reticolo di diffrazione, tipicamente un analizzatore a cristallo singolo, che misura l'energia dei raggi X fluorescenti indirettamente diffrangendo le diverse lunghezze d'onda del segnale fluorescente collimato a diversi angoli (il sistema è chiamato WDS: spettrometria dispersiva di lunghezza d'onda). Gli spettrometri WDS sono inferiori in velocità di conteggio ma hanno una risoluzione energetica più elevata (tipicamente 5–10 eV) e quindi possono discriminare in modo più efficiente le linee di fluorescenza sovrapposte, mentre gli spettrometri EDS hanno tassi di conteggio più elevati ma una risoluzione energetica sensibilmente inferiore (tipicamente 150–200 eV). Di conseguenza, i sistemi ED-XRF sono spesso utilizzati per una bassa risoluzione e veloce misurazione, come ad esempio per gli apparecchi portatili utilizzati per le misurazioni sul campo, mentre i sistemi WD-XRF vengono utilizzati in laboratorio fornendo misurazioni ad alta risoluzione (ordine dei ppm per campioni ideali). Gli spettrometri EDS sono spesso associati ai microscopi elettronici (SEM, TEM) per fornire misurazioni chimiche complementari oltre all'imaging e alla diffrazione, mentre diversi spettrometri WDS sono associati principalmente a fasci di elettroni finemente focalizzati nei cosiddetti micro-analizzatori a sonda elettronica (EPMA). Quest'ultimo tipo di strumento, detto anche microsonda elettronica, offre comunemente un buon compromesso analitico tra gli elementi ai limiti di rilevamento (nell'intervallo 1000 ppm), piccole aree tastate e flessibilità di misura. La sensibilità potenzialmente elevata per la maggior parte degli elementi e la relativa facilità d'uso rendono l'XRF molto diffuso in archeometria. Gli strumenti di nuova generazione basati su EDS sono disponibili in commercio sia per misure di laboratorio che portatili. Tuttavia, dovrebbe essere chiaro che per misurazioni XRF eseguite in condizioni non ideali (es. campione sotto vuoto, superficie piana analizzata, attenuazione del campione ecc.), dove la misurazione viene eseguita direttamente su un materiale senza un'adeguata campionatura e preparazione, è difficile ottenere dei risultati quantitativi affidabili, a causa della geometria della superficie, delle possibili patine superficiali e alterazioni, della possibile forma irregolare del campione sondato, geometria di rilevamento non ottimale, ecc. Esistono strumenti a micro-raggio che eseguono scansioni bidimensionali su aree limitate della superficie del campione utilizzando un raggio focalizzato, ottenendo così informazioni chimiche per ogni punto e producendo dati utili per la chimica imaging e mappatura. La tecnica è chiamata scansione XRF. Un'estensione dell'XRF, denominata XRF a riflessione totale (TRXRF), consente la misurazione degli elementi nel campione in concentrazioni minime (ultra-tracce - mg/g nei solidi e ng/g nei liquidi) utilizzando gli angoli di incidenza sulla superficie del campione al di sotto dell'angolo critico, tipicamente &amp;lt; 0,1°. In queste condizioni il raggio primario è totalmente riflesso, penetra nel substrato solo per pochi nm e c'è quindi un'interazione ottimale tra il fascio primario e il campione. L'assorbimento e gli effetti della matrice sul segnale di fluorescenza possono essere in gran parte trascurati e la sensibilità della misurazione è notevolmente migliorata. Il TRXRF è stato utilizzato con successo nell'analisi chimica di pigmenti pittorici, vernici superficiali e miniature di manoscritti. L’XRF rappresenta una metodologia di analisi non distruttiva e non invasiva quando eseguita tramite spettrometro portatile o da laboratorio su punti del campione direttamente selezionati sulla superficie dell’oggetto da indagare allo scopo di identificare gli elementi chimici costituenti la lega nel caso di reperti metallici, o pigmenti, nel caso di stesure pittoriche. In tal modo è possibile fornire dati utili per la caratterizzazione e lo studio della tecnologia di produzione e, conseguentemente, individuare elementi marcatori che possano fornire importanti informazioni per l’autenticazione e la datazione indiretta del reperto indagato. L’indagine XRF nel caso di reperti costituiti da materiali di natura metallica permette l’analisi qualitativa e, in determinate condizioni anche una determinazione quantitativa, degli elementi chimici in lega e di eventuali elementi presenti sulla superficie introdotti a seguito di patinature artificiali o da naturali processi di corrosione in corso o pregressi. Lo strumento utilizzato per l’analisi condotta in questo studio è un XRF analyzer della Thermo-Niton modello XL3t 980 Goldd+ (vedi immagine seguente) di un laboratorio privato. Grazie alla sua interfaccia lo strumento è collegabile ad un PC e grazie al software in dotazione è possibile analizzare gli spettri generati. Ritorniamo adesso ai metalli. Si tratta di materiali che riflettono la luce, ottimi conduttori di calore e di elettricità, attaccabili dagli acidi (con relativo sviluppo di idrogeno) e dalle basi e in genere hanno delle buone caratteristiche di resistenza meccanica. I metalli danno il nome ai periodi storici come l’età del bronzo, tardo III millennio a.C. e intero II millennio a.C., e quella del ferro, dalla fine del II millennio a tutto il I millennio a.C. Alla fine del IV millennio a.C. si verificarono importanti progressi nel campo delle tecnologie tra cui: - la capacità di estrarre i metalli dai minerali in cui essi si trovano chimicamente combinati; - la comprensione della possibilità di modificarne le caratteristiche con&amp;#160; particolari&amp;#160;&amp;#160;&amp;#160;&amp;#160; aggiunte, ottenendo leghe di tipo diverso; - lo sviluppo di tecnologie di lavorazione per ottenere particolari forme e prestazioni meccaniche. I primi elementi metallici ad essere utilizzati dall’uomo preistorico furono: Au (oro), Ag (argento), Cu (rame), Sn (stagno), Fe (ferro), Pb (piombo), Hg (mercurio), Spesso As (arsenico) e Ni (Nichel), furono usati consapevolmente al fine di migliorare le caratteristiche del rame. Le prime attività di estrazione dei metalli dai minerali in cui si trovano combinati si riferiscono al rame. Le prime attività di estrazione del rame, infatti, si ebbero probabilmente intorno al 5000-4000 aC. nel nord-est dell’Iran dove si trovavano giacimenti superficiali. Solo più tardi intorno al 3500 a.C. si scoprì che si poteva ottenere un metallo più facilmente colabile in getti, più duro per lavorazione meccanica, aggiungendo stagno al rame durante il processo di fusione. Nacquero così i bronzi allo stagno iniziando così l’età dell’omonimo periodo storico. Il ferro invece si ipotizza che sia stato prodotto per la prima volta in modo del tutto casuale in Mesopotamia nel 2700 a.C. Questa scoperta fu più accidentale di quella del rame in quanto il ferro si presentava in forma di massa spugnosa ricca di scorie e impurezze. Una differenza importante fra i due metalli è la grande facilità di lavorazione a freddo del rame, mentre il ferro può essere lavorato solo a caldo, poiché una forte deformazione a freddo produce fratture. Oltre al bronzo e al ferro anche alcune leghe di zinco sono state usate per secoli: l'ottone è senza dubbio quella più antica, e si ritrovano manufatti in tale lega in Palestina a partire dal 1400 a.C. La vera natura metallica di questo elemento comunque non venne riconosciuta dagli antichi. La fabbricazione dell'ottone era nota ai Romani, con una tecnica che prevedeva il riscaldamento di rame e calamina in un crogiolo. Il calore riduceva gli ossidi di zinco della calamina, e lo zinco libero veniva catturato dal rame, formando l'ottone, che veniva poi colato in stampi o forgiato. La suddivisione dei metalli in nobili e non da’ luogo a quello che si chiama effetto pila. Quando due metalli vengono in contatto, quello meno nobile si corrode (fungendo da anodo) mentre il metallo più nobile rimarrà intatto. I materiali e l’ambiente in cui si trovano interagiscono continuamente senza che venga raggiunto un effettivo stato di equilibrio. Tale interazione può produrre fenomeni di degrado la cui entità dipende dalla aggressività dell’ambiente e dalla sua variabilità nel tempo. Mantenere costanti le condizioni ambientali all’interfaccia mteriale-ambiente consente di raggiungere uno stato di stabilità in cui gli effetti di danneggiamento vengono minimizzati. Nel caso dei metalli è l’umidità il principale fattore che influenza la velocità dei processi corrosivi in un ambiente naturale non inquinato. I bronzi (rame e stagno), ma anche altre leghe di rame come gli ottoni (rame e zinco), non si ossidano in mancanza di umidità. Altro fattore di degrado è la temperatura (in presenza di fattori chimici di inquinamento come acido solforico e nitrico, solfato ammonico, composti alogenati (cloruri e fluoruri), i cui effetti sono esaltati dalla presenza di energici ossidanti come l’ozono e influenzati dalla piovosità che può apportare sulla superficie esposta depositi salini (es. aerosol) particolarmente pericolosi. Nel caso di manufatti collocati in interni, come spesso avviene per la statuaria in bronzo, la loro superficie interagisce anch’essa con l’ambiente modificandosi. Perfino i reperti collocati nei musei possono alterarsi soprattutto in conseguenza delle variazioni del microclima in cui sono collocati. Il prodotto di alterazione della superficie di un manufatto in bronzo esposto per un periodo di tempo relativamente lungo agli agenti chimici presenti nell’ambiente, sia in esterno, che in interno (anche entro una teca in un museo), è genericamente definito patina. Talvolta la patina è il risultato di un processo di finitura intenzionale, generalmente realizzato con finalità artistiche, in quanto possono essere ottenuti effetti cromatici per esaltare ad esempio la drammaticità dei soggetti rappresentati, o anche per nascondere difetti di colata, o saldature di diverse parti di un monumento fuse separatamente. Altre volte però la patina è realizzata per frode (falsi reperti archeologici in cui con essa si cerca di simulare l’effetto del tempo). La composizione chimica delle patine insieme ad altre caratteristiche chimico-fisiche possono però in alcuni casi renderle in grado di esercitare una azione protettiva nei confronti del manufatto, mentre in altri essere un mero prodotto di corrosione che ne deturpa l’aspetto e ne promuove il degrado. Già nel I secolo d.C. Plinio nella sua “Naturalis Historia” parla di patine nei bronzi definendo Aerugo Nobilis il prodotto di alterazione superficiale di caratteristiche estetiche apprezzabili, mentre Virus Aerugo era il prodotto dannoso. Questa differenza costituisce ancora oggi la linea di confine che guida gli interventi di conservazione sull’opera d’arte in bronzo; nella Carta del Restauro del 1972 si prescrive infatti di “non rimuovere la patina Nobile, stabile chimicamente” anche se soprattutto negli interventi di pulitura dei bronzi collocati in esterni è assai difficile la sua precisa individuazione. Il rame (Cu) puro è inizialmente rosso salmone (nei bronzi il colore diventa più chiaro per aggiunte più o meno grandi di stagno (Sn)). In assenza di anidride carbonica (CO2) e agenti aggressivi nell’atmosfera, l’ossigeno dell’aria ossida il rame a Cu2O (ossido di rame, cuprite) di colore rosso più cupo. La patina che si forma è una miscela di ossido di rame monovalente (Cu2O) con rame metallico. Lo spessore medio di questo strato in media è di 3,5 μm; il colore risultante è il marrone scuro che spesso caratterizza i bronzi conservati in interni (patina nobile). In presenza di anidride carbonica (CO2) e umidità (H2O), i prodotti che si formano sulle superfici dei bronzi sono di colore verde-azzurro a causa della formazione di due carbonati basici: · Malachite (CuCO3Cu(OH)2), in strati lisci e compatti di colore verde scuro simile a uno smalto · Azzurrite (2CuCO3Cu(OH)2), di colore fra l’azzurro e il blu intenso. Si tratta di patine continue e stabili, di gradevole aspetto, assai apprezzate per il loro carattere non pericoloso per la salute del manufatto. In ambienti urbani più inquinati contenenti SOx si formano in prevalenza solfati di colore verdastro costituiti da: Brochantite CuSO4.3Cu(OH)2 o Antlerite CuSO4.2Cu(OH)2. Questi composti si trovano associati allo strato di cuprite (Cu2O) sottostante e sono i principali responsabili del colore verde dei monumenti in bronzo esposti all’aperto. In ambienti fortemente acidi questi solfati si trasformano in solfato di rame idrato (CuSO4.5H2O) composto assai solubile e quindi facilmente dilavabile dalle piogge, favorendo in tal modo il progredire dei fenomeni corrosivi. I composti di rame a base di cloruri sono i più pericolosi a causa dell’elevata solubilità dei cloruri e notevole conducibilità ionica delle soluzioni. I prodotti di corrosione clorurati si trovano nei manufatti rimasti immersi in acqua di mare, interrati in terreni ad alto contenuto salino, contaminati da sostanze organiche in decomposizione o in ambienti vicini al mare in cui il cloruro di sodio (NaCl) è portato dai venti come aerosol. I principali cloruri di sono l’Atacamite CuCl2.3Cu(OH)2 (cristalli ortorombici di colore da smeraldo a verde scuro) e la Paratacamite (Cu,Zn)Cl2.3Cu(OH)2 (cristalli esagonali pulverulenti di colore verde mela). La paratacamite e la atacamite si ottengono per ossidazione e idratazione della Nantokite, un cloruro rameoso (CuCl), di colore grigio pallido e dall’aspetto ceroso e deliquescente, la cui presenza si riscontra frammista a strati di cuprite (ossido di rame) e di atacamite. La reazione di formazione della paratacamite è accompagnata dalla ossidazione del Cu a cuprite (Cu2O) e a idrossido di rame solubile: 2CuCl + 4Cu + ½ O2 + 3H2O = Cu2(OH)3 Cl + Cu2O I prodotti di corrosione si manifestano in forma di efflorescenze di aspetto pulverulento che si accompagnano alla distruzione delle patine eventualmente presenti. Il fenomeno, pericolosissimo, è anche chiamato “cancro del bronzo”. Per una efficace conservazione dei bronzi la Nantokite (CuCl) deve essere sempre eliminata. Di seguito un esempio di patina di malachite e cuprite e sulla destra del cosiddetto cancro del bronzo. Qui invece un manufatto di rame romano con chiara presenza in superficie di cuprite e malachite. Il rapporto tra il volume del rame originario e l’aumento di volume prodotto dai fenomeni di corrosione è espresso dal cosiddetto volume molare relativo (VMR).&amp;#160; Il VMR indica l’accrescimento volumetrico della patina stessa.&amp;#160; Posto 1 il volume iniziale del rame, la cuprite presenta un VMR di 1,67, molto basso (rispetto ad altre patine). Questo significa che la cuprite non altera in modo significativo la superficie dell'oggetto e ne preserva pressoché inalterati i rilievi ed i dettagli. &amp;#160; &amp;#160; La corrosione può influenzare significativamente le misure del XRF. Da studi del settore emerge che in generale, è possibile vedere in media un depauperamento del contenuto di rame del 35% per oggetti in lega di stagno corrose. Per oggetti con corrosione in superficie e con alto contenuto di stagno e zinco, il depauperamento medio del rame è di circa il 18%, mentre lo zinco non mostra variazioni significative e lo stagno invece mostra un aumento maggiore del 50%. Per gli oggetti corrosi con alto contenuto di zinco è presente una riduzione dello zinco del 9%. Questo dimostra che la decuprificazione e la dezincificazione sono i processi principali della corrosione. Il depauperamento di rame è stato osservato essere il cambiamento più rilevante dei comuni oggetti di bronzo mentre per gli ottoni si è visto che il processo di corrosione principale è la lisciviazione dello zinco. Questi esperimenti dimostrano chiaramente che bisogna fare molta attenzione alla superficie dell’oggetto che stiamo analizzando con l’XRF per capire il grado di corrosione della sua superficie. I tre campioni selezionati per l’analisi XRF sia dall’analisi ad occhio nudo che da osservazione con stereo microscopio appaiano essere tutti formati principalmente da Cu e quindi appartenenti alla classe dei bronzi. Inoltre, la loro superficie non sembra presentare alterazioni da corrosione. Sebbene alcuni esempi isolati di leghe di rame preistoriche contengano diversi per cento di zinco, in particolare da Cipro, solo nel primo millennio aC iniziò la produzione deliberata di ottone, probabilmente in Asia Minore. Dal VII secolo aC i Greci iniziarono a parlare di ottone, ma sempre come un metallo costoso ed esotico non prodotto in Grecia, e questo è confermato dall'assenza di zinco nella grande maggioranza dei bronzi greci. Allo stesso modo, dei tanti bronzi etruschi analizzati, solo due rispettivamente del V e III secolo a.C sono risultati essere di ottone con circa l'11% di zinco e meno del 3% di stagno. Nel I secolo aC i romani iniziarono ad utilizzare il processo di cementazione per la produzione dell’ottone. Dapprima molto probabilmente venne utilizzato per la monetazione, ma poi diventò rapidamente popolare in altri campi, in particolare nella lavorazione dei metalli decorativi dove andò a sostituire ampiamente il bronzo. Durante il II e il III secolo d.C. il contenuto di zinco delle monete diminuì, e gli ottoni con un alto contenuto di zinco non vennero più utilizzati, sebbene l'ottone continuasse ad essere popolare rappresentando circa il 30% delle leghe di rame romane. Dal III secolo in poi una lega di rame con una piccola percentuale di piombo, zinco e stagno (oggi chiamata &amp;quot;bronzo duro al piombo&amp;quot; o “gun metal” in lingua inglese) iniziò ad essere utilizzata regolarmente e da allora è rimasto tale. Le origini di entrambi i termini “Ottone” e “Bronzo” non sono note, ma sembra che in epoca medievale tutte le leghe di rame venissero chiamate bronzi, e solo dal Rinascimento il termine bronzo fu usato in Italia per denotare leghe di rame legate con stagno. Tuttavia, i termini sono stati utilizzati indiscriminatamente in Inghilterra fino al XIX secolo. Ai fini di questo post, per ottone si intende una lega di rame a cui è stato aggiunto deliberatamente dello zinco mentre per bronzo una lega di rame in cui è stato introdotto dello stagno. Considerando i valori di Cu, Zn e Sn dei tre campioni sotto analisi possiamo subito vedere che la statua egizia falsa non è di bronzo ma di ottone su cui poi sono state create le tipiche patine verdi in modo artificiale. Per l’oggetto invece riportato come ‘flauto’ la sua composizione lo colloca nella regione individuata come bronzo duro visto il suo contenuto medio di Zn e praticamente la quasi assenza di Sn. La fibula acquistata su ebay invece risulta essere un oggetto essenzialmente di rame visto il suo basso contenuto di Zn e di Sn. &amp;#160; Per poter effettuare un confronto tra gli oggetti in analisi e oggetti simili autentici, si è fatto ricorso ad articoli pubblicati su riviste specializzate dove l’XRF è stata utilizzato per oggetti metallici che vanno dalla preistoria fino al periodo romano (circa 300 dopo Cristo). In giallo sono stati evidenziati i 3 oggetti sotto analisi. Oltre alla statua egizia è presente un’altra statua che rappresenta Minerva dichiaratamente falsa. Entrambe mostrano un elevato contenuto di Cu seguito dallo Zn e una piccola quantità di piombo. Nella tabella seguente il periodo e l’età riportata è quella presente nell’articolo da cui sono stati raccolti i dati XRF. La selezione di campioni di leghe di Cu da un'ampia gamma di tipologie di manufatti e da una vasta gamma di reperti archeologici da diverse aree geografiche fornisce un set di dati il più rappresentativo possibile. Ciò consente la caratterizzazione delle leghe di Cu esenti da distorsioni (bias) dovute alla considerazione di un solo sito o di uno solo tipo di manufatto. Utilizzando i dati raccolti è possibile vedere come si è evoluta la composizione del bronzo in funzione del periodo storico. In tutte le età precedenti a quella romana il bronzo era ottenuto da una lega di Cu e Sn. In epoca romana si aggiunse anche del piombo. Al contrario collezionando i dati dell’ottone si può vedere come la sua composizione dall’età del ferro fino a quella romana è rimasto praticamente lo stesso. Il piombo (Pb) veniva aggiunto quando la lega metallica doveva essere utilizzata nella fusione di oggetti grandi e complessi come le statue. Nei casi in cui variano contemporaneamente i tre elementi di lega (es. Zn, Sn e Pb), un grafico bidimensionale come gli ultimi due precedenti non va più bene. Questo problema viene superato in una certa misura mediante l'uso di diagrammi ternari. Questi sono in grado di indicare contemporaneamente la differenza tra ottoni e bronzi e tra leghe piombate e senza piombo. La ricerca effettuata sulle leghe romane di Cu ha permesso di svelare le relazioni tra scelta della lega e i vincoli tecnologici. Questi possono essere visti chiaramente nei livelli di Pb presente nelle leghe romane. A differenza di Zn e Sn, il Pb non è presente nelle leghe di Cu in soluzione solida. Esso forma delle goccioline discrete in tutto il metallo. Questo rende le leghe di piombo più soggette a rompersi quando martellate e forgiate, e così le lamiere e i fili quasi mai hanno più dell'1% di Pb. Il piombo, tuttavia, abbassa il punto di fusione del Cu e produce un fuso di una lega più fluido. Questo lo rende un'utile aggiunta alle leghe che devono essere utilizzati nella fabbricazione di grandi o complesse fusioni, come le statue. Diversi ricercatori hanno dimostrato che esistevano dei collegamenti complessi tra la forma dei manufatti e le leghe utilizzate per la loro fabbricazione (es. Bayley &amp;amp; Macellaio, 1981; Craddock, 1975, 1996). Uno degli esempi più chiari di questo fenomeno in epoca romana è il gran numero di vasi di bronzo prodotti in Campania e altrove (den Boesterd, 1956). L’analisi di un gran numero di questi vasi ha dimostrato che la maggior parte di loro erano di bronzo piombato. Anche l’archeologo inglese Craddock ha dimostrato che un'ampia gamma di manufatti in leghe di Cu (ad es. statue e strumenti musicali) prodotti nel periodo tardo repubblicano e primo imperiale nell'area mediterranea è stata realizzata con una lega simile al bronzo piombato. Per quanto riguarda il cambiamento cronologico nelle leghe di Cu di epoca romana sono stati effettuati pochi studi e i risultati non sono molto accurati. Nel grafico di seguito viene riportato il tipo di leghe utilizzate per gli oggetti metallici provenienti da scavi in Gran Bretagna lungo il periodo romano (i secoli sono quelli dopo Cristo). Molti dei tipi di leghe riportate sono presenti a livelli relativamente bassi per tutto il periodo romano (es. ottone piombato e piombo ramato) o mostrano variazioni relativamente piccole nel tempo (es. bronzo duro e bronzo). I cambiamenti significativi nei tipi di lega sono quelli legati al calo dell’ottone senza piombo e il crescente uso del bronzo piombato e bronzo duro al piombo. Nel I secolo d.C. l’ottone rappresentava il 37% delle leghe utilizzate mentre il bronzo al piombo e il bronzo duro al piombo insieme rappresentavano il 27%. Nel IV secolo d.C., l'ottone passa al 4% mentre il bronzo al piombo e il bronzo duro al piombo aumentano al 64%. I cambiamenti cronologici nelle composizioni delle leghe romane analizzate devono, tuttavia, essere considerate con cautela trattandosi di campioni da diversi siti in momenti diversi; i cambiamenti delle leghe analizzate potrebbe riflettere piuttosto i cambiamenti nella documentazione archeologica rispetto ai cambiamenti nell'antica metallurgia del Cu. Inoltre, i diversi tipi di manufatti prodotti e i metodi utilizzati nella fabbricazione potrebbe essere cambiato nel tempo. Ritorniamo adesso ai nostri tre oggetti. Come anticipato, la statua è chiaramente un falso e quindi ci aspettiamo che il suo spettro sia significativamente diverso dagli oggetti (in particolare proprio una statua) veri. Nel database creato con i dati presi da altri autori e pubblicati su riviste scientifiche specialistiche, abbiamo una statua di Minerva autentica, una statua di Minerva falsa e una statua romana di cui non è riportata l’età e il personaggio che essa rappresenta. Riportando i dati su di un grafico ternario Sn-Zn-Pb si può vedere immediatamente come le 2 statue false si posizionano nel vertice in basso a destra del triangolo che indica un alto contenuto di Zn, un bassissimo contenuto di Sn e un basso contenuto di Pb (in pratica si tratta di ottone). Al contrario le due statue vere si posizionano a metà del lato destro del triangolo che indica un basso contenuto di Zn e un alto contenuto di Pb e Sn (quindi oggetti di bronzo piombato). Questo è un ottimo esempio di come un’analisi XRF possa aiutarci nella individuazione di un falso. Passiamo adesso al secondo oggetto e cioè la fibula comprata all’asta su ebay dall’Inghilterra. Qui di seguito un esempio di fibule ad arco. Oltre a questa classe esistevano le fibule ad anello e le fibule a piastre. Una fibula altro non è che un'antica spilla. Tecnicamente il termine latino fibulae si riferisce alle spille romane; tuttavia, il termine è ampiamente utilizzato per riferirsi a spille dell'intero mondo antico e altomedievale. Le fibule erano usate per allacciare i vestiti, i mantelli militari o, in alcuni casi, semplicemente come oggetti decorativi. Furono usate secoli prima della fondazione di Roma e per secoli dopo la sua caduta da greci, persiani, frigi, celti, tedeschi, slavi e molti altri popoli oltre ai romani. Erano usate sia dai soldati che dai civili; da uomini, donne e bambini. Erano usate su abiti, camicie e abiti, nonché sui mantelli. Non venivano utilizzate invece sulla toga, che era semplicemente piegata e drappeggiata. Dopo questa breve descrizione delle fibule ritorniamo alla fibula acquistata su ebay e che abbiamo analizzata con uno strumento XRF. Ripartendo dalla tabella dove abbiamo raccolto tutti i dati XRF riportata precedentemente salta subito all’occhio il suo basso contenuto di Stagno e una percentuale di Zn al di sotto del 5%. Nel grafico Zn-Sn infatti questo oggetto si posiziona nella zona degli oggetti in rame. Ma quanto erano comuni nel passato le fibule di rame? Non molto come si può osservare dalla tabella sottostante che nel periodo tra il 500 aC e il 100 d.C. riporta solo un 6% di fibule in rame contro un 46% di ottone e circa il 48% di bronzo/bronzo duro. &amp;#160; Anche se i risultati non confermano in modo schiacciante la falsità dell’oggetto sotto studio, c’è qualche lecito sospetto. Come ulteriore approfondimento e’ stata analizzata la percentuale di elementi presenti in tutte le fibule della tabella riportata sopra. La tecnica delle componenti principali è una tecnica statistica utilizzata per ridurre la dimensione del campione andando a trovare le componenti che spiegano la maggior parte della variabilità dei dati. Le nuove variabili (le componenti principali) altro non sono che la sovrapposizione con appositi pesi di tutte le variabili x del nostro database. Per il caso che stiamo studiano possiamo vedere come usando le prime 3 componenti principali riusciamo a spiegare circa l’80% della variabilita’ del nostro campione. Uno dei grossi vantaggi delle componenti principali è quello di poter osservare i dati nel piano o nello spazio cosa impossibile nel caso in cui consideriamo tutti i predittori (le variabili x). Nel piano delle prime due componenti principali notiamo come i dati si dispongono su due cluster che formano una V con vertice in (0,0). La cosa interessante è che il ramo di sinistra della V e’ legato alle fibule create mediamente dopo la nascita di Cristo mentre quelle del ramo di destra prima della venuta di cristo. Sembra indicare un passaggio graduale dal bronzo all’ottone, conosciuto nel passato come oricalco la cui origine viene fatta risalire nel primo secolo prima di Cristo e che tenderà a scomparire nel quarto secolo d.C. (vedi grafico precedente). Guardando i dati come si distribuiscono nel piano della prima e terza componente principale si nota subito un outlier evidenziato con un asterisco verde che guarda caso è proprio la fibula acquistata su ebay. Essa si differenzia dalle rimanenti fibule originarie (clusterizzate intorno all’origine del piano) per l’elevato contenuto di Ag (1%). Questo ci porta a pensare che la fibula sia un falso anche se la confidenza non è molto alta in quanto ci sono delle analisi XRF condotte su delle fibule di epoca romana ritrovate in Kossovo in Polonia che mostrano dei contenuti di Ag molto elevati anche se è anche presente un quantitativo di Sn e Pb considerevole. Cosa che non è vero nel nostro caso. Servirebbero ulteriori analisi, come per esempio quelle delle patine per poter dire con certezza che si tratti di un falso. &amp;#160; Fibule ritrovate in Kossovo (Polonia) di epoca romana. Adesso è la volta dell’oggetto a cui è stato assegnato l’identificativo “flauto” ma il cui scopo è del tutto sconosciuto (vedi prima immagine qui di seguito). Si tratta di un oggetto proveniente da una collezione privata e secondo l’acquirente proviene da uno scavo nel territorio della Marsica (Abruzzo). Potrebbe trattarsi di una parte di una tibiae o di una tuba, entrambe strumenti musicali utilizzate dai romani (nella seconda immagine qui di seguito parte di tibiae proveniente dal Museo degli strumenti musicali di Roma) La superficie dell’oggetto non mostra segni di corrosione significativi. La patina sembra essere quella tipica degli oggetti in bronzo. L’oggetto all’interno è cavo e rassomiglia ad un tubo. Il lato sinistro ha un diametro leggermente maggiore del lato destro. A circa un terzo a partire dal lato sinistra si apre un foro con un leggero incavo. &amp;#160; Lo spettro XRF di questo oggetto sembra indicare un oggetto di bronzo duro (basso contenuto di Sn e presenza di Zn al di sotto della soglia per essere classificato come ottone) con un alto contenuto di Fe. Dall’analisi di clustering degli elementi dei diversi oggetti riportati nella tabella ad inizio post si vede chiaramente come questo oggetto sia molto simile agli oggetti identificati dalle righe 45, 46 e 47 che riportano i risultati di analisi XRF eseguita si di una statua di bronzo presso il museo di Salonicco la cui origine non è nota. L’statua mostra un alto contenuto di Cu, stagno e in alcuni punti piombo confermando che si tratta di bronzo. Comunque, va notato che su molti punti della superficie della stata risulta un’elevata concentrazione di Fe (da 1% fino a circa 30%). Gli autori attribuiscono la presenza di tale elemento alla contaminazione di un oggetto di ferro posto nello stesso ambiente di sepoltura. In alcuni punti la statua mostra un basso contenuto di rame (intorno al 50%) a causa dei processi di corrosione. Diversamente da questa statua l’oggetto analizzato risultato simile ad essa per il basso contenuto di Cu e l’alto contenuto di Fe mostra la presenza di zinco e un basso contenuto di stagno che lo fa rientrare nella categoria del bronzo duro. Elementi come il ferro (Fe) possono essere il risultato del processo di fusione, di aggiunte intenzionali, parte di uno strato di corrosione o contaminazione da oggetti di ferro durante la sepoltura. Come già riportato per la statua del museo di Salonicco, il basso contenuto di Cu potrebbe essere dovuto a qualche fenomeno di corrosione anche se la superficie pur presentando il tipico valore verde della malachite non sembra mostrare un notevole degrado come invece si può notare per la tuba del museo romano di strumenti musicali. Per poter definitivamente stabilire l’autenticità del pezzo servirebbe uno studio delle patine presenti sull’oggetto con analisi tipo FTIR e u-Raman. &amp;#160;</itunes:subtitle><itunes:author>noreply@blogger.com (Felice)</itunes:author><itunes:summary>&amp;#160; Il seguente post e’ stato scritto con la collaborazione di Gilda Russo (Conservation Scientist). La falsificazione di oggetti archeologici e storico-artistici è molto diffusa e va dalla produzione di falsi di mediocre qualità ai falsi prodotti da specialisti. Sono, infatti, noti casi di opere a lungo ritenute autentiche, esposte nei più importanti musei, che sono state identificate come falsi di varia età in tempi successivi e solo attraverso analisi archeometriche. Numerose sono le indagini archeometriche che possono essere utili nella individuazione di falsi. Dalle tecniche di datazione assoluta (come la termoluminescenza o la datazione al radiocarbonio) alle metodologie di indagini che consentono di identificare la composizione chimica dei materiali originali, di degrado e/o di restauro e quindi realizzare studi di autenticazione, sulle tecnologie di produzione e di datazione indiretta. Ancora in questo contesto sono di notevole importanza le tecniche basate sull’imaging diagnostico (Tomografia Computerizzata, radiografia X, fluorescenza UV, riflettografia IR, etc.) che consentono di avere in maniera non invasiva informazioni sulla distribuzione spaziale dei materiali presenti, non direttamente discriminabili ad occhio nudo, e possono dare indicazioni sulla loro natura chimica, differenziando, grazie alle caratteristiche risposte spettrali, le superfici originali da quelle interessate da integrazioni, ritocchi o trattamenti protettivi. Statuette, gioielli e piccoli oggetti di uso quotidiano sono i falsi più comuni tra gli oggetti metallici. Oltre al caso di prodotti contraffatti nell'antichità, c'è oggi un fiorente mercato dell'arte che coinvolge entrambi i collezionisti privati più o meno ingenui e musei di varia importanza. Nel giugno 2007, il Progetto AUTHENTICO, finanziato dalla Commissione Europea, ha proposto una ricerca multidisciplinare per affrontare questo problema e fornire una strategia per l'autenticazione del patrimonio culturale mobile, in particolare di manufatti metallici (preziosi e non). Una delle tecniche analitiche proposte per verificare l'autenticità e la tracciabilità dei manufatti metallici è l'XRF portatile. Sebbene nell'analisi quantitativa XRF di metalli antichi sorgono alcune difficoltà nella valutazione di fattori di correzione per la forma irregolare o effetti di rilievo, o come determinare la composizione del metallo (bulk) al di sotto della patina superficiale, il Portable XRF è ancora la più semplice tecnica non distruttiva che consente di determinare in modo quantitativo la lega con sufficiente precisione, fornendo agli storici dell'arte dati scientifici per ciascun campione. La profondità dell'analisi XRF per i metalli è di solito solo pochi decimi di micron, ma in assenza di rivestimenti metallici (come per esempio oro), e di fenomeni di corrosione o croste, la composizione esterna dovrebbe essere rappresentativa del bulk dell’oggetto in esame. In questo post come esempio di applicazione delle tecniche archeometriche mostreremo come l’XRF possa aiutare l’archeologo nel dichiarare falso o no un oggetto di cui si ignora la provenienza. A tale scopo sono stati utilizzati tre oggetti: una statua egiziana di metallo realizzata in tempi moderni e comprata in un negozio di souvenir di un noto museo italiano, un oggetto metallico di forma cilindrica con alcuni fori (etichettato in questo post come flauto per la sua forma che ricorda appunto questo strumento musicale) proveniente da una collezione privata e supposto essere di epoca romana e infine una fibula di epoca romana acquistata su ebay da un antiquariato inglese. Prima di passare ai risultati delle indagini eseguite vediamo un attimo in cosa consiste l’analisi XRF. La spettroscopia di fluorescenza a raggi X (XRF) è una delle tecniche più utilizzate per l'analisi elementare dei materiali. Gli elementi essenziali della tecnica sono abbastanza semplici: gli elettroni del nucleo degli atomi vengono espulsi dai raggi X primari ad alta energia, l'atomo ionizzato instabile si rilassa quindi allo stato fondamentale e una serie di elettroni saltano negli orbitali inferiori per riempire i posti vacanti, emettendo così fotoni di fluorescenza nella regione dei raggi X, che corrisponde alla struttura quantistica dell’atomo. L'emissione di fluorescenza, riportata spesso anche come raggi X secondari, rappresenta lo spettro &amp;quot;caratteristico&amp;quot; dell'atomo e può essere facilmente utilizzato per identificare e quantificare gli elementi chimici. Le righe di emissione dei raggi X calcolate per tutti gli elementi della tavola periodica sono uno strumento essenziale per l'interpretazione di tutti gli spettri misurati. Sebbene il processo di fluorescenza a raggi X possa essere attivato ionizzando gli atomi con raggi gamma generati da elementi radioattivi (ad esempio 57Co, 109Cd, 125I o 241Am), da elettroni sufficientemente energetici prodotti al microscopio elettronico o da protoni opportunamente accelerati (PIXE), il metodo di gran lunga più diffuso è l’utilizzo di una sonda che genera dei raggi X prodotti da tubi di laboratorio (raggi X primari) azionati ad alta tensione (tipicamente nell'intervallo 20-60 kV). La gamma di elementi che possono essere analizzati in modo efficiente con strumenti da laboratorio dipende dall'energia dei raggi X primari, e quindi le diverse regioni della tavola periodica possono essere sondate utilizzando tubi a raggi X con anodi diversi, come Cu, Mo, Pd, Rh, Ag, Au o W, ognuno dei quali produce una radiazione caratteristica a diversa energia. Ovviamente l'anodo selezionato deve essere quello di un elemento non contenuto nel campione da analizzare, a causa della sovrapposizione con le linee caratteristiche del tubo. Ad esempio, un anodo di W (59,3 keV) può eccitare le righe K di elementi con numeri atomici tra 15–55 e le linee L degli elementi con numeri atomici tra 65–90. Le linee K degli elementi con numero atomico inferiore al Na (Z = 11) sono facilmente assorbiti anche da pochi centimetri d'aria, e da pochi micrometri della massa del campione e quindi non possono essere analizzati di routine. Rappresentazione grafica dei livelli di energia degli elettroni dei livelli K, L, M, N in un atomo e transizioni elettroniche Ka, Kb, La, Lb, Lg e Ma corrispondenti alle caratteristiche linee di emissione dei raggi X. Se il fascio di raggi X incidente è prodotto da un anello di sincrotrone, la tecnica XRF è chiamata SRIXE (emissione di raggi X indotta da radiazione di sincrotrone) e offre alcuni vantaggi rispetto agli stessi esperimenti eseguiti con strumentazione di laboratorio, come una maggiore collimazione del fascio primario, uno sfondo intrinseco molto basso e la possibilità di sintonizzare l'energia della sorgente per eccitare selettivamente specifiche linee di fluorescenza. La configurazione sperimentale per la misurazione degli spettri XRF è composta da una sorgente di raggi X o raggi gamma utilizzata per irradiare il campione, una porta campioni e un sistema per rilevare i raggi X fluorescenti. Un tipico spettro XRF mostra l'intensità dei raggi X di fluorescenza emessi dal campione (comunemente in conteggi/unità di tempo) in funzione dell'energia (in eV), come mostrato di seguito. Dopo un'adeguata calibrazione e correzione per tener conto dell'auto assorbimento della matrice e dell’efficienza del rivelatore, l’integrale delle aree dei picchi di fluorescenza viene convertito in concentrazioni relative o assolute degli elementi chimici analizzati. Spettro XRF ad alta energia ottenuto con una sorgente radioattiva di 109Cd di 22,1 keV. Esistono due tipi principali di sistemi di rivelazione: quelli basati su rivelatori a stato solido e quelli basati su analizzatori multicanale in grado di misurare direttamente l'energia dei raggi X fluorescenti (il sistema è chiamato EDS: energy dispersive spettrometria) e quelli basati su un reticolo di diffrazione, tipicamente un analizzatore a cristallo singolo, che misura l'energia dei raggi X fluorescenti indirettamente diffrangendo le diverse lunghezze d'onda del segnale fluorescente collimato a diversi angoli (il sistema è chiamato WDS: spettrometria dispersiva di lunghezza d'onda). Gli spettrometri WDS sono inferiori in velocità di conteggio ma hanno una risoluzione energetica più elevata (tipicamente 5–10 eV) e quindi possono discriminare in modo più efficiente le linee di fluorescenza sovrapposte, mentre gli spettrometri EDS hanno tassi di conteggio più elevati ma una risoluzione energetica sensibilmente inferiore (tipicamente 150–200 eV). Di conseguenza, i sistemi ED-XRF sono spesso utilizzati per una bassa risoluzione e veloce misurazione, come ad esempio per gli apparecchi portatili utilizzati per le misurazioni sul campo, mentre i sistemi WD-XRF vengono utilizzati in laboratorio fornendo misurazioni ad alta risoluzione (ordine dei ppm per campioni ideali). Gli spettrometri EDS sono spesso associati ai microscopi elettronici (SEM, TEM) per fornire misurazioni chimiche complementari oltre all'imaging e alla diffrazione, mentre diversi spettrometri WDS sono associati principalmente a fasci di elettroni finemente focalizzati nei cosiddetti micro-analizzatori a sonda elettronica (EPMA). Quest'ultimo tipo di strumento, detto anche microsonda elettronica, offre comunemente un buon compromesso analitico tra gli elementi ai limiti di rilevamento (nell'intervallo 1000 ppm), piccole aree tastate e flessibilità di misura. La sensibilità potenzialmente elevata per la maggior parte degli elementi e la relativa facilità d'uso rendono l'XRF molto diffuso in archeometria. Gli strumenti di nuova generazione basati su EDS sono disponibili in commercio sia per misure di laboratorio che portatili. Tuttavia, dovrebbe essere chiaro che per misurazioni XRF eseguite in condizioni non ideali (es. campione sotto vuoto, superficie piana analizzata, attenuazione del campione ecc.), dove la misurazione viene eseguita direttamente su un materiale senza un'adeguata campionatura e preparazione, è difficile ottenere dei risultati quantitativi affidabili, a causa della geometria della superficie, delle possibili patine superficiali e alterazioni, della possibile forma irregolare del campione sondato, geometria di rilevamento non ottimale, ecc. Esistono strumenti a micro-raggio che eseguono scansioni bidimensionali su aree limitate della superficie del campione utilizzando un raggio focalizzato, ottenendo così informazioni chimiche per ogni punto e producendo dati utili per la chimica imaging e mappatura. La tecnica è chiamata scansione XRF. Un'estensione dell'XRF, denominata XRF a riflessione totale (TRXRF), consente la misurazione degli elementi nel campione in concentrazioni minime (ultra-tracce - mg/g nei solidi e ng/g nei liquidi) utilizzando gli angoli di incidenza sulla superficie del campione al di sotto dell'angolo critico, tipicamente &amp;lt; 0,1°. In queste condizioni il raggio primario è totalmente riflesso, penetra nel substrato solo per pochi nm e c'è quindi un'interazione ottimale tra il fascio primario e il campione. L'assorbimento e gli effetti della matrice sul segnale di fluorescenza possono essere in gran parte trascurati e la sensibilità della misurazione è notevolmente migliorata. Il TRXRF è stato utilizzato con successo nell'analisi chimica di pigmenti pittorici, vernici superficiali e miniature di manoscritti. L’XRF rappresenta una metodologia di analisi non distruttiva e non invasiva quando eseguita tramite spettrometro portatile o da laboratorio su punti del campione direttamente selezionati sulla superficie dell’oggetto da indagare allo scopo di identificare gli elementi chimici costituenti la lega nel caso di reperti metallici, o pigmenti, nel caso di stesure pittoriche. In tal modo è possibile fornire dati utili per la caratterizzazione e lo studio della tecnologia di produzione e, conseguentemente, individuare elementi marcatori che possano fornire importanti informazioni per l’autenticazione e la datazione indiretta del reperto indagato. L’indagine XRF nel caso di reperti costituiti da materiali di natura metallica permette l’analisi qualitativa e, in determinate condizioni anche una determinazione quantitativa, degli elementi chimici in lega e di eventuali elementi presenti sulla superficie introdotti a seguito di patinature artificiali o da naturali processi di corrosione in corso o pregressi. Lo strumento utilizzato per l’analisi condotta in questo studio è un XRF analyzer della Thermo-Niton modello XL3t 980 Goldd+ (vedi immagine seguente) di un laboratorio privato. Grazie alla sua interfaccia lo strumento è collegabile ad un PC e grazie al software in dotazione è possibile analizzare gli spettri generati. Ritorniamo adesso ai metalli. Si tratta di materiali che riflettono la luce, ottimi conduttori di calore e di elettricità, attaccabili dagli acidi (con relativo sviluppo di idrogeno) e dalle basi e in genere hanno delle buone caratteristiche di resistenza meccanica. I metalli danno il nome ai periodi storici come l’età del bronzo, tardo III millennio a.C. e intero II millennio a.C., e quella del ferro, dalla fine del II millennio a tutto il I millennio a.C. Alla fine del IV millennio a.C. si verificarono importanti progressi nel campo delle tecnologie tra cui: - la capacità di estrarre i metalli dai minerali in cui essi si trovano chimicamente combinati; - la comprensione della possibilità di modificarne le caratteristiche con&amp;#160; particolari&amp;#160;&amp;#160;&amp;#160;&amp;#160; aggiunte, ottenendo leghe di tipo diverso; - lo sviluppo di tecnologie di lavorazione per ottenere particolari forme e prestazioni meccaniche. I primi elementi metallici ad essere utilizzati dall’uomo preistorico furono: Au (oro), Ag (argento), Cu (rame), Sn (stagno), Fe (ferro), Pb (piombo), Hg (mercurio), Spesso As (arsenico) e Ni (Nichel), furono usati consapevolmente al fine di migliorare le caratteristiche del rame. Le prime attività di estrazione dei metalli dai minerali in cui si trovano combinati si riferiscono al rame. Le prime attività di estrazione del rame, infatti, si ebbero probabilmente intorno al 5000-4000 aC. nel nord-est dell’Iran dove si trovavano giacimenti superficiali. Solo più tardi intorno al 3500 a.C. si scoprì che si poteva ottenere un metallo più facilmente colabile in getti, più duro per lavorazione meccanica, aggiungendo stagno al rame durante il processo di fusione. Nacquero così i bronzi allo stagno iniziando così l’età dell’omonimo periodo storico. Il ferro invece si ipotizza che sia stato prodotto per la prima volta in modo del tutto casuale in Mesopotamia nel 2700 a.C. Questa scoperta fu più accidentale di quella del rame in quanto il ferro si presentava in forma di massa spugnosa ricca di scorie e impurezze. Una differenza importante fra i due metalli è la grande facilità di lavorazione a freddo del rame, mentre il ferro può essere lavorato solo a caldo, poiché una forte deformazione a freddo produce fratture. Oltre al bronzo e al ferro anche alcune leghe di zinco sono state usate per secoli: l'ottone è senza dubbio quella più antica, e si ritrovano manufatti in tale lega in Palestina a partire dal 1400 a.C. La vera natura metallica di questo elemento comunque non venne riconosciuta dagli antichi. La fabbricazione dell'ottone era nota ai Romani, con una tecnica che prevedeva il riscaldamento di rame e calamina in un crogiolo. Il calore riduceva gli ossidi di zinco della calamina, e lo zinco libero veniva catturato dal rame, formando l'ottone, che veniva poi colato in stampi o forgiato. La suddivisione dei metalli in nobili e non da’ luogo a quello che si chiama effetto pila. Quando due metalli vengono in contatto, quello meno nobile si corrode (fungendo da anodo) mentre il metallo più nobile rimarrà intatto. I materiali e l’ambiente in cui si trovano interagiscono continuamente senza che venga raggiunto un effettivo stato di equilibrio. Tale interazione può produrre fenomeni di degrado la cui entità dipende dalla aggressività dell’ambiente e dalla sua variabilità nel tempo. Mantenere costanti le condizioni ambientali all’interfaccia mteriale-ambiente consente di raggiungere uno stato di stabilità in cui gli effetti di danneggiamento vengono minimizzati. Nel caso dei metalli è l’umidità il principale fattore che influenza la velocità dei processi corrosivi in un ambiente naturale non inquinato. I bronzi (rame e stagno), ma anche altre leghe di rame come gli ottoni (rame e zinco), non si ossidano in mancanza di umidità. Altro fattore di degrado è la temperatura (in presenza di fattori chimici di inquinamento come acido solforico e nitrico, solfato ammonico, composti alogenati (cloruri e fluoruri), i cui effetti sono esaltati dalla presenza di energici ossidanti come l’ozono e influenzati dalla piovosità che può apportare sulla superficie esposta depositi salini (es. aerosol) particolarmente pericolosi. Nel caso di manufatti collocati in interni, come spesso avviene per la statuaria in bronzo, la loro superficie interagisce anch’essa con l’ambiente modificandosi. Perfino i reperti collocati nei musei possono alterarsi soprattutto in conseguenza delle variazioni del microclima in cui sono collocati. Il prodotto di alterazione della superficie di un manufatto in bronzo esposto per un periodo di tempo relativamente lungo agli agenti chimici presenti nell’ambiente, sia in esterno, che in interno (anche entro una teca in un museo), è genericamente definito patina. Talvolta la patina è il risultato di un processo di finitura intenzionale, generalmente realizzato con finalità artistiche, in quanto possono essere ottenuti effetti cromatici per esaltare ad esempio la drammaticità dei soggetti rappresentati, o anche per nascondere difetti di colata, o saldature di diverse parti di un monumento fuse separatamente. Altre volte però la patina è realizzata per frode (falsi reperti archeologici in cui con essa si cerca di simulare l’effetto del tempo). La composizione chimica delle patine insieme ad altre caratteristiche chimico-fisiche possono però in alcuni casi renderle in grado di esercitare una azione protettiva nei confronti del manufatto, mentre in altri essere un mero prodotto di corrosione che ne deturpa l’aspetto e ne promuove il degrado. Già nel I secolo d.C. Plinio nella sua “Naturalis Historia” parla di patine nei bronzi definendo Aerugo Nobilis il prodotto di alterazione superficiale di caratteristiche estetiche apprezzabili, mentre Virus Aerugo era il prodotto dannoso. Questa differenza costituisce ancora oggi la linea di confine che guida gli interventi di conservazione sull’opera d’arte in bronzo; nella Carta del Restauro del 1972 si prescrive infatti di “non rimuovere la patina Nobile, stabile chimicamente” anche se soprattutto negli interventi di pulitura dei bronzi collocati in esterni è assai difficile la sua precisa individuazione. Il rame (Cu) puro è inizialmente rosso salmone (nei bronzi il colore diventa più chiaro per aggiunte più o meno grandi di stagno (Sn)). In assenza di anidride carbonica (CO2) e agenti aggressivi nell’atmosfera, l’ossigeno dell’aria ossida il rame a Cu2O (ossido di rame, cuprite) di colore rosso più cupo. La patina che si forma è una miscela di ossido di rame monovalente (Cu2O) con rame metallico. Lo spessore medio di questo strato in media è di 3,5 μm; il colore risultante è il marrone scuro che spesso caratterizza i bronzi conservati in interni (patina nobile). In presenza di anidride carbonica (CO2) e umidità (H2O), i prodotti che si formano sulle superfici dei bronzi sono di colore verde-azzurro a causa della formazione di due carbonati basici: · Malachite (CuCO3Cu(OH)2), in strati lisci e compatti di colore verde scuro simile a uno smalto · Azzurrite (2CuCO3Cu(OH)2), di colore fra l’azzurro e il blu intenso. Si tratta di patine continue e stabili, di gradevole aspetto, assai apprezzate per il loro carattere non pericoloso per la salute del manufatto. In ambienti urbani più inquinati contenenti SOx si formano in prevalenza solfati di colore verdastro costituiti da: Brochantite CuSO4.3Cu(OH)2 o Antlerite CuSO4.2Cu(OH)2. Questi composti si trovano associati allo strato di cuprite (Cu2O) sottostante e sono i principali responsabili del colore verde dei monumenti in bronzo esposti all’aperto. In ambienti fortemente acidi questi solfati si trasformano in solfato di rame idrato (CuSO4.5H2O) composto assai solubile e quindi facilmente dilavabile dalle piogge, favorendo in tal modo il progredire dei fenomeni corrosivi. I composti di rame a base di cloruri sono i più pericolosi a causa dell’elevata solubilità dei cloruri e notevole conducibilità ionica delle soluzioni. I prodotti di corrosione clorurati si trovano nei manufatti rimasti immersi in acqua di mare, interrati in terreni ad alto contenuto salino, contaminati da sostanze organiche in decomposizione o in ambienti vicini al mare in cui il cloruro di sodio (NaCl) è portato dai venti come aerosol. I principali cloruri di sono l’Atacamite CuCl2.3Cu(OH)2 (cristalli ortorombici di colore da smeraldo a verde scuro) e la Paratacamite (Cu,Zn)Cl2.3Cu(OH)2 (cristalli esagonali pulverulenti di colore verde mela). La paratacamite e la atacamite si ottengono per ossidazione e idratazione della Nantokite, un cloruro rameoso (CuCl), di colore grigio pallido e dall’aspetto ceroso e deliquescente, la cui presenza si riscontra frammista a strati di cuprite (ossido di rame) e di atacamite. La reazione di formazione della paratacamite è accompagnata dalla ossidazione del Cu a cuprite (Cu2O) e a idrossido di rame solubile: 2CuCl + 4Cu + ½ O2 + 3H2O = Cu2(OH)3 Cl + Cu2O I prodotti di corrosione si manifestano in forma di efflorescenze di aspetto pulverulento che si accompagnano alla distruzione delle patine eventualmente presenti. Il fenomeno, pericolosissimo, è anche chiamato “cancro del bronzo”. Per una efficace conservazione dei bronzi la Nantokite (CuCl) deve essere sempre eliminata. Di seguito un esempio di patina di malachite e cuprite e sulla destra del cosiddetto cancro del bronzo. Qui invece un manufatto di rame romano con chiara presenza in superficie di cuprite e malachite. Il rapporto tra il volume del rame originario e l’aumento di volume prodotto dai fenomeni di corrosione è espresso dal cosiddetto volume molare relativo (VMR).&amp;#160; Il VMR indica l’accrescimento volumetrico della patina stessa.&amp;#160; Posto 1 il volume iniziale del rame, la cuprite presenta un VMR di 1,67, molto basso (rispetto ad altre patine). Questo significa che la cuprite non altera in modo significativo la superficie dell'oggetto e ne preserva pressoché inalterati i rilievi ed i dettagli. &amp;#160; &amp;#160; La corrosione può influenzare significativamente le misure del XRF. Da studi del settore emerge che in generale, è possibile vedere in media un depauperamento del contenuto di rame del 35% per oggetti in lega di stagno corrose. Per oggetti con corrosione in superficie e con alto contenuto di stagno e zinco, il depauperamento medio del rame è di circa il 18%, mentre lo zinco non mostra variazioni significative e lo stagno invece mostra un aumento maggiore del 50%. Per gli oggetti corrosi con alto contenuto di zinco è presente una riduzione dello zinco del 9%. Questo dimostra che la decuprificazione e la dezincificazione sono i processi principali della corrosione. Il depauperamento di rame è stato osservato essere il cambiamento più rilevante dei comuni oggetti di bronzo mentre per gli ottoni si è visto che il processo di corrosione principale è la lisciviazione dello zinco. Questi esperimenti dimostrano chiaramente che bisogna fare molta attenzione alla superficie dell’oggetto che stiamo analizzando con l’XRF per capire il grado di corrosione della sua superficie. I tre campioni selezionati per l’analisi XRF sia dall’analisi ad occhio nudo che da osservazione con stereo microscopio appaiano essere tutti formati principalmente da Cu e quindi appartenenti alla classe dei bronzi. Inoltre, la loro superficie non sembra presentare alterazioni da corrosione. Sebbene alcuni esempi isolati di leghe di rame preistoriche contengano diversi per cento di zinco, in particolare da Cipro, solo nel primo millennio aC iniziò la produzione deliberata di ottone, probabilmente in Asia Minore. Dal VII secolo aC i Greci iniziarono a parlare di ottone, ma sempre come un metallo costoso ed esotico non prodotto in Grecia, e questo è confermato dall'assenza di zinco nella grande maggioranza dei bronzi greci. Allo stesso modo, dei tanti bronzi etruschi analizzati, solo due rispettivamente del V e III secolo a.C sono risultati essere di ottone con circa l'11% di zinco e meno del 3% di stagno. Nel I secolo aC i romani iniziarono ad utilizzare il processo di cementazione per la produzione dell’ottone. Dapprima molto probabilmente venne utilizzato per la monetazione, ma poi diventò rapidamente popolare in altri campi, in particolare nella lavorazione dei metalli decorativi dove andò a sostituire ampiamente il bronzo. Durante il II e il III secolo d.C. il contenuto di zinco delle monete diminuì, e gli ottoni con un alto contenuto di zinco non vennero più utilizzati, sebbene l'ottone continuasse ad essere popolare rappresentando circa il 30% delle leghe di rame romane. Dal III secolo in poi una lega di rame con una piccola percentuale di piombo, zinco e stagno (oggi chiamata &amp;quot;bronzo duro al piombo&amp;quot; o “gun metal” in lingua inglese) iniziò ad essere utilizzata regolarmente e da allora è rimasto tale. Le origini di entrambi i termini “Ottone” e “Bronzo” non sono note, ma sembra che in epoca medievale tutte le leghe di rame venissero chiamate bronzi, e solo dal Rinascimento il termine bronzo fu usato in Italia per denotare leghe di rame legate con stagno. Tuttavia, i termini sono stati utilizzati indiscriminatamente in Inghilterra fino al XIX secolo. Ai fini di questo post, per ottone si intende una lega di rame a cui è stato aggiunto deliberatamente dello zinco mentre per bronzo una lega di rame in cui è stato introdotto dello stagno. Considerando i valori di Cu, Zn e Sn dei tre campioni sotto analisi possiamo subito vedere che la statua egizia falsa non è di bronzo ma di ottone su cui poi sono state create le tipiche patine verdi in modo artificiale. Per l’oggetto invece riportato come ‘flauto’ la sua composizione lo colloca nella regione individuata come bronzo duro visto il suo contenuto medio di Zn e praticamente la quasi assenza di Sn. La fibula acquistata su ebay invece risulta essere un oggetto essenzialmente di rame visto il suo basso contenuto di Zn e di Sn. &amp;#160; Per poter effettuare un confronto tra gli oggetti in analisi e oggetti simili autentici, si è fatto ricorso ad articoli pubblicati su riviste specializzate dove l’XRF è stata utilizzato per oggetti metallici che vanno dalla preistoria fino al periodo romano (circa 300 dopo Cristo). In giallo sono stati evidenziati i 3 oggetti sotto analisi. Oltre alla statua egizia è presente un’altra statua che rappresenta Minerva dichiaratamente falsa. Entrambe mostrano un elevato contenuto di Cu seguito dallo Zn e una piccola quantità di piombo. Nella tabella seguente il periodo e l’età riportata è quella presente nell’articolo da cui sono stati raccolti i dati XRF. La selezione di campioni di leghe di Cu da un'ampia gamma di tipologie di manufatti e da una vasta gamma di reperti archeologici da diverse aree geografiche fornisce un set di dati il più rappresentativo possibile. Ciò consente la caratterizzazione delle leghe di Cu esenti da distorsioni (bias) dovute alla considerazione di un solo sito o di uno solo tipo di manufatto. Utilizzando i dati raccolti è possibile vedere come si è evoluta la composizione del bronzo in funzione del periodo storico. In tutte le età precedenti a quella romana il bronzo era ottenuto da una lega di Cu e Sn. In epoca romana si aggiunse anche del piombo. Al contrario collezionando i dati dell’ottone si può vedere come la sua composizione dall’età del ferro fino a quella romana è rimasto praticamente lo stesso. Il piombo (Pb) veniva aggiunto quando la lega metallica doveva essere utilizzata nella fusione di oggetti grandi e complessi come le statue. Nei casi in cui variano contemporaneamente i tre elementi di lega (es. Zn, Sn e Pb), un grafico bidimensionale come gli ultimi due precedenti non va più bene. Questo problema viene superato in una certa misura mediante l'uso di diagrammi ternari. Questi sono in grado di indicare contemporaneamente la differenza tra ottoni e bronzi e tra leghe piombate e senza piombo. La ricerca effettuata sulle leghe romane di Cu ha permesso di svelare le relazioni tra scelta della lega e i vincoli tecnologici. Questi possono essere visti chiaramente nei livelli di Pb presente nelle leghe romane. A differenza di Zn e Sn, il Pb non è presente nelle leghe di Cu in soluzione solida. Esso forma delle goccioline discrete in tutto il metallo. Questo rende le leghe di piombo più soggette a rompersi quando martellate e forgiate, e così le lamiere e i fili quasi mai hanno più dell'1% di Pb. Il piombo, tuttavia, abbassa il punto di fusione del Cu e produce un fuso di una lega più fluido. Questo lo rende un'utile aggiunta alle leghe che devono essere utilizzati nella fabbricazione di grandi o complesse fusioni, come le statue. Diversi ricercatori hanno dimostrato che esistevano dei collegamenti complessi tra la forma dei manufatti e le leghe utilizzate per la loro fabbricazione (es. Bayley &amp;amp; Macellaio, 1981; Craddock, 1975, 1996). Uno degli esempi più chiari di questo fenomeno in epoca romana è il gran numero di vasi di bronzo prodotti in Campania e altrove (den Boesterd, 1956). L’analisi di un gran numero di questi vasi ha dimostrato che la maggior parte di loro erano di bronzo piombato. Anche l’archeologo inglese Craddock ha dimostrato che un'ampia gamma di manufatti in leghe di Cu (ad es. statue e strumenti musicali) prodotti nel periodo tardo repubblicano e primo imperiale nell'area mediterranea è stata realizzata con una lega simile al bronzo piombato. Per quanto riguarda il cambiamento cronologico nelle leghe di Cu di epoca romana sono stati effettuati pochi studi e i risultati non sono molto accurati. Nel grafico di seguito viene riportato il tipo di leghe utilizzate per gli oggetti metallici provenienti da scavi in Gran Bretagna lungo il periodo romano (i secoli sono quelli dopo Cristo). Molti dei tipi di leghe riportate sono presenti a livelli relativamente bassi per tutto il periodo romano (es. ottone piombato e piombo ramato) o mostrano variazioni relativamente piccole nel tempo (es. bronzo duro e bronzo). I cambiamenti significativi nei tipi di lega sono quelli legati al calo dell’ottone senza piombo e il crescente uso del bronzo piombato e bronzo duro al piombo. Nel I secolo d.C. l’ottone rappresentava il 37% delle leghe utilizzate mentre il bronzo al piombo e il bronzo duro al piombo insieme rappresentavano il 27%. Nel IV secolo d.C., l'ottone passa al 4% mentre il bronzo al piombo e il bronzo duro al piombo aumentano al 64%. I cambiamenti cronologici nelle composizioni delle leghe romane analizzate devono, tuttavia, essere considerate con cautela trattandosi di campioni da diversi siti in momenti diversi; i cambiamenti delle leghe analizzate potrebbe riflettere piuttosto i cambiamenti nella documentazione archeologica rispetto ai cambiamenti nell'antica metallurgia del Cu. Inoltre, i diversi tipi di manufatti prodotti e i metodi utilizzati nella fabbricazione potrebbe essere cambiato nel tempo. Ritorniamo adesso ai nostri tre oggetti. Come anticipato, la statua è chiaramente un falso e quindi ci aspettiamo che il suo spettro sia significativamente diverso dagli oggetti (in particolare proprio una statua) veri. Nel database creato con i dati presi da altri autori e pubblicati su riviste scientifiche specialistiche, abbiamo una statua di Minerva autentica, una statua di Minerva falsa e una statua romana di cui non è riportata l’età e il personaggio che essa rappresenta. Riportando i dati su di un grafico ternario Sn-Zn-Pb si può vedere immediatamente come le 2 statue false si posizionano nel vertice in basso a destra del triangolo che indica un alto contenuto di Zn, un bassissimo contenuto di Sn e un basso contenuto di Pb (in pratica si tratta di ottone). Al contrario le due statue vere si posizionano a metà del lato destro del triangolo che indica un basso contenuto di Zn e un alto contenuto di Pb e Sn (quindi oggetti di bronzo piombato). Questo è un ottimo esempio di come un’analisi XRF possa aiutarci nella individuazione di un falso. Passiamo adesso al secondo oggetto e cioè la fibula comprata all’asta su ebay dall’Inghilterra. Qui di seguito un esempio di fibule ad arco. Oltre a questa classe esistevano le fibule ad anello e le fibule a piastre. Una fibula altro non è che un'antica spilla. Tecnicamente il termine latino fibulae si riferisce alle spille romane; tuttavia, il termine è ampiamente utilizzato per riferirsi a spille dell'intero mondo antico e altomedievale. Le fibule erano usate per allacciare i vestiti, i mantelli militari o, in alcuni casi, semplicemente come oggetti decorativi. Furono usate secoli prima della fondazione di Roma e per secoli dopo la sua caduta da greci, persiani, frigi, celti, tedeschi, slavi e molti altri popoli oltre ai romani. Erano usate sia dai soldati che dai civili; da uomini, donne e bambini. Erano usate su abiti, camicie e abiti, nonché sui mantelli. Non venivano utilizzate invece sulla toga, che era semplicemente piegata e drappeggiata. Dopo questa breve descrizione delle fibule ritorniamo alla fibula acquistata su ebay e che abbiamo analizzata con uno strumento XRF. Ripartendo dalla tabella dove abbiamo raccolto tutti i dati XRF riportata precedentemente salta subito all’occhio il suo basso contenuto di Stagno e una percentuale di Zn al di sotto del 5%. Nel grafico Zn-Sn infatti questo oggetto si posiziona nella zona degli oggetti in rame. Ma quanto erano comuni nel passato le fibule di rame? Non molto come si può osservare dalla tabella sottostante che nel periodo tra il 500 aC e il 100 d.C. riporta solo un 6% di fibule in rame contro un 46% di ottone e circa il 48% di bronzo/bronzo duro. &amp;#160; Anche se i risultati non confermano in modo schiacciante la falsità dell’oggetto sotto studio, c’è qualche lecito sospetto. Come ulteriore approfondimento e’ stata analizzata la percentuale di elementi presenti in tutte le fibule della tabella riportata sopra. La tecnica delle componenti principali è una tecnica statistica utilizzata per ridurre la dimensione del campione andando a trovare le componenti che spiegano la maggior parte della variabilità dei dati. Le nuove variabili (le componenti principali) altro non sono che la sovrapposizione con appositi pesi di tutte le variabili x del nostro database. Per il caso che stiamo studiano possiamo vedere come usando le prime 3 componenti principali riusciamo a spiegare circa l’80% della variabilita’ del nostro campione. Uno dei grossi vantaggi delle componenti principali è quello di poter osservare i dati nel piano o nello spazio cosa impossibile nel caso in cui consideriamo tutti i predittori (le variabili x). Nel piano delle prime due componenti principali notiamo come i dati si dispongono su due cluster che formano una V con vertice in (0,0). La cosa interessante è che il ramo di sinistra della V e’ legato alle fibule create mediamente dopo la nascita di Cristo mentre quelle del ramo di destra prima della venuta di cristo. Sembra indicare un passaggio graduale dal bronzo all’ottone, conosciuto nel passato come oricalco la cui origine viene fatta risalire nel primo secolo prima di Cristo e che tenderà a scomparire nel quarto secolo d.C. (vedi grafico precedente). Guardando i dati come si distribuiscono nel piano della prima e terza componente principale si nota subito un outlier evidenziato con un asterisco verde che guarda caso è proprio la fibula acquistata su ebay. Essa si differenzia dalle rimanenti fibule originarie (clusterizzate intorno all’origine del piano) per l’elevato contenuto di Ag (1%). Questo ci porta a pensare che la fibula sia un falso anche se la confidenza non è molto alta in quanto ci sono delle analisi XRF condotte su delle fibule di epoca romana ritrovate in Kossovo in Polonia che mostrano dei contenuti di Ag molto elevati anche se è anche presente un quantitativo di Sn e Pb considerevole. Cosa che non è vero nel nostro caso. Servirebbero ulteriori analisi, come per esempio quelle delle patine per poter dire con certezza che si tratti di un falso. &amp;#160; Fibule ritrovate in Kossovo (Polonia) di epoca romana. Adesso è la volta dell’oggetto a cui è stato assegnato l’identificativo “flauto” ma il cui scopo è del tutto sconosciuto (vedi prima immagine qui di seguito). Si tratta di un oggetto proveniente da una collezione privata e secondo l’acquirente proviene da uno scavo nel territorio della Marsica (Abruzzo). Potrebbe trattarsi di una parte di una tibiae o di una tuba, entrambe strumenti musicali utilizzate dai romani (nella seconda immagine qui di seguito parte di tibiae proveniente dal Museo degli strumenti musicali di Roma) La superficie dell’oggetto non mostra segni di corrosione significativi. La patina sembra essere quella tipica degli oggetti in bronzo. L’oggetto all’interno è cavo e rassomiglia ad un tubo. Il lato sinistro ha un diametro leggermente maggiore del lato destro. A circa un terzo a partire dal lato sinistra si apre un foro con un leggero incavo. &amp;#160; Lo spettro XRF di questo oggetto sembra indicare un oggetto di bronzo duro (basso contenuto di Sn e presenza di Zn al di sotto della soglia per essere classificato come ottone) con un alto contenuto di Fe. Dall’analisi di clustering degli elementi dei diversi oggetti riportati nella tabella ad inizio post si vede chiaramente come questo oggetto sia molto simile agli oggetti identificati dalle righe 45, 46 e 47 che riportano i risultati di analisi XRF eseguita si di una statua di bronzo presso il museo di Salonicco la cui origine non è nota. L’statua mostra un alto contenuto di Cu, stagno e in alcuni punti piombo confermando che si tratta di bronzo. Comunque, va notato che su molti punti della superficie della stata risulta un’elevata concentrazione di Fe (da 1% fino a circa 30%). Gli autori attribuiscono la presenza di tale elemento alla contaminazione di un oggetto di ferro posto nello stesso ambiente di sepoltura. In alcuni punti la statua mostra un basso contenuto di rame (intorno al 50%) a causa dei processi di corrosione. Diversamente da questa statua l’oggetto analizzato risultato simile ad essa per il basso contenuto di Cu e l’alto contenuto di Fe mostra la presenza di zinco e un basso contenuto di stagno che lo fa rientrare nella categoria del bronzo duro. Elementi come il ferro (Fe) possono essere il risultato del processo di fusione, di aggiunte intenzionali, parte di uno strato di corrosione o contaminazione da oggetti di ferro durante la sepoltura. Come già riportato per la statua del museo di Salonicco, il basso contenuto di Cu potrebbe essere dovuto a qualche fenomeno di corrosione anche se la superficie pur presentando il tipico valore verde della malachite non sembra mostrare un notevole degrado come invece si può notare per la tuba del museo romano di strumenti musicali. Per poter definitivamente stabilire l’autenticità del pezzo servirebbe uno studio delle patine presenti sull’oggetto con analisi tipo FTIR e u-Raman. &amp;#160;</itunes:summary><itunes:keywords>archeologia, archeometria, beni culturali, conservation, datazione, EDS, fluorescenza, FTIR, imaging, radiazione, radioattivita', radiografia, riflettografia, SEM, tomografia, uRaman, XRD, XRF</itunes:keywords></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6118333889544048664</guid><pubDate>Sun, 13 Mar 2022 12:33:00 +0000</pubDate><atom:updated>2022-03-13T05:33:02.903-07:00</atom:updated><title>Studio archeometrico di alcune terrecotte dipinte provenienti dal santuario di Ercole di Alba Fucens</title><description>&lt;p style="text-align: left;"&gt;&lt;span style="font-family: arial; font-size: large;"&gt;&lt;span style="text-align: justify;"&gt;In questo post riporto un'interessante studio archeometrico relativo al sito archeologico di Alba Fucens (Abruzzo) nato dalla collaborazione dell'Universita la Sapienza di Roma e la Soprintendenza alle belle arti della Marsica e a cui ha partecipato mia figlia Gilda. Lo pubblico su questo blog perche' si tratta comunque di una lavoro scientifico di rilievo e in un ambito non molto conosciuto dal grande pubblico come quello dell'archeometria o anche Science for archeology. Di seguito un breve riassunto dell'articolo e poi il link alla rivista Minerals su cui e' stato pubblicato.&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;Nel periodo che va dal VII al I
secolo aC, le superfici esterne degli edifici civili e sacri in Italia erano
prevalentemente decorati con terrecotte.&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;Lo scopo di questo studio archeometrico
è stato quello di determinare le caratteristiche e il livello tecnologico
raggiunto dagli antichi produttori di ceramiche dipinte provenienti dal
santuario di Ercole nel sito archeologico di &lt;/span&gt;&lt;a href="https://www.romanoimpero.com/2011/06/alba-fucens-abruzzo.html" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;Alba
Fucens&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt; (Abruzzo, Italia Centrale). I materiali studiati sono di buona
manifattura, e probabilmente provengono da un tempio etrusco-italico, costruito
subito dopo l'insediamento della colonia.&amp;nbsp;&lt;/span&gt;&lt;span lang="IT" style="line-height: 107%; text-align: justify;"&gt;Per questo lavoro è stato utilizzato
un approccio multi-analitico comprendente la diffrazione a raggi X (&lt;a href="https://it.wikipedia.org/wiki/Diffrazione_dei_raggi_X"&gt;&lt;span style="color: #01ffff;"&gt;XRPD&lt;/span&gt;&lt;/a&gt;), &lt;/span&gt;&lt;span style="line-height: 107%; text-align: justify;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Spettroscopia_Raman"&gt;&lt;span style="color: #01ffff;"&gt;μ&lt;span lang="IT"&gt;-Raman&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="line-height: 107%; text-align: justify;"&gt; e fluorescenza
a raggi (&lt;span style="color: #01ffff;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Spettrofotometria_XRF"&gt;&lt;span style="color: #01ffff;"&gt;XRF&lt;/span&gt;&lt;/a&gt;)&lt;/span&gt;
per determinare la composizione mineralogica della terracotta e per
identificare i pigmenti con cui queste erano decorate.&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;Si e’ stabilito che le terrecotte
studiate sono state decorate con pigmenti pregiati come il &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Spettrofotometria_XRF" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;blu egizio&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt; e una
tavolozza di colori comuni nel periodo romano dal terzo &lt;/span&gt;&lt;span style="text-align: justify;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;al primo secolo aC. Il pigmento rosso per
esempio e’ stato ottenuto utilizzando &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Ematite" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;ematite&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt;, e la sua tonalità modificata
attraverso l’uso del bianco lime e forse di bianco piombo.&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;Per il pigmento nero, i risultati
analitici purtroppo non hanno consentito di determinare con certezza la sua origine
(animale o vegetale). Nonostante i pochi colori utilizzati, si è &lt;/span&gt;&lt;span style="text-align: justify;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;notato l’uso di diverse sfumature per ognuno
dei colori utilizzatri. Nel caso del blu egizio, ad esempio, si e’ visto come
l'artista sia passato da una tonalità brillante ad una opaca, modulando il
colore con il bianco (piombo bianco o calcite) o nero (ossido di manganese).&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;La composizione mineralogica
della ceramica ha permesso di stimare una temperatura di cottura inferiore agli
800 °C a causa della presenza in essa di &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Illite" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;illite&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt;-&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Calcite" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;calcite&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt; e assenza di fasi
neoformative come &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Gehlenite" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;gehlenite&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt;
e &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Diopside" style="text-align: justify;"&gt;&lt;span style="color: #01ffff;"&gt;diopside&lt;/span&gt;&lt;/a&gt;&lt;span style="text-align: justify;"&gt;. Infine, la presenza
di depositi alluvionali e lacustri affioranti nell'area del Fucino suggerisce una
provenienza locale delle materie prime utilizzati. Le analisi μ-Raman e XRF &lt;/span&gt;&lt;span style="text-align: justify;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;sembrano indicare la presenza di uno strato
bianco di calcite e piombo utilizzato come primer steso sulle terrecotte prima
dell'applicazione dei pigmenti, anche se per confermarlo e’ necessario eseguire
un’analisi stratigrafica dello strato pittorico della terracotta.&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: justify;"&gt;I risultati preliminari di questo
studio fanno parte di un progetto più ampio e verranno convalidati e ulteriormente
integrati in futuro.&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 20.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;b&gt;&lt;span lang="IT" style="line-height: 107%;"&gt;&lt;span style="font-family: times; font-size: large;"&gt;Campioni analizzati&lt;/span&gt;&lt;span style="font-size: 20pt;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;b&gt;&lt;/b&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;b&gt;&lt;a href="https://blogger.googleusercontent.com/img/a/AVvXsEjSpS0rXCno4a6vL6fM-JqFno7zvy-ZIpWix6JSMHgCjSps3AC5x4uR4lIKO7A6Ins9uVDJF2z_95zzEf8vYJThdSY2rDs6AiPJmHi7KO8sI70C5Bx2mptSw2PzcBXNxdHIXfDfo1iEp0e6l5K22tTMAGIwM5OPUkvYDZKCgCdc4zJqG2CFEzcA3w=s624" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="478" data-original-width="624" height="466" src="https://blogger.googleusercontent.com/img/a/AVvXsEjSpS0rXCno4a6vL6fM-JqFno7zvy-ZIpWix6JSMHgCjSps3AC5x4uR4lIKO7A6Ins9uVDJF2z_95zzEf8vYJThdSY2rDs6AiPJmHi7KO8sI70C5Bx2mptSw2PzcBXNxdHIXfDfo1iEp0e6l5K22tTMAGIwM5OPUkvYDZKCgCdc4zJqG2CFEzcA3w=w608-h466" width="608" /&gt;&lt;/a&gt;&lt;/b&gt;&lt;/div&gt;&lt;b&gt;&lt;br /&gt;&lt;span lang="IT" style="line-height: 107%;"&gt;&lt;span style="font-size: large;"&gt;Link:&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;span style="text-align: left;"&gt;&lt;b&gt;&lt;a href="https://www.mdpi.com/2075-163X/12/3/346"&gt;&lt;span style="color: #01ffff; font-size: large;"&gt;https://www.mdpi.com/2075-163X/12/3/346&lt;/span&gt;&lt;/a&gt;&lt;/b&gt;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 26.6667px; text-align: left;"&gt;&lt;b&gt;&lt;br /&gt;&lt;/b&gt;&lt;/span&gt;&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2022/03/studio-archeometrico-di-alcune.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/a/AVvXsEjSpS0rXCno4a6vL6fM-JqFno7zvy-ZIpWix6JSMHgCjSps3AC5x4uR4lIKO7A6Ins9uVDJF2z_95zzEf8vYJThdSY2rDs6AiPJmHi7KO8sI70C5Bx2mptSw2PzcBXNxdHIXfDfo1iEp0e6l5K22tTMAGIwM5OPUkvYDZKCgCdc4zJqG2CFEzcA3w=s72-w608-h466-c" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3545934951589765351</guid><pubDate>Sat, 11 Dec 2021 16:26:00 +0000</pubDate><atom:updated>2021-12-11T08:26:18.077-08:00</atom:updated><title>Le reti neurali convoluzionali.</title><description>&lt;p align="justify"&gt;Le reti neuronali convoluzionali (CNN) sono un particolare tipo di reti &lt;a href="https://it.wikipedia.org/wiki/Rete_neurale_artificiale"&gt;&lt;font color="#80ffff"&gt;neurali artificali&lt;/font&gt;&lt;/a&gt; (ANN) utilizzate per lo piu’ per la classificazione delle immagini. Le CNNs si ispirano al principio biologico della riproduzione di una struttura capace di identificare dei &lt;a href="https://en.wikipedia.org/wiki/Pattern"&gt;&lt;font color="#80ffff"&gt;patterns&lt;/font&gt;&lt;/a&gt; in diversi luoghi descritta nell’articolo dei premi Nobel &lt;a href="https://braintour.harvard.edu/archives/portfolio-items/hubel-and-wiesel"&gt;&lt;font color="#80ffff"&gt;Hubel e Wiesel&lt;/font&gt;&lt;/a&gt; pubblicato nel 1962 e dal titolo: “&lt;a href="https://www.ncbi.nlm.nih.gov/pubmed/14449617"&gt;&lt;font color="#80ffff"&gt;Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex&lt;/font&gt;&lt;/a&gt;&lt;a name="_Hlt88229216"&gt;&lt;/a&gt;&lt;a name="_Hlt88229215"&gt;&lt;/a&gt;”. Queste reti oltre alla classificazione delle immagini hanno mostrato buoni risultati anche con le analisi delle &lt;a href="https://it.wikipedia.org/wiki/Serie_storica"&gt;&lt;font color="#80ffff"&gt;serie temporali&lt;/font&gt;&lt;/a&gt; e il riconoscimento vocale. Esse sono diventate molto popolari dopo che nel 2012 hanno vinto la competizione &lt;font color="#80ffff"&gt;&amp;#160;&lt;/font&gt;&lt;a href="http://www.image-net.org/challenges/LSVRC/"&gt;&lt;font color="#80ffff"&gt;Imagenet Large Scale Visual Recognition Challenge (ILSVRC)&lt;/font&gt;&lt;/a&gt;&lt;a name="_Hlt88229245"&gt;&lt;/a&gt;&lt;a name="_Hlt88229244"&gt;&lt;/a&gt;&lt;font color="#80ffff"&gt;&amp;#160;&lt;/font&gt; con un margine addirittura del 10%.&amp;#160; &lt;a href="https://qz.com/1307091/the-inside-story-of-how-ai-got-good-enough-to-dominate-silicon-valley/"&gt;&lt;font color="#80ffff"&gt;Alex Krizhevsky&lt;/font&gt;&lt;/a&gt;&lt;a name="_Hlt88229257"&gt;&lt;/a&gt;&lt;a name="_Hlt88229256"&gt;&lt;/a&gt; e &lt;a href="https://en.wikipedia.org/wiki/Ilya_Sutskever"&gt;&lt;font color="#80ffff"&gt;Ilya Sutskever&lt;/font&gt;&lt;/a&gt;, sotto la guida di &lt;a href="https://en.wikipedia.org/wiki/Geoffrey_Hinton"&gt;&lt;font color="#80ffff"&gt;Geoffrey Hinton&lt;/font&gt;&lt;/a&gt;&lt;a name="_Hlt88229265"&gt;&lt;/a&gt;&lt;a name="_Hlt88229264"&gt;&lt;/a&gt;, proposero l’architettura CNN che presto divento’ famosa con il nome di “&lt;a href="https://www.google.com/url?esrc=s&amp;amp;q=&amp;amp;rct=j&amp;amp;sa=U&amp;amp;url=https://en.wikipedia.org/wiki/AlexNet&amp;amp;ved=2ahUKEwjex8vq1aT0AhVshf0HHd3EBWkQFnoECAwQAg&amp;amp;usg=AOvVaw0_USHYpidQYdbcGmxg2iFV"&gt;&lt;font color="#80ffff"&gt;AlexNet&lt;/font&gt;&lt;/a&gt;”. A quel tempo, Geoffrey Hinton era gia’ conosciuto per i suoi contributi scientifici nel campo delle reti neurali artificiali. Egli era stato uno dei contributori dell’algoritmo di &lt;a href="https://web.stanford.edu/class/psych209a/ReadingsByDate/02_06/PDPVolIChapter8.pdf"&gt;&lt;font color="#80ffff"&gt;Backpropagation&lt;/font&gt;&lt;/a&gt; nel 1986, e delle &lt;a href="https://en.wikipedia.org/wiki/Boltzmann_machine"&gt;&lt;font color="#80ffff"&gt;macchine di Boltzmann&lt;/font&gt;&lt;/a&gt; nel 1983. Queste sono alcune delle ragioni per cui Geoffrey Hinton e’ stato riconosciuto come uno dei padri del &lt;a href="https://en.wikipedia.org/wiki/Deep_learning"&gt;&lt;font color="#80ffff"&gt;Deep Learning&lt;/font&gt;&lt;/a&gt;. Una CNN tipica e’ composta da una serie di strati convoluzionali, che agiscono come estrattori di features, seguiti da un classificatore, in genere un &lt;a href="https://deepai.org/machine-learning-glossary-and-terms/multilayer-perceptron"&gt;&lt;font color="#80ffff"&gt;Multilayer Perceptron (MLP)&lt;/font&gt;&lt;/a&gt;&lt;a name="_Hlt88229341"&gt;&lt;/a&gt;&lt;a name="_Hlt88229340"&gt;&lt;/a&gt;, anche conosciuto come una rete a strati completamente connessi (FC) come mostrato in figura 1.&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1J590ReRdCXf3HUkvnAY0O-T1t7mZPEOF"&gt;&lt;img title="image_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb1" src="https://drive.google.com/uc?id=1GGHrQOXPKFRscXkqTmnf_oHbvAi2gFez" width="437" height="139" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 1. Gli strati di una CNN&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Il primo strato riceve in input un’immagine rappresentata nei 3 canali colore &lt;a href="https://it.wikipedia.org/wiki/RGB"&gt;&lt;font color="#80ffff"&gt;RGB&lt;/font&gt;&lt;/a&gt;. Questo significa avere un array con una certo numero di pixels come per esempio 100x100 ripetuto 3 volte, uno per ogni canale colore. Si tratta quindi di un oggetto con dimensione 100x100x3 che prende il nome di&lt;font color="#80ffff"&gt; &lt;/font&gt;&lt;a href="https://it.wikipedia.org/wiki/Tensore"&gt;&lt;font color="#80ffff"&gt;tensore&lt;/font&gt;&lt;/a&gt;. Infatti l’immagine 100x100 e’ una matrice bidimensionale mentre l’aggiunta dei 3 canali rende questo oggetto non piu’ bidimensionale ma tridimensionale come si puo’ vedere nella prima parte della figura 1. Il primo strato esegue le convoluzione dell’immagine in ingresso con diversi &lt;a href="https://en.wikipedia.org/wiki/Kernel"&gt;&lt;font color="#80ffff"&gt;kernel&lt;/font&gt;&lt;/a&gt;, generando una serie di feature maps del primo strato. Ogni feature map determina l’intensita’ e la localizzazione di una specifica feature. La feature map estratta dallo strato convoluzionale puo’ essere sottomessa ad un’operazione di downsampling conosciuta come &lt;a href="https://www.geeksforgeeks.org/cnn-introduction-to-pooling-layer/"&gt;&lt;font color="#80ffff"&gt;Pooling&lt;/font&gt;&lt;/a&gt;. Questa operazione e’ opzionale cosi e’ possible che essa non segua tutti gli strati convoluzionali. Il risultato di uno strato di Pooling e’ un altro insieme di feature maps ma con ridotta risoluzione. Il successivo strato convoluzionale usa la feature map dello strato precedente per eseguire piu’ convoluzioni e generare nuove feature maps. Le feature maps dell’ultimo strato diventano l’input del classificatore e cioe’ degli strati FC full connected. L’operazione di convoluzione che viene indicata con un asterisco ∗, puo’ essere descritta con la seguente formula:&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1JsgZx6fA0LMpKBgSmIVoCpIFf7fvgS1u"&gt;&lt;img title="image7_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image7_thumb" src="https://drive.google.com/uc?id=1utPTtO_N33eN3mEdOpx_UM3UkTJMQDAc" width="241" height="57" /&gt;&lt;/a&gt;  &lt;p align="justify"&gt;essendo x un tipo di input, t un tempo e k il &lt;font color="#ffffff"&gt;kernel&lt;/font&gt; applicato. Il kernel in pratica e’ una matrice di pesi ed esso viene applicato ad una sotto matrice dell’immagine conosciuta come &lt;a href="https://en.wikipedia.org/wiki/Receptive_field"&gt;&lt;font color="#80ffff"&gt;receptive field&lt;/font&gt;&lt;/a&gt; in biologia (una regione sensoriale che stimola un neurone). La moltiplicazione tra il receptive field e il kernel consiste nella moltiplicazione di ogni pixel e i rispettivi elementi del kernel. Dopo le moltiplicazioni, i risultati vengono aggiunti a formare un elemento della feature map definita dall’equazione con 3 canali &lt;a href="https://it.wikipedia.org/wiki/RGB"&gt;&lt;font color="#80ffff"&gt;RGB&lt;/font&gt;&lt;/a&gt;: &lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=15HFwpUJz8gK26g-WXLaom9mseXXVIpZp"&gt;&lt;img title="image14_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image14_thumb" src="https://drive.google.com/uc?id=1LvOb_ONMeni3JzoiTRRM_PCwL4AMiwWd" width="356" height="70" /&gt;    &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt; &lt;/a&gt;  &lt;p align="justify"&gt;Le seguenti immagini mostrano l’operazione di convoluzione per un’immagine in grigio 5x5 e un kernel 3x3. Il receptive field e’ stato evidenziato in rosso. L’output della convoluzione e’ una feature map 3x3. Occhio. Le 2 matrici kernel e Recept non vengono moltiplicate con la regola delle matrici ma semplicemente moltiplicando un elemento alla volta. Ogni cella della feature map viene costruita facendo la somma di tutti gli elementi della matrice ottenuta con la moltiplicazione e indicata con sum nella figura. &lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1dJq0mn3QMmvP3wUssBWpivrrA7FW_DBX"&gt;&lt;img title="image18_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image18_thumb" src="https://drive.google.com/uc?id=1zRKlrABkp5_gyUM5QD-DCT8WdWen5m2f" width="225" height="186" /&gt;&lt;/a&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=13Jr5x0UlBQDCmg1xnesJDNhXfHJXZ6is"&gt;&lt;img title="image21_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image21_thumb" src="https://drive.google.com/uc?id=1jJhZ2G-e44y_iVMaLHI2IEyToSivo0_r" width="225" height="186" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=16XpHKqQ4U5NloqRWkRMh6rmZWOWGEmz7"&gt;&lt;img title="image24_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image24_thumb" src="https://drive.google.com/uc?id=1LCVOBm6eC9-OII086iaAAMv_8b54kgB-" width="232" height="191" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;Figure 2 — Alcuni steps della convoluzione di un’immagine 5x5 con un kernel 3x3.&lt;/font&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Le immagini utilizzate in figura 2 possono essere viste nella figura 3. I valori del kernel e della feature map sono stati riscalati tra 0 e 255 per essere rappresentati in una scala di grigi. I pixels bianchi corrispondono a valori prossimi a 255 mentre quelli neri a valori prossimi allo 0.&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1MiYASz7_ykLEIWyYkgp0WR6RdTvMb00T"&gt;&lt;img title="clip_image014_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image014_thumb1" src="https://drive.google.com/uc?id=1_AsFDBp4SUdX88r9rEvaMEg-cFHCwel7" width="238" height="105" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figure 3 — Convoluzione di una matrice 5x5 con un kernel 3x3&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Poiche’ la convoluzione della figura 2 usa un kernel 3x3 ci sono 9 possibili receptive fields in input ognuno con una dimensione 3x3. Notare che quando la Receptive field contiene tutti pixels chiari la somma delle celle della matrice ottenuta agendo con il kernel e’ scura e viceversa. Nella figura 2 infatti quando la receptive field ha tutti valori maggiori di 200 la cella corrispondente nella feature map ha come valore 44. Questo e’ dovuto al fatto che il kernel utilizzato evidenzia i contorni passando da un colore brillante sulla sinistra ad un colore scuro sulla destra della matrice. Vediamo adesso cosa accade se applichiamo lo stesso kernel ad un immagine che ha una transizione da una regione scura a sinistra ad una chiara sulla destra. In Figura 4, il receptive field esibisce la transizione dai pixel scuri a quelli chiari e da quelli chiari a quelli scuri. Notare come il kernel identifica gli estremi della stripe segnalandoli con una fascia chiara a sinistra e una scura a destra. &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1Fp6eCCiWweevFPhDow3rWoYE2IUYShXU"&gt;&lt;img title="clip_image016_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image016_thumb" src="https://drive.google.com/uc?id=1kTy_5Ejp9b9vzcR8EnHDGdRRvBa6o_Jm" width="311" height="125" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figure 4 — Convoluzione di un immagine 17x17 con un kernel per evidenziare gli estremi&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Passiamo adesso ad un esempio pratico. Qui di seguito la foto a colori di un aereo su cui viene applicato un kernel 3x3 estratto da una piccola regione dell’immagine stessa. &lt;/p&gt;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160; &lt;a href="https://drive.google.com/uc?id=1o9UpRxPqKlhoX5vZgTreyNERsfqlXyZx"&gt;&lt;img title="image_thumb11" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb11" src="https://drive.google.com/uc?id=14g2yu3o1Z3DMbo8b7DzCr8iUB9eojFya" width="311" height="142" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1uY359nhFRWDWxVPP5ltFpDbT4SOAcnaE"&gt;&lt;img title="image_thumb12" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb12" src="https://drive.google.com/uc?id=1Uvo3qPLqEi0XTxC36RQq5741UsnyTlDC" width="311" height="142" /&gt;&lt;/a&gt;&amp;#160; &lt;h3 align="center"&gt;&lt;a href="https://drive.google.com/uc?id=1TOY9Cl7gzr_GFtJuvhjvet2Iy42oi8MX"&gt;&lt;img title="image_thumb13" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb13" src="https://drive.google.com/uc?id=1DCDRts29D-R7BGVxsIelS7bZhSJ-YGb2" width="311" height="142" /&gt;&lt;/a&gt;&amp;#160; &lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Fi&lt;/font&gt;&lt;font style="font-weight: normal;"&gt;gure 5 — Esempi di convoluzione .&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Nel primo esempio, il kernel comprende la regione della foto con il numero 6 in bianco. L’immagine in grigio sulla destra e’ il risultato della convoluzione tra il kernel e l’immagine stessa. I pixels piu’ scuri rappresentano I valori piu’ bassi ottenuti dall’operazione del kernel sulla receprive field mentre quelli piu’ chiari rappresentano I valori piu’ alti. Nel secondo esempio il kernel e’ costituito da una ruota dell’aereo mentre nel terzo viene riportato il colore giallo dell’aereo. Notare che I pixels piu’ brillanti sono quelli che corrispondono alla parte dell’immagine contenuta nel kernel: numero 6 nel primo caso, la ruota nel secondo e le pareti di colore giallo dell’aereo nel terzo. Osserviamo anche che se la seconda ruota non e’ contenuta nel kernel anch’essa risulta brillante essendo molto simile alla prima ruota. Altra caratteristica importante di una CNN e’ il passo (&lt;a href="https://deepai.org/machine-learning-glossary-and-terms/stride"&gt;&lt;font color="#80ffff"&gt;stride&lt;/font&gt;&lt;/a&gt;) tra ogni receptive field. Tutti gli esempi mostrati fino ad adesso avevano passo 1. L’adozione di un passo cosi piccolo risulta in una sovrapposizione abbastanza spinta tra i receptive field. Il risultato e’ che molta informazione viene ripetuta tra i receptive field adiacenti come mostrato in figura 6.&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=13tjznQfdV_7SuRq6JUCqHaaeTkOV-zzL"&gt;&lt;img title="image36_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image36_thumb1" src="https://drive.google.com/uc?id=1PkYCOqf9EZl7FoNGLUd9EgITEgH_FoXK" width="324" height="197" /&gt;&lt;/a&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;Figure 6 – Receptive field con passo (stride) 1.&lt;/font&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;In caso di&amp;#160; kernel con dimensioni 3x3, l’utilizzo di un passo (stride) 2 risulta in una colonna o riga di sovrapposizione con il receptive field adiacente. Aumentando lo stride si riduce il costo computazionale del PC. Passando da uno stride di 1 a 2 abbiamo una riduzione del costo di un fattore 4. Questo accade in quanto lo stride 2 impatta la distanza tra i receptive field in entrambe le dimensioni. Allo stesso modo se triplichiamo il passo il costo computazionale si ridurra’ di un fattore 9. Il costo di computazione si riduce in quanto aumentando il passo si riduce il numero di receptive field estratti dall’input e di conseguenza si riduce la dimensione dell’output. La figura 7 mostra 4 esempi di convoluzione con passi (strides) di 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70. Notare che aumentando il passo di un fattore 2 il tempo di esecuzione si riduce di circa un fattore 4.&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1pthIoreoEyKHhLHpZKF2fTG6r0pAO0q0"&gt;&lt;img title="image_thumb15" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb15" src="https://drive.google.com/uc?id=1vd_Dk1sLefcnURDRuNnSLUIRcW2Evvgz" width="311" height="177" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1LEbWEHXSCJw5HjhH0EYPH_uCbbC7N4xY"&gt;&lt;img title="image_thumb16" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb16" src="https://drive.google.com/uc?id=1wLbcJ_3fJSLsnYnET1F0grjzNDvn-HEC" width="311" height="177" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1pd3h6Nvzy0GeFiN8JH2C91hzhB6BP8jH"&gt;&lt;img title="image_thumb17" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb17" src="https://drive.google.com/uc?id=1479LXqYGmCq_-Ne0FIRx7nt5kyOdQ77p" width="311" height="188" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 7 — Esempi di stride 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Grafico del tempo di elaborazione verso lo stride&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Osserviamo come aumentando il passo riduciamo il tempo di calcolo e il numero di pixels dell’immagine nonostante sia ancora possibile individuare i valori piu’ alti della convoluzione grazie ai pixel piu’ brillanti in alcune zone dell’aereo. Adesso andiamo a vedere come lavora un singolo strato convolutivo e cosa succede quando ne mettiamo insieme un certo numero. La figura 8 mostra cosa succede all’interno dello strato convoluzionale che consiste di 3 stadi: convoluzione, attivazione non lineare, e pooling. L’operazione di convoluzione l’abbiamo discussa nella prima parte. Adesso vediamo le altre 2 operazioni.&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1mpNrdxHvzhZcBR_luEdI9MNDeEuFpC4U"&gt;&lt;img title="clip_image032_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image032_thumb1" src="https://drive.google.com/uc?id=1VB3SMljUcOaMo8_I99mc4S2iplR8puDU" width="482" height="245" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 8 — I 3 stadi di uno strato convolutivo.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;L’attivazione non lineare e’ conosciuta anche come lo stadio del rivelatore. Qui il risultato della convoluzione e il bias vengono sottomessi ad una funzione di attivazione non lineare come la funzione &lt;a href="https://deepai.org/machine-learning-glossary-and-terms/rectified-linear-units"&gt;&lt;font color="#80ffff"&gt;ReLU&lt;/font&gt;&lt;/a&gt;. Quest’ ultima non cambia la dimensione della feature map ma modula solo i valori contenuti in essa. Ma che cosa e’ un’attivazione non lineare? Prima di tutto ricordiamo che la non linearita’ in una rete neurale ANN la rende migliore in termini di approssimazione&amp;#160; di funzioni. Una delle funzioni di attivazione non lineare piu’ utilizzata e’ la funzione ReLU, che sta per Rectified Linear Unit. Questa funzione e’ data da:&lt;/p&gt; &lt;a href="https://drive.google.com/uc?id=1Kv60V8-vfZ0ER6FShng4O0F_kMAUBidv"&gt;&lt;img title="image48_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image48_thumb" src="https://drive.google.com/uc?id=1HnOkVtMeBu7_obCg4vRpzOsrzpbjBmif" width="188" height="66" /&gt;&lt;/a&gt;&amp;#160; &lt;p align="justify"&gt;Questa funzione quando applicata con un bias, da’ origine a grafici com quelli illustrati in Figura 9.&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;h3 align="center"&gt;&lt;a href="https://drive.google.com/uc?id=1GQaYm3dnWXYyHbDCeE8FTG3BYjkVOK5x"&gt;&lt;img title="image51_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image51_thumb" src="https://drive.google.com/uc?id=1kqs0QtV34JVAwc4SKfTn87iCJ65KmWla" width="423" height="116" /&gt;&lt;/a&gt;&amp;#160; &lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 9 — Grafico della funzione ReLU.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;La figura 10 mostra come la ReLU modula il risultato della convoluzione. L’immagine e il kernel sono gli stessi della figura 2 dove la convolution output e’ quella che prima abbiamo chiamata la feature map. &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1FTYrve9bdfNCIQ1W8YRTyxI392Y2K5Sx"&gt;&lt;img title="clip_image038_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image038_thumb" src="https://drive.google.com/uc?id=1wqzt4Pm2mclT7fPS00hrFL5ivBsIVNTF" width="429" height="280" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 10 — La funzione ReLU applicata all’aoutput della convoluzione.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;L’immagine equivalente in scala di grigio prima e dopo l’applicazione della funzione ReLU e’ riportata in Figura 11. Notare come alcuni dei valori intermedi sono stati anneriti facendo risaltare ancora di piu’ i 3 pixels con valore diverso da zero. &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1pvkW4_W4rLpedNjGDGK0RHTlW5FmApTz"&gt;&lt;img title="image_thumb22" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image_thumb22" src="https://drive.google.com/uc?id=1eMlI-9aKpjYI5NAetpKT05li7NkCGqYP" width="311" height="119" /&gt;&lt;/a&gt;&amp;#160; &lt;font style="font-weight: normal;" size="2"&gt;Figura 11 — Rappresentazione visuale della funzione ReLU applicata all’output della convoluzione.&lt;/font&gt;&lt;/h3&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Nella figura 12, si puo’ vedere come lavora il bias nella funzione ReLU. Il bias si comporta come una soglia che determina cosa mostrare e cosa no. &lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1dATTq1jFJi4EYdc6jw4OL7NDKVHyEoTc"&gt;&lt;img title="clip_image042_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image042_thumb" src="https://drive.google.com/uc?id=1SdANrTihFnm4_udLASQeiKrGhAAHXOdV" width="311" height="170" /&gt;&lt;/a&gt;&lt;a href="https://drive.google.com/uc?id=1ib10CigY1qJuGF-uErNe6kSXZw93Tm66"&gt;&lt;img title="clip_image044_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image044_thumb" src="https://drive.google.com/uc?id=1BevTRAcRBODk8IatgdFR9PyVG-ZIeAbx" width="311" height="170" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;Figura 12 — Diversi valori di bias applicati allo stesso risultato della convoluzione dell’immagine contenente le ruote dell’aereo.&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Il comportamento a soglia della figura 12 rassomiglia ai neuroni biologici, che non si attivano quado ricevono uno stimolo al di sotto di una certa soglia. Se lo stimolo supera la soglia, il neurone si accende e la frequenza di accensione cresce con l’aumento dello stimolo. In Figura 12, quando il bias e’ 500, esso contribuisce all’attivita’ dei neuroni artificiali. Ma se definiamo il bias a -1000, allora il neurone artificiale si accende solo son stimoli piu’ forti. Per concludere la funzione ReLU lavora come un neurone del nostro cervello. Questo spiega perche’ questa fase e’ chiamata la fase di rivelazione. La funzione ReLU e’ quella che rivela la presenza di una feature estratta dal kernel. Di conseguenza c’e’ un singolo bias per ogni kernel, perche’ ogni feature richiede una differente soglia di attivazione. Alla fine, arriva l’operazione di pooling. Si tratta di un’operazione di sottocampionamento eseguita su ogni feature map. Essa estrae i receptive fields dalla feature map e li rimpiazza con un singolo valore. Questo valore puo’ essere ottenuto attraverso diversi criteri di aggregazione, come il valore massimo, media o media pesata in base alla distanza dal centro del receptive field. Oltre ai criteri di aggregazione ci sono altri 2 &lt;a href="https://deepai.org/machine-learning-glossary-and-terms/hyperparameter"&gt;&lt;font color="#80ffff"&gt;ipeparametri&lt;/font&gt;&lt;/a&gt; nell’operazione di pooling: la dimensione del receptive field e il passo. In modo simile allo stride, l’operazione di pooling genera meno dati di quelli processati dalla convoluzione. Una differenza e’ che invece di saltare dei dati, l’operazione di pooling cerca di riassumere il receptive field in un singolo valore. Un’altra differenza e’ che il passo viene applicato prima della convoluzione, mentre il pooling viene applicato sui risultati della convoluzione, riducendo il volume dei dati al prossimo strato. Inoltre il receptive field dell’operazione di pooling e’ bidimensionale in quanto esso viene applicato ad ogni feature della mappa individualmente mentre il receptive field della convoluzione e’ tri-dimensionale. Un effetto desiderato collaterale del pooling e’ che aumenta l’invarianza delle transazioni degli inputs. Questo effetto a’ amplificato dal numero di strati convoluzionali seguiti dagli strati di pooling. La figura 13 mostra la propagazione dei valori attraverso due strati di pooling con size 3x3 e stride di 2. Per ogni regione di attivazione colorata in blu l’input feature map influenza la regione colorata in blu in uscita dal pooling 1. Allo stesso modo , le attivazioni nella regione coperta di blu in uscita del pooling 1 influenzano la regione ricoperta di blu in uscita del pooling 2. La stessa relazione e’ valida tra le regioni di colore verde. &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1oPA2-x_uYglpFvPC8__psBbBL0SjLjYc"&gt;&lt;img title="image59_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="image59_thumb1" src="https://drive.google.com/uc?id=1JjxDA3pyIHoPtaS5j58SypPsuTuDZfmf" width="301" height="160" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 13–Propagazione di valori attraverso gli strati di pooling con dimensione 3x3 e stride 2. In questo esempio, gli strati convoluzionali sono stati omessi per chiarezza.&lt;/font&gt;&lt;/font&gt;&lt;font style="font-weight: normal;"&gt; &lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Considerando che il pooling in Figure 13 e’ il &lt;a href="https://deepai.org/machine-learning-glossary-and-terms/max-pooling"&gt;&lt;font color="#80ffff"&gt;max pooling&lt;/font&gt;&lt;/a&gt;, indipendentemente da dove capita il valore piu’ alto nella feature map blu in input, esso verra’ propagato nella matrice blu in uscita. Questa e’ la ragione per cui gli strati di pooling amplificano l’invarianza traslazionale (piccole variazioni in ingresso non cambiano i valori in uscita). La figura 14 mostra l’effetto delle diverse combinazioni di strides nella convoluzione, bias nella funzione ReLU,&amp;#160; dimensione del pooling e i passi (strides) di pooling. Sulla sinistra ci sono 3 esempi di strides: 2, 9, e 16. Per ogni opzione di stride ci sono 3 esempi di bias: 500, -250, e -1000. Per ogni bias, ci sono 3 esempi di dimensione del pooling e stride: 3x3 e 2, 5x5 e 3, 7x7 e stride of 4.&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1h5iFHx6SpZKFJhYFpXLfOiamWOfnKL0U"&gt;&lt;img title="clip_image048_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image048_thumb" src="https://drive.google.com/uc?id=1oNEs1uKWINFkoQzSG5JmgoqtK68IE_rC" width="393" height="571" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 14– effetti di diversi iperparametri nella convoluzione, ReLU e max pooling.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;L’ effetto dello stride nella convoluzione e dello stride nel max-pooling e’ cumulativo. Quando usiamo un passo di 2 sia nella convoluzione che nel max pooling, il risultato finale e’ una riduzione di quasi 4 volte la larghezza e l’altezza della feature map. Il valore 16 come passo nella convoluzione e di 4 nel max pooling sono abbastanza inusuali. In questo caso sono stati intenzionalmente esagerati per illustrare l’impatto che hanno sul risultato finale dello strato di convoluzione. Gli elementi costitutivi di una rete AlexNet vengono rappresentati in figura 14. Le piramidi riportate con linee spezzate rappresentano l’esecuzione delle convoluzioni usando un receptive field dagli inputs o la feature map dagli strati precedenti. Le grosse scatole rappresentano le feature maps mentre le scatole piccole all’interno delle feature maps sono i receptive fields. Questo tipo di CNN riescono a classificare oggetti in 1000 diverse classi. &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=10GtgJDOa-WCsJq--iyLmDBjJr5Jdfog3"&gt;&lt;img title="clip_image050_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image050_thumb" src="https://drive.google.com/uc?id=1_JP-UOTHD8IMmAP8rMUIDqv8fsKQoRsQ" width="407" height="193" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 15 — Architettura di AlexNet CNN.&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Una peculiarita’ di questa architettura e’ che essa viene addestrata usando 2 &lt;a href="https://en.wikipedia.org/wiki/Graphics_processing_unit"&gt;&lt;font color="#80ffff"&gt;GPU&lt;/font&gt;&lt;/a&gt; (Graphics processing units). Gli elementi al top della figura 15 sono stati allocati in una GPU, mentre gli elementi al bottom sono stati allocati in un’altra GPU. Questa rete CNN gia’ addestrata e’ possibile trovarla in qualche framework come &lt;a href="https://deepai.org/machine-learning-glossary-and-terms/pytorch"&gt;&lt;font color="#80ffff"&gt;PyTorch&lt;/font&gt;&lt;/a&gt;. In questi casi c’e’ bisogno di conoscere &lt;a href="https://en.wikipedia.org/wiki/Python_(programming_language)"&gt;&lt;font color="#80ffff"&gt;Python&lt;/font&gt;&lt;/a&gt; e buttare giu’ linee di codice prima di ottenere i risultati sperati. Un modo alternativo che non richiede nessuna linea di codice e’ quello di costruire una rete personalizzata CNN usando per esempio l’eccellente console per deep neural net messa a disposizione dalla Deep Cognition (o deep learning studio &lt;a href="https://deepcognition.ai/"&gt;&lt;font color="#80ffff"&gt;DLS&lt;/font&gt;&lt;/a&gt;). Si tratta di un sistema user-friendly con molte features, incluso la possibilita’ di disegnare la topologia della rete senza scrivere nessuna linea di codice interagendo con una semplice GUI. Come riportato dai creatori di questa piattaforma, Deep Cognition nasce con lo scopo di democratizzare l’intelligenza artificiale. La loro piattaforma e’ disponibile sia come soluzione &lt;a href="https://en.wikipedia.org/wiki/Cloud_computing"&gt;&lt;font color="#80ffff"&gt;Cloud&lt;/font&gt;&lt;/a&gt; che come Desktop solution nel qual caso il software girera’ sul personal PC . L’interfaccia permette un semplice drag &amp;amp; drop che aiuta a mettere insieme i diversi pezzi di una deep net. C’e’ anche la possibilita’ di utilizzare delle reti &lt;a href="https://luigisaetta.it/index.php/deep-learning-ai/45-uso-di-reti-pre-trained-efficientnet"&gt;&lt;font color="#80ffff"&gt;pre-trained&lt;/font&gt;&lt;/a&gt; come &lt;a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6694266/"&gt;&lt;font color="#80ffff"&gt;Inception&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://en.wikipedia.org/wiki/Residual_neural_network"&gt;&lt;font color="#80ffff"&gt;ResNet&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/1704.04861"&gt;&lt;font color="#80ffff"&gt;MobileNet&lt;/font&gt;&lt;/a&gt; e cosi via per velocizzare la fase di apprendimento. Questo e’ possibile in quanto nei primi layers di una rete vengono catturate le feature piu’ importanti e molto generiche che possono essere utilizzate per esempio nella classificazione di qualsiasi immagine. La piattaforma salva velocemente qualsiasi modello dopo il training e l’aggiustamento degli iper-parametri (come per esempio &lt;a href="https://en.wikipedia.org/wiki/Learning_rate"&gt;&lt;font color="#80ffff"&gt;learning rate&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://www.jigsawacademy.com/blogs/ai-ml/epoch-in-machine-learning"&gt;&lt;font color="#80ffff"&gt;epochs&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://deeplizard.com/learn/video/U4WB9p6ODjM"&gt;&lt;font color="#80ffff"&gt;batch size&lt;/font&gt;&lt;/a&gt; etc) della rete.&lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1Z-rmwbt1MjIQ8RgzfOKbNoQkLwRIgUzW"&gt;&lt;img title="clip_image052_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image052_thumb" src="https://drive.google.com/uc?id=1UJ8ll2oaY9_QGAvChQWVFM-v1Y1DBl_G" width="337" height="204" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Di seguito un esempio di utilizzo di una CNN per il riconoscimento delle 9 cifre scritte a mano (il famoso &lt;a href="https://en.wikipedia.org/wiki/MNIST_database"&gt;&lt;font color="#80ffff"&gt;MNIST&lt;/font&gt;&lt;/a&gt; dataset – fig. 16). In questo caso ogni cifra e’ rappresentata da un’array 28x28 come mostrato nella figura 17 e valori da 0 a 255 (28X28X1).&lt;/p&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1Te1xwM34RYwHqR4J7iHjxi0DkNYzv9w1"&gt;&lt;img title="clip_image054_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image054_thumb1" src="https://drive.google.com/uc?id=15X8n76WDnL3XMZrD8b7ohvQY6Z0vMrE0" width="129" height="99" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Fig 16. Alcune &lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;delle cifre del dataset MNIST&lt;/font&gt;&lt;/font&gt;&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=14Fc89D21ge8x75dBQapqqVsLWf2YzK_O"&gt;&lt;img title="clip_image056_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image056_thumb" src="https://drive.google.com/uc?id=1jdoicybh-qsafaXM4oMVKLrefbBGUdym" width="311" height="165" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 17. La rappresentazione matriciale dell’ 8&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;In figura 18 invece e’ riportata la divisione del database in training set (90%), validation set (5%) e test set (5%). Tutte le righe del database vengono presentate alla rete a batch (insieme di piu’ righe per abbattere il rumore)&lt;/p&gt;  &lt;p&gt;&lt;a href="https://drive.google.com/uc?id=1U9jlAKPGZAEhStuKrBQHx4RIORwhoRli"&gt;&lt;img title="clip_image058_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image058_thumb" src="https://drive.google.com/uc?id=1uAu7i6CYHPqA6MBaGP3yOyX6M9bJB-Ki" width="390" height="246" /&gt;&lt;/a&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;Figura 18. Data pre-processing&lt;/font&gt;&lt;/p&gt;  &lt;p align="center"&gt;&lt;font size="2"&gt;&lt;/font&gt;&lt;/p&gt;  &lt;p align="justify"&gt;Deep Learning Studio permette di disegnare una qualsiasi rete senza scrivere nessuna riga di codice ma semplicemente mettendo insieme i diversi moduli a disposizione, oppure provvedendo esso stesso a costruire l’architettura della rete in modo automatico senza alcun intervento da parte dell’analista grazie ad un’avanzata feature chiamata AutoML (figura 19), che crea per l’utente l’intera pipeline per andare dai dati grezzi fino alla predizione. In figura&amp;#160; 20 la rete convoluzionale utilizzata per la classificazione del data set MNIST.&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=142G2iEarjYp3KhwOQm3hnmakNbvujgF1"&gt;&lt;img title="clip_image060_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image060_thumb" src="https://drive.google.com/uc?id=13RAujIOMyYuyttpcsVGWPOy3VnYC-4O2" width="281" height="214" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figure 19. AutoML&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1X0vt2z4DZh04l9ZlpjZFkmYCkY8rmtn4"&gt;&lt;img title="clip_image062_thumb4" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image062_thumb4" src="https://drive.google.com/uc?id=1LxYercfZrNg0oQXCNjxNp6oqEvBOtZui" width="585" height="563" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 20. L’architettura della CNN&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="center"&gt;&amp;#160;&lt;/p&gt; &lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;&lt;/font&gt;&lt;/font&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1TGQbZvH--6vt-uNDI62mOQxDXBncAyKA"&gt;&lt;img title="clip_image064_thumb" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image064_thumb" src="https://drive.google.com/uc?id=1kdhLnTA_wfzy1NUkRf3Z7cv840HEdOi8" width="272" height="233" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 21. Iperparametri&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Una volta stabiliti i valori degli iper-parametri (figura 21)&amp;#160; si passa alla fase di training della rete CNN. Dopo appena 6 epoche su 10 la rete ha raggiunto un’&lt;a href="http://ithaca.unisalento.it/nr-16_2020/articolo_IIp_06.pdf"&gt;&lt;font color="#80ffff"&gt;accuratezza&lt;/font&gt;&lt;/a&gt; del 89% per il training set e il 91% per il set di validation. Un risultato niente male (figura 22). &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1AOkNpHLNf60OTYbDPuLblf5v-8ffqZ0Y"&gt;&lt;img title="clip_image066_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image066_thumb1" src="https://drive.google.com/uc?id=1u7ofqNyPTmAGGYlLTJLpgVlofGdYAZDk" width="536" height="221" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 22. Training della rete CNN con i risultati di accuracy e loss&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p&gt;&amp;#160;&lt;/p&gt;  &lt;p&gt;Qui alcune cifre del test set riconosciute dalla rete con a fianco&amp;#160; la probabilita’ della predizione. Per il 4 nella prima riga, per esempio la rete e’ sicura all’82% che si tratti proprio di un quattro e cosi via per le altre cifre (figura 23). &lt;/p&gt;  &lt;h3&gt;&lt;a href="https://drive.google.com/uc?id=1poqNtfg19J36qiBhWnPdAdZa9rLC9fk3"&gt;&lt;img title="clip_image068_thumb1" style="border: 0px currentcolor; margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;" border="0" alt="clip_image068_thumb1" src="https://drive.google.com/uc?id=1Ve0CzJx2Kecx3Lat-koQE05j3y8KJgVc" width="222" height="467" /&gt;&lt;/a&gt;&lt;/h3&gt;  &lt;h3 align="center"&gt;&lt;font size="2"&gt;&lt;font style="font-weight: normal;"&gt;Figura 23. Predizione della rete per le cifre del test set&lt;/font&gt;&lt;/font&gt;&lt;/h3&gt;  &lt;p align="justify"&gt;&amp;#160;&lt;/p&gt;  &lt;p align="justify"&gt;Questo sistema DLS e’ nato con la promessa di rendere facile l’intelligenza artificiale; non c’e’ bisogno di essere un esperto per realizzare modelli molto complessi anche se e’ opportuno avere almeno un’idea di quello che si sta facendo leggendo i documenti di help e i tutorial presenti sul sito della Deep cognition. Non resta che provare. Buon divertimento.&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2021/12/le-reti-neurali-convoluzionali.html</link><author>noreply@blogger.com (Felice)</author><thr:total>0</thr:total><enclosure length="229942" type="application/pdf" url="http://ithaca.unisalento.it/nr-16_2020/articolo_IIp_06.pdf"/><itunes:explicit>no</itunes:explicit><itunes:subtitle>Le reti neuronali convoluzionali (CNN) sono un particolare tipo di reti neurali artificali (ANN) utilizzate per lo piu’ per la classificazione delle immagini. Le CNNs si ispirano al principio biologico della riproduzione di una struttura capace di identificare dei patterns in diversi luoghi descritta nell’articolo dei premi Nobel Hubel e Wiesel pubblicato nel 1962 e dal titolo: “Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex”. Queste reti oltre alla classificazione delle immagini hanno mostrato buoni risultati anche con le analisi delle serie temporali e il riconoscimento vocale. Esse sono diventate molto popolari dopo che nel 2012 hanno vinto la competizione &amp;#160;Imagenet Large Scale Visual Recognition Challenge (ILSVRC)&amp;#160; con un margine addirittura del 10%.&amp;#160; Alex Krizhevsky e Ilya Sutskever, sotto la guida di Geoffrey Hinton, proposero l’architettura CNN che presto divento’ famosa con il nome di “AlexNet”. A quel tempo, Geoffrey Hinton era gia’ conosciuto per i suoi contributi scientifici nel campo delle reti neurali artificiali. Egli era stato uno dei contributori dell’algoritmo di Backpropagation nel 1986, e delle macchine di Boltzmann nel 1983. Queste sono alcune delle ragioni per cui Geoffrey Hinton e’ stato riconosciuto come uno dei padri del Deep Learning. Una CNN tipica e’ composta da una serie di strati convoluzionali, che agiscono come estrattori di features, seguiti da un classificatore, in genere un Multilayer Perceptron (MLP), anche conosciuto come una rete a strati completamente connessi (FC) come mostrato in figura 1. Figura 1. Gli strati di una CNN &amp;#160; Il primo strato riceve in input un’immagine rappresentata nei 3 canali colore RGB. Questo significa avere un array con una certo numero di pixels come per esempio 100x100 ripetuto 3 volte, uno per ogni canale colore. Si tratta quindi di un oggetto con dimensione 100x100x3 che prende il nome di tensore. Infatti l’immagine 100x100 e’ una matrice bidimensionale mentre l’aggiunta dei 3 canali rende questo oggetto non piu’ bidimensionale ma tridimensionale come si puo’ vedere nella prima parte della figura 1. Il primo strato esegue le convoluzione dell’immagine in ingresso con diversi kernel, generando una serie di feature maps del primo strato. Ogni feature map determina l’intensita’ e la localizzazione di una specifica feature. La feature map estratta dallo strato convoluzionale puo’ essere sottomessa ad un’operazione di downsampling conosciuta come Pooling. Questa operazione e’ opzionale cosi e’ possible che essa non segua tutti gli strati convoluzionali. Il risultato di uno strato di Pooling e’ un altro insieme di feature maps ma con ridotta risoluzione. Il successivo strato convoluzionale usa la feature map dello strato precedente per eseguire piu’ convoluzioni e generare nuove feature maps. Le feature maps dell’ultimo strato diventano l’input del classificatore e cioe’ degli strati FC full connected. L’operazione di convoluzione che viene indicata con un asterisco ∗, puo’ essere descritta con la seguente formula: essendo x un tipo di input, t un tempo e k il kernel applicato. Il kernel in pratica e’ una matrice di pesi ed esso viene applicato ad una sotto matrice dell’immagine conosciuta come receptive field in biologia (una regione sensoriale che stimola un neurone). La moltiplicazione tra il receptive field e il kernel consiste nella moltiplicazione di ogni pixel e i rispettivi elementi del kernel. Dopo le moltiplicazioni, i risultati vengono aggiunti a formare un elemento della feature map definita dall’equazione con 3 canali RGB: &amp;#160; Le seguenti immagini mostrano l’operazione di convoluzione per un’immagine in grigio 5x5 e un kernel 3x3. Il receptive field e’ stato evidenziato in rosso. L’output della convoluzione e’ una feature map 3x3. Occhio. Le 2 matrici kernel e Recept non vengono moltiplicate con la regola delle matrici ma semplicemente moltiplicando un elemento alla volta. Ogni cella della feature map viene costruita facendo la somma di tutti gli elementi della matrice ottenuta con la moltiplicazione e indicata con sum nella figura. Figure 2 — Alcuni steps della convoluzione di un’immagine 5x5 con un kernel 3x3. Le immagini utilizzate in figura 2 possono essere viste nella figura 3. I valori del kernel e della feature map sono stati riscalati tra 0 e 255 per essere rappresentati in una scala di grigi. I pixels bianchi corrispondono a valori prossimi a 255 mentre quelli neri a valori prossimi allo 0. Figure 3 — Convoluzione di una matrice 5x5 con un kernel 3x3 &amp;#160; Poiche’ la convoluzione della figura 2 usa un kernel 3x3 ci sono 9 possibili receptive fields in input ognuno con una dimensione 3x3. Notare che quando la Receptive field contiene tutti pixels chiari la somma delle celle della matrice ottenuta agendo con il kernel e’ scura e viceversa. Nella figura 2 infatti quando la receptive field ha tutti valori maggiori di 200 la cella corrispondente nella feature map ha come valore 44. Questo e’ dovuto al fatto che il kernel utilizzato evidenzia i contorni passando da un colore brillante sulla sinistra ad un colore scuro sulla destra della matrice. Vediamo adesso cosa accade se applichiamo lo stesso kernel ad un immagine che ha una transizione da una regione scura a sinistra ad una chiara sulla destra. In Figura 4, il receptive field esibisce la transizione dai pixel scuri a quelli chiari e da quelli chiari a quelli scuri. Notare come il kernel identifica gli estremi della stripe segnalandoli con una fascia chiara a sinistra e una scura a destra. Figure 4 — Convoluzione di un immagine 17x17 con un kernel per evidenziare gli estremi &amp;#160; Passiamo adesso ad un esempio pratico. Qui di seguito la foto a colori di un aereo su cui viene applicato un kernel 3x3 estratto da una piccola regione dell’immagine stessa. &amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160; &amp;#160; &amp;#160; Figure 5 — Esempi di convoluzione . &amp;#160; Nel primo esempio, il kernel comprende la regione della foto con il numero 6 in bianco. L’immagine in grigio sulla destra e’ il risultato della convoluzione tra il kernel e l’immagine stessa. I pixels piu’ scuri rappresentano I valori piu’ bassi ottenuti dall’operazione del kernel sulla receprive field mentre quelli piu’ chiari rappresentano I valori piu’ alti. Nel secondo esempio il kernel e’ costituito da una ruota dell’aereo mentre nel terzo viene riportato il colore giallo dell’aereo. Notare che I pixels piu’ brillanti sono quelli che corrispondono alla parte dell’immagine contenuta nel kernel: numero 6 nel primo caso, la ruota nel secondo e le pareti di colore giallo dell’aereo nel terzo. Osserviamo anche che se la seconda ruota non e’ contenuta nel kernel anch’essa risulta brillante essendo molto simile alla prima ruota. Altra caratteristica importante di una CNN e’ il passo (stride) tra ogni receptive field. Tutti gli esempi mostrati fino ad adesso avevano passo 1. L’adozione di un passo cosi piccolo risulta in una sovrapposizione abbastanza spinta tra i receptive field. Il risultato e’ che molta informazione viene ripetuta tra i receptive field adiacenti come mostrato in figura 6. &amp;#160; Figure 6 – Receptive field con passo (stride) 1. In caso di&amp;#160; kernel con dimensioni 3x3, l’utilizzo di un passo (stride) 2 risulta in una colonna o riga di sovrapposizione con il receptive field adiacente. Aumentando lo stride si riduce il costo computazionale del PC. Passando da uno stride di 1 a 2 abbiamo una riduzione del costo di un fattore 4. Questo accade in quanto lo stride 2 impatta la distanza tra i receptive field in entrambe le dimensioni. Allo stesso modo se triplichiamo il passo il costo computazionale si ridurra’ di un fattore 9. Il costo di computazione si riduce in quanto aumentando il passo si riduce il numero di receptive field estratti dall’input e di conseguenza si riduce la dimensione dell’output. La figura 7 mostra 4 esempi di convoluzione con passi (strides) di 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70. Notare che aumentando il passo di un fattore 2 il tempo di esecuzione si riduce di circa un fattore 4. Figura 7 — Esempi di stride 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70. Grafico del tempo di elaborazione verso lo stride Osserviamo come aumentando il passo riduciamo il tempo di calcolo e il numero di pixels dell’immagine nonostante sia ancora possibile individuare i valori piu’ alti della convoluzione grazie ai pixel piu’ brillanti in alcune zone dell’aereo. Adesso andiamo a vedere come lavora un singolo strato convolutivo e cosa succede quando ne mettiamo insieme un certo numero. La figura 8 mostra cosa succede all’interno dello strato convoluzionale che consiste di 3 stadi: convoluzione, attivazione non lineare, e pooling. L’operazione di convoluzione l’abbiamo discussa nella prima parte. Adesso vediamo le altre 2 operazioni. &amp;#160; Figura 8 — I 3 stadi di uno strato convolutivo. &amp;#160; L’attivazione non lineare e’ conosciuta anche come lo stadio del rivelatore. Qui il risultato della convoluzione e il bias vengono sottomessi ad una funzione di attivazione non lineare come la funzione ReLU. Quest’ ultima non cambia la dimensione della feature map ma modula solo i valori contenuti in essa. Ma che cosa e’ un’attivazione non lineare? Prima di tutto ricordiamo che la non linearita’ in una rete neurale ANN la rende migliore in termini di approssimazione&amp;#160; di funzioni. Una delle funzioni di attivazione non lineare piu’ utilizzata e’ la funzione ReLU, che sta per Rectified Linear Unit. Questa funzione e’ data da: &amp;#160; Questa funzione quando applicata con un bias, da’ origine a grafici com quelli illustrati in Figura 9. &amp;#160; &amp;#160; Figura 9 — Grafico della funzione ReLU. &amp;#160; La figura 10 mostra come la ReLU modula il risultato della convoluzione. L’immagine e il kernel sono gli stessi della figura 2 dove la convolution output e’ quella che prima abbiamo chiamata la feature map. Figura 10 — La funzione ReLU applicata all’aoutput della convoluzione. &amp;#160; L’immagine equivalente in scala di grigio prima e dopo l’applicazione della funzione ReLU e’ riportata in Figura 11. Notare come alcuni dei valori intermedi sono stati anneriti facendo risaltare ancora di piu’ i 3 pixels con valore diverso da zero. &amp;#160; Figura 11 — Rappresentazione visuale della funzione ReLU applicata all’output della convoluzione. &amp;#160; Nella figura 12, si puo’ vedere come lavora il bias nella funzione ReLU. Il bias si comporta come una soglia che determina cosa mostrare e cosa no. Figura 12 — Diversi valori di bias applicati allo stesso risultato della convoluzione dell’immagine contenente le ruote dell’aereo. Il comportamento a soglia della figura 12 rassomiglia ai neuroni biologici, che non si attivano quado ricevono uno stimolo al di sotto di una certa soglia. Se lo stimolo supera la soglia, il neurone si accende e la frequenza di accensione cresce con l’aumento dello stimolo. In Figura 12, quando il bias e’ 500, esso contribuisce all’attivita’ dei neuroni artificiali. Ma se definiamo il bias a -1000, allora il neurone artificiale si accende solo son stimoli piu’ forti. Per concludere la funzione ReLU lavora come un neurone del nostro cervello. Questo spiega perche’ questa fase e’ chiamata la fase di rivelazione. La funzione ReLU e’ quella che rivela la presenza di una feature estratta dal kernel. Di conseguenza c’e’ un singolo bias per ogni kernel, perche’ ogni feature richiede una differente soglia di attivazione. Alla fine, arriva l’operazione di pooling. Si tratta di un’operazione di sottocampionamento eseguita su ogni feature map. Essa estrae i receptive fields dalla feature map e li rimpiazza con un singolo valore. Questo valore puo’ essere ottenuto attraverso diversi criteri di aggregazione, come il valore massimo, media o media pesata in base alla distanza dal centro del receptive field. Oltre ai criteri di aggregazione ci sono altri 2 ipeparametri nell’operazione di pooling: la dimensione del receptive field e il passo. In modo simile allo stride, l’operazione di pooling genera meno dati di quelli processati dalla convoluzione. Una differenza e’ che invece di saltare dei dati, l’operazione di pooling cerca di riassumere il receptive field in un singolo valore. Un’altra differenza e’ che il passo viene applicato prima della convoluzione, mentre il pooling viene applicato sui risultati della convoluzione, riducendo il volume dei dati al prossimo strato. Inoltre il receptive field dell’operazione di pooling e’ bidimensionale in quanto esso viene applicato ad ogni feature della mappa individualmente mentre il receptive field della convoluzione e’ tri-dimensionale. Un effetto desiderato collaterale del pooling e’ che aumenta l’invarianza delle transazioni degli inputs. Questo effetto a’ amplificato dal numero di strati convoluzionali seguiti dagli strati di pooling. La figura 13 mostra la propagazione dei valori attraverso due strati di pooling con size 3x3 e stride di 2. Per ogni regione di attivazione colorata in blu l’input feature map influenza la regione colorata in blu in uscita dal pooling 1. Allo stesso modo , le attivazioni nella regione coperta di blu in uscita del pooling 1 influenzano la regione ricoperta di blu in uscita del pooling 2. La stessa relazione e’ valida tra le regioni di colore verde. Figura 13–Propagazione di valori attraverso gli strati di pooling con dimensione 3x3 e stride 2. In questo esempio, gli strati convoluzionali sono stati omessi per chiarezza. &amp;#160; Considerando che il pooling in Figure 13 e’ il max pooling, indipendentemente da dove capita il valore piu’ alto nella feature map blu in input, esso verra’ propagato nella matrice blu in uscita. Questa e’ la ragione per cui gli strati di pooling amplificano l’invarianza traslazionale (piccole variazioni in ingresso non cambiano i valori in uscita). La figura 14 mostra l’effetto delle diverse combinazioni di strides nella convoluzione, bias nella funzione ReLU,&amp;#160; dimensione del pooling e i passi (strides) di pooling. Sulla sinistra ci sono 3 esempi di strides: 2, 9, e 16. Per ogni opzione di stride ci sono 3 esempi di bias: 500, -250, e -1000. Per ogni bias, ci sono 3 esempi di dimensione del pooling e stride: 3x3 e 2, 5x5 e 3, 7x7 e stride of 4. Figura 14– effetti di diversi iperparametri nella convoluzione, ReLU e max pooling. L’ effetto dello stride nella convoluzione e dello stride nel max-pooling e’ cumulativo. Quando usiamo un passo di 2 sia nella convoluzione che nel max pooling, il risultato finale e’ una riduzione di quasi 4 volte la larghezza e l’altezza della feature map. Il valore 16 come passo nella convoluzione e di 4 nel max pooling sono abbastanza inusuali. In questo caso sono stati intenzionalmente esagerati per illustrare l’impatto che hanno sul risultato finale dello strato di convoluzione. Gli elementi costitutivi di una rete AlexNet vengono rappresentati in figura 14. Le piramidi riportate con linee spezzate rappresentano l’esecuzione delle convoluzioni usando un receptive field dagli inputs o la feature map dagli strati precedenti. Le grosse scatole rappresentano le feature maps mentre le scatole piccole all’interno delle feature maps sono i receptive fields. Questo tipo di CNN riescono a classificare oggetti in 1000 diverse classi. Figura 15 — Architettura di AlexNet CNN. Una peculiarita’ di questa architettura e’ che essa viene addestrata usando 2 GPU (Graphics processing units). Gli elementi al top della figura 15 sono stati allocati in una GPU, mentre gli elementi al bottom sono stati allocati in un’altra GPU. Questa rete CNN gia’ addestrata e’ possibile trovarla in qualche framework come PyTorch. In questi casi c’e’ bisogno di conoscere Python e buttare giu’ linee di codice prima di ottenere i risultati sperati. Un modo alternativo che non richiede nessuna linea di codice e’ quello di costruire una rete personalizzata CNN usando per esempio l’eccellente console per deep neural net messa a disposizione dalla Deep Cognition (o deep learning studio DLS). Si tratta di un sistema user-friendly con molte features, incluso la possibilita’ di disegnare la topologia della rete senza scrivere nessuna linea di codice interagendo con una semplice GUI. Come riportato dai creatori di questa piattaforma, Deep Cognition nasce con lo scopo di democratizzare l’intelligenza artificiale. La loro piattaforma e’ disponibile sia come soluzione Cloud che come Desktop solution nel qual caso il software girera’ sul personal PC . L’interfaccia permette un semplice drag &amp;amp; drop che aiuta a mettere insieme i diversi pezzi di una deep net. C’e’ anche la possibilita’ di utilizzare delle reti pre-trained come Inception, ResNet, MobileNet e cosi via per velocizzare la fase di apprendimento. Questo e’ possibile in quanto nei primi layers di una rete vengono catturate le feature piu’ importanti e molto generiche che possono essere utilizzate per esempio nella classificazione di qualsiasi immagine. La piattaforma salva velocemente qualsiasi modello dopo il training e l’aggiustamento degli iper-parametri (come per esempio learning rate, epochs, batch size etc) della rete. &amp;#160; Di seguito un esempio di utilizzo di una CNN per il riconoscimento delle 9 cifre scritte a mano (il famoso MNIST dataset – fig. 16). In questo caso ogni cifra e’ rappresentata da un’array 28x28 come mostrato nella figura 17 e valori da 0 a 255 (28X28X1). &amp;#160; Fig 16. Alcune delle cifre del dataset MNIST &amp;#160; Figura 17. La rappresentazione matriciale dell’ 8 &amp;#160; In figura 18 invece e’ riportata la divisione del database in training set (90%), validation set (5%) e test set (5%). Tutte le righe del database vengono presentate alla rete a batch (insieme di piu’ righe per abbattere il rumore) Figura 18. Data pre-processing Deep Learning Studio permette di disegnare una qualsiasi rete senza scrivere nessuna riga di codice ma semplicemente mettendo insieme i diversi moduli a disposizione, oppure provvedendo esso stesso a costruire l’architettura della rete in modo automatico senza alcun intervento da parte dell’analista grazie ad un’avanzata feature chiamata AutoML (figura 19), che crea per l’utente l’intera pipeline per andare dai dati grezzi fino alla predizione. In figura&amp;#160; 20 la rete convoluzionale utilizzata per la classificazione del data set MNIST. Figure 19. AutoML &amp;#160; Figura 20. L’architettura della CNN &amp;#160; Figura 21. Iperparametri &amp;#160; Una volta stabiliti i valori degli iper-parametri (figura 21)&amp;#160; si passa alla fase di training della rete CNN. Dopo appena 6 epoche su 10 la rete ha raggiunto un’accuratezza del 89% per il training set e il 91% per il set di validation. Un risultato niente male (figura 22). Figura 22. Training della rete CNN con i risultati di accuracy e loss &amp;#160; Qui alcune cifre del test set riconosciute dalla rete con a fianco&amp;#160; la probabilita’ della predizione. Per il 4 nella prima riga, per esempio la rete e’ sicura all’82% che si tratti proprio di un quattro e cosi via per le altre cifre (figura 23). Figura 23. Predizione della rete per le cifre del test set &amp;#160; Questo sistema DLS e’ nato con la promessa di rendere facile l’intelligenza artificiale; non c’e’ bisogno di essere un esperto per realizzare modelli molto complessi anche se e’ opportuno avere almeno un’idea di quello che si sta facendo leggendo i documenti di help e i tutorial presenti sul sito della Deep cognition. Non resta che provare. Buon divertimento.</itunes:subtitle><itunes:author>noreply@blogger.com (Felice)</itunes:author><itunes:summary>Le reti neuronali convoluzionali (CNN) sono un particolare tipo di reti neurali artificali (ANN) utilizzate per lo piu’ per la classificazione delle immagini. Le CNNs si ispirano al principio biologico della riproduzione di una struttura capace di identificare dei patterns in diversi luoghi descritta nell’articolo dei premi Nobel Hubel e Wiesel pubblicato nel 1962 e dal titolo: “Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex”. Queste reti oltre alla classificazione delle immagini hanno mostrato buoni risultati anche con le analisi delle serie temporali e il riconoscimento vocale. Esse sono diventate molto popolari dopo che nel 2012 hanno vinto la competizione &amp;#160;Imagenet Large Scale Visual Recognition Challenge (ILSVRC)&amp;#160; con un margine addirittura del 10%.&amp;#160; Alex Krizhevsky e Ilya Sutskever, sotto la guida di Geoffrey Hinton, proposero l’architettura CNN che presto divento’ famosa con il nome di “AlexNet”. A quel tempo, Geoffrey Hinton era gia’ conosciuto per i suoi contributi scientifici nel campo delle reti neurali artificiali. Egli era stato uno dei contributori dell’algoritmo di Backpropagation nel 1986, e delle macchine di Boltzmann nel 1983. Queste sono alcune delle ragioni per cui Geoffrey Hinton e’ stato riconosciuto come uno dei padri del Deep Learning. Una CNN tipica e’ composta da una serie di strati convoluzionali, che agiscono come estrattori di features, seguiti da un classificatore, in genere un Multilayer Perceptron (MLP), anche conosciuto come una rete a strati completamente connessi (FC) come mostrato in figura 1. Figura 1. Gli strati di una CNN &amp;#160; Il primo strato riceve in input un’immagine rappresentata nei 3 canali colore RGB. Questo significa avere un array con una certo numero di pixels come per esempio 100x100 ripetuto 3 volte, uno per ogni canale colore. Si tratta quindi di un oggetto con dimensione 100x100x3 che prende il nome di tensore. Infatti l’immagine 100x100 e’ una matrice bidimensionale mentre l’aggiunta dei 3 canali rende questo oggetto non piu’ bidimensionale ma tridimensionale come si puo’ vedere nella prima parte della figura 1. Il primo strato esegue le convoluzione dell’immagine in ingresso con diversi kernel, generando una serie di feature maps del primo strato. Ogni feature map determina l’intensita’ e la localizzazione di una specifica feature. La feature map estratta dallo strato convoluzionale puo’ essere sottomessa ad un’operazione di downsampling conosciuta come Pooling. Questa operazione e’ opzionale cosi e’ possible che essa non segua tutti gli strati convoluzionali. Il risultato di uno strato di Pooling e’ un altro insieme di feature maps ma con ridotta risoluzione. Il successivo strato convoluzionale usa la feature map dello strato precedente per eseguire piu’ convoluzioni e generare nuove feature maps. Le feature maps dell’ultimo strato diventano l’input del classificatore e cioe’ degli strati FC full connected. L’operazione di convoluzione che viene indicata con un asterisco ∗, puo’ essere descritta con la seguente formula: essendo x un tipo di input, t un tempo e k il kernel applicato. Il kernel in pratica e’ una matrice di pesi ed esso viene applicato ad una sotto matrice dell’immagine conosciuta come receptive field in biologia (una regione sensoriale che stimola un neurone). La moltiplicazione tra il receptive field e il kernel consiste nella moltiplicazione di ogni pixel e i rispettivi elementi del kernel. Dopo le moltiplicazioni, i risultati vengono aggiunti a formare un elemento della feature map definita dall’equazione con 3 canali RGB: &amp;#160; Le seguenti immagini mostrano l’operazione di convoluzione per un’immagine in grigio 5x5 e un kernel 3x3. Il receptive field e’ stato evidenziato in rosso. L’output della convoluzione e’ una feature map 3x3. Occhio. Le 2 matrici kernel e Recept non vengono moltiplicate con la regola delle matrici ma semplicemente moltiplicando un elemento alla volta. Ogni cella della feature map viene costruita facendo la somma di tutti gli elementi della matrice ottenuta con la moltiplicazione e indicata con sum nella figura. Figure 2 — Alcuni steps della convoluzione di un’immagine 5x5 con un kernel 3x3. Le immagini utilizzate in figura 2 possono essere viste nella figura 3. I valori del kernel e della feature map sono stati riscalati tra 0 e 255 per essere rappresentati in una scala di grigi. I pixels bianchi corrispondono a valori prossimi a 255 mentre quelli neri a valori prossimi allo 0. Figure 3 — Convoluzione di una matrice 5x5 con un kernel 3x3 &amp;#160; Poiche’ la convoluzione della figura 2 usa un kernel 3x3 ci sono 9 possibili receptive fields in input ognuno con una dimensione 3x3. Notare che quando la Receptive field contiene tutti pixels chiari la somma delle celle della matrice ottenuta agendo con il kernel e’ scura e viceversa. Nella figura 2 infatti quando la receptive field ha tutti valori maggiori di 200 la cella corrispondente nella feature map ha come valore 44. Questo e’ dovuto al fatto che il kernel utilizzato evidenzia i contorni passando da un colore brillante sulla sinistra ad un colore scuro sulla destra della matrice. Vediamo adesso cosa accade se applichiamo lo stesso kernel ad un immagine che ha una transizione da una regione scura a sinistra ad una chiara sulla destra. In Figura 4, il receptive field esibisce la transizione dai pixel scuri a quelli chiari e da quelli chiari a quelli scuri. Notare come il kernel identifica gli estremi della stripe segnalandoli con una fascia chiara a sinistra e una scura a destra. Figure 4 — Convoluzione di un immagine 17x17 con un kernel per evidenziare gli estremi &amp;#160; Passiamo adesso ad un esempio pratico. Qui di seguito la foto a colori di un aereo su cui viene applicato un kernel 3x3 estratto da una piccola regione dell’immagine stessa. &amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160;&amp;#160; &amp;#160; &amp;#160; Figure 5 — Esempi di convoluzione . &amp;#160; Nel primo esempio, il kernel comprende la regione della foto con il numero 6 in bianco. L’immagine in grigio sulla destra e’ il risultato della convoluzione tra il kernel e l’immagine stessa. I pixels piu’ scuri rappresentano I valori piu’ bassi ottenuti dall’operazione del kernel sulla receprive field mentre quelli piu’ chiari rappresentano I valori piu’ alti. Nel secondo esempio il kernel e’ costituito da una ruota dell’aereo mentre nel terzo viene riportato il colore giallo dell’aereo. Notare che I pixels piu’ brillanti sono quelli che corrispondono alla parte dell’immagine contenuta nel kernel: numero 6 nel primo caso, la ruota nel secondo e le pareti di colore giallo dell’aereo nel terzo. Osserviamo anche che se la seconda ruota non e’ contenuta nel kernel anch’essa risulta brillante essendo molto simile alla prima ruota. Altra caratteristica importante di una CNN e’ il passo (stride) tra ogni receptive field. Tutti gli esempi mostrati fino ad adesso avevano passo 1. L’adozione di un passo cosi piccolo risulta in una sovrapposizione abbastanza spinta tra i receptive field. Il risultato e’ che molta informazione viene ripetuta tra i receptive field adiacenti come mostrato in figura 6. &amp;#160; Figure 6 – Receptive field con passo (stride) 1. In caso di&amp;#160; kernel con dimensioni 3x3, l’utilizzo di un passo (stride) 2 risulta in una colonna o riga di sovrapposizione con il receptive field adiacente. Aumentando lo stride si riduce il costo computazionale del PC. Passando da uno stride di 1 a 2 abbiamo una riduzione del costo di un fattore 4. Questo accade in quanto lo stride 2 impatta la distanza tra i receptive field in entrambe le dimensioni. Allo stesso modo se triplichiamo il passo il costo computazionale si ridurra’ di un fattore 9. Il costo di computazione si riduce in quanto aumentando il passo si riduce il numero di receptive field estratti dall’input e di conseguenza si riduce la dimensione dell’output. La figura 7 mostra 4 esempi di convoluzione con passi (strides) di 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70. Notare che aumentando il passo di un fattore 2 il tempo di esecuzione si riduce di circa un fattore 4. Figura 7 — Esempi di stride 2, 4, 8, e 16. La dimensione del kernel e’ di 70x70. Grafico del tempo di elaborazione verso lo stride Osserviamo come aumentando il passo riduciamo il tempo di calcolo e il numero di pixels dell’immagine nonostante sia ancora possibile individuare i valori piu’ alti della convoluzione grazie ai pixel piu’ brillanti in alcune zone dell’aereo. Adesso andiamo a vedere come lavora un singolo strato convolutivo e cosa succede quando ne mettiamo insieme un certo numero. La figura 8 mostra cosa succede all’interno dello strato convoluzionale che consiste di 3 stadi: convoluzione, attivazione non lineare, e pooling. L’operazione di convoluzione l’abbiamo discussa nella prima parte. Adesso vediamo le altre 2 operazioni. &amp;#160; Figura 8 — I 3 stadi di uno strato convolutivo. &amp;#160; L’attivazione non lineare e’ conosciuta anche come lo stadio del rivelatore. Qui il risultato della convoluzione e il bias vengono sottomessi ad una funzione di attivazione non lineare come la funzione ReLU. Quest’ ultima non cambia la dimensione della feature map ma modula solo i valori contenuti in essa. Ma che cosa e’ un’attivazione non lineare? Prima di tutto ricordiamo che la non linearita’ in una rete neurale ANN la rende migliore in termini di approssimazione&amp;#160; di funzioni. Una delle funzioni di attivazione non lineare piu’ utilizzata e’ la funzione ReLU, che sta per Rectified Linear Unit. Questa funzione e’ data da: &amp;#160; Questa funzione quando applicata con un bias, da’ origine a grafici com quelli illustrati in Figura 9. &amp;#160; &amp;#160; Figura 9 — Grafico della funzione ReLU. &amp;#160; La figura 10 mostra come la ReLU modula il risultato della convoluzione. L’immagine e il kernel sono gli stessi della figura 2 dove la convolution output e’ quella che prima abbiamo chiamata la feature map. Figura 10 — La funzione ReLU applicata all’aoutput della convoluzione. &amp;#160; L’immagine equivalente in scala di grigio prima e dopo l’applicazione della funzione ReLU e’ riportata in Figura 11. Notare come alcuni dei valori intermedi sono stati anneriti facendo risaltare ancora di piu’ i 3 pixels con valore diverso da zero. &amp;#160; Figura 11 — Rappresentazione visuale della funzione ReLU applicata all’output della convoluzione. &amp;#160; Nella figura 12, si puo’ vedere come lavora il bias nella funzione ReLU. Il bias si comporta come una soglia che determina cosa mostrare e cosa no. Figura 12 — Diversi valori di bias applicati allo stesso risultato della convoluzione dell’immagine contenente le ruote dell’aereo. Il comportamento a soglia della figura 12 rassomiglia ai neuroni biologici, che non si attivano quado ricevono uno stimolo al di sotto di una certa soglia. Se lo stimolo supera la soglia, il neurone si accende e la frequenza di accensione cresce con l’aumento dello stimolo. In Figura 12, quando il bias e’ 500, esso contribuisce all’attivita’ dei neuroni artificiali. Ma se definiamo il bias a -1000, allora il neurone artificiale si accende solo son stimoli piu’ forti. Per concludere la funzione ReLU lavora come un neurone del nostro cervello. Questo spiega perche’ questa fase e’ chiamata la fase di rivelazione. La funzione ReLU e’ quella che rivela la presenza di una feature estratta dal kernel. Di conseguenza c’e’ un singolo bias per ogni kernel, perche’ ogni feature richiede una differente soglia di attivazione. Alla fine, arriva l’operazione di pooling. Si tratta di un’operazione di sottocampionamento eseguita su ogni feature map. Essa estrae i receptive fields dalla feature map e li rimpiazza con un singolo valore. Questo valore puo’ essere ottenuto attraverso diversi criteri di aggregazione, come il valore massimo, media o media pesata in base alla distanza dal centro del receptive field. Oltre ai criteri di aggregazione ci sono altri 2 ipeparametri nell’operazione di pooling: la dimensione del receptive field e il passo. In modo simile allo stride, l’operazione di pooling genera meno dati di quelli processati dalla convoluzione. Una differenza e’ che invece di saltare dei dati, l’operazione di pooling cerca di riassumere il receptive field in un singolo valore. Un’altra differenza e’ che il passo viene applicato prima della convoluzione, mentre il pooling viene applicato sui risultati della convoluzione, riducendo il volume dei dati al prossimo strato. Inoltre il receptive field dell’operazione di pooling e’ bidimensionale in quanto esso viene applicato ad ogni feature della mappa individualmente mentre il receptive field della convoluzione e’ tri-dimensionale. Un effetto desiderato collaterale del pooling e’ che aumenta l’invarianza delle transazioni degli inputs. Questo effetto a’ amplificato dal numero di strati convoluzionali seguiti dagli strati di pooling. La figura 13 mostra la propagazione dei valori attraverso due strati di pooling con size 3x3 e stride di 2. Per ogni regione di attivazione colorata in blu l’input feature map influenza la regione colorata in blu in uscita dal pooling 1. Allo stesso modo , le attivazioni nella regione coperta di blu in uscita del pooling 1 influenzano la regione ricoperta di blu in uscita del pooling 2. La stessa relazione e’ valida tra le regioni di colore verde. Figura 13–Propagazione di valori attraverso gli strati di pooling con dimensione 3x3 e stride 2. In questo esempio, gli strati convoluzionali sono stati omessi per chiarezza. &amp;#160; Considerando che il pooling in Figure 13 e’ il max pooling, indipendentemente da dove capita il valore piu’ alto nella feature map blu in input, esso verra’ propagato nella matrice blu in uscita. Questa e’ la ragione per cui gli strati di pooling amplificano l’invarianza traslazionale (piccole variazioni in ingresso non cambiano i valori in uscita). La figura 14 mostra l’effetto delle diverse combinazioni di strides nella convoluzione, bias nella funzione ReLU,&amp;#160; dimensione del pooling e i passi (strides) di pooling. Sulla sinistra ci sono 3 esempi di strides: 2, 9, e 16. Per ogni opzione di stride ci sono 3 esempi di bias: 500, -250, e -1000. Per ogni bias, ci sono 3 esempi di dimensione del pooling e stride: 3x3 e 2, 5x5 e 3, 7x7 e stride of 4. Figura 14– effetti di diversi iperparametri nella convoluzione, ReLU e max pooling. L’ effetto dello stride nella convoluzione e dello stride nel max-pooling e’ cumulativo. Quando usiamo un passo di 2 sia nella convoluzione che nel max pooling, il risultato finale e’ una riduzione di quasi 4 volte la larghezza e l’altezza della feature map. Il valore 16 come passo nella convoluzione e di 4 nel max pooling sono abbastanza inusuali. In questo caso sono stati intenzionalmente esagerati per illustrare l’impatto che hanno sul risultato finale dello strato di convoluzione. Gli elementi costitutivi di una rete AlexNet vengono rappresentati in figura 14. Le piramidi riportate con linee spezzate rappresentano l’esecuzione delle convoluzioni usando un receptive field dagli inputs o la feature map dagli strati precedenti. Le grosse scatole rappresentano le feature maps mentre le scatole piccole all’interno delle feature maps sono i receptive fields. Questo tipo di CNN riescono a classificare oggetti in 1000 diverse classi. Figura 15 — Architettura di AlexNet CNN. Una peculiarita’ di questa architettura e’ che essa viene addestrata usando 2 GPU (Graphics processing units). Gli elementi al top della figura 15 sono stati allocati in una GPU, mentre gli elementi al bottom sono stati allocati in un’altra GPU. Questa rete CNN gia’ addestrata e’ possibile trovarla in qualche framework come PyTorch. In questi casi c’e’ bisogno di conoscere Python e buttare giu’ linee di codice prima di ottenere i risultati sperati. Un modo alternativo che non richiede nessuna linea di codice e’ quello di costruire una rete personalizzata CNN usando per esempio l’eccellente console per deep neural net messa a disposizione dalla Deep Cognition (o deep learning studio DLS). Si tratta di un sistema user-friendly con molte features, incluso la possibilita’ di disegnare la topologia della rete senza scrivere nessuna linea di codice interagendo con una semplice GUI. Come riportato dai creatori di questa piattaforma, Deep Cognition nasce con lo scopo di democratizzare l’intelligenza artificiale. La loro piattaforma e’ disponibile sia come soluzione Cloud che come Desktop solution nel qual caso il software girera’ sul personal PC . L’interfaccia permette un semplice drag &amp;amp; drop che aiuta a mettere insieme i diversi pezzi di una deep net. C’e’ anche la possibilita’ di utilizzare delle reti pre-trained come Inception, ResNet, MobileNet e cosi via per velocizzare la fase di apprendimento. Questo e’ possibile in quanto nei primi layers di una rete vengono catturate le feature piu’ importanti e molto generiche che possono essere utilizzate per esempio nella classificazione di qualsiasi immagine. La piattaforma salva velocemente qualsiasi modello dopo il training e l’aggiustamento degli iper-parametri (come per esempio learning rate, epochs, batch size etc) della rete. &amp;#160; Di seguito un esempio di utilizzo di una CNN per il riconoscimento delle 9 cifre scritte a mano (il famoso MNIST dataset – fig. 16). In questo caso ogni cifra e’ rappresentata da un’array 28x28 come mostrato nella figura 17 e valori da 0 a 255 (28X28X1). &amp;#160; Fig 16. Alcune delle cifre del dataset MNIST &amp;#160; Figura 17. La rappresentazione matriciale dell’ 8 &amp;#160; In figura 18 invece e’ riportata la divisione del database in training set (90%), validation set (5%) e test set (5%). Tutte le righe del database vengono presentate alla rete a batch (insieme di piu’ righe per abbattere il rumore) Figura 18. Data pre-processing Deep Learning Studio permette di disegnare una qualsiasi rete senza scrivere nessuna riga di codice ma semplicemente mettendo insieme i diversi moduli a disposizione, oppure provvedendo esso stesso a costruire l’architettura della rete in modo automatico senza alcun intervento da parte dell’analista grazie ad un’avanzata feature chiamata AutoML (figura 19), che crea per l’utente l’intera pipeline per andare dai dati grezzi fino alla predizione. In figura&amp;#160; 20 la rete convoluzionale utilizzata per la classificazione del data set MNIST. Figure 19. AutoML &amp;#160; Figura 20. L’architettura della CNN &amp;#160; Figura 21. Iperparametri &amp;#160; Una volta stabiliti i valori degli iper-parametri (figura 21)&amp;#160; si passa alla fase di training della rete CNN. Dopo appena 6 epoche su 10 la rete ha raggiunto un’accuratezza del 89% per il training set e il 91% per il set di validation. Un risultato niente male (figura 22). Figura 22. Training della rete CNN con i risultati di accuracy e loss &amp;#160; Qui alcune cifre del test set riconosciute dalla rete con a fianco&amp;#160; la probabilita’ della predizione. Per il 4 nella prima riga, per esempio la rete e’ sicura all’82% che si tratti proprio di un quattro e cosi via per le altre cifre (figura 23). Figura 23. Predizione della rete per le cifre del test set &amp;#160; Questo sistema DLS e’ nato con la promessa di rendere facile l’intelligenza artificiale; non c’e’ bisogno di essere un esperto per realizzare modelli molto complessi anche se e’ opportuno avere almeno un’idea di quello che si sta facendo leggendo i documenti di help e i tutorial presenti sul sito della Deep cognition. Non resta che provare. Buon divertimento.</itunes:summary></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-5264296384277291401</guid><pubDate>Sat, 14 Aug 2021 12:23:00 +0000</pubDate><atom:updated>2021-08-14T05:23:58.029-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">clustering</category><category domain="http://www.blogger.com/atom/ns#">data mining</category><category domain="http://www.blogger.com/atom/ns#">intelligenza artificiale</category><category domain="http://www.blogger.com/atom/ns#">machine learning</category><category domain="http://www.blogger.com/atom/ns#">reinforcment learning</category><category domain="http://www.blogger.com/atom/ns#">supervisionato</category><category domain="http://www.blogger.com/atom/ns#">unsupervisionato</category><title>Il Machine learning per navigare nel mare burrascoso dei dati </title><description>&lt;p&gt;&amp;nbsp;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Fin dalla nascita siamo inondati
dai dati. I sensori del nostro corpo - occhi, orecchie, naso, lingua e nervi -
sono continuamente assaliti da dati che il nostro cervello traduce in immagini,
suoni, odori, sapori e consistenza. Usando il linguaggio, siamo poi in grado di
condividere queste esperienze con gli altri.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Dall'avvento del linguaggio
scritto, gli uomini hanno registrato le loro osservazioni. I cacciatori primitivi
monitoravano il movimento delle mandrie, i primi astronomi registravano
l'allineamento di pianeti e stelle e le città registravano pagamenti fiscali,
nascite e morti. Oggi, tale osservazioni, e molte altre, sono sempre più
automatizzate e registrate sistematicamente in database in continua crescita.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;L'invenzione dei&lt;span style="color: #01ffff;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wikihttps:/it.wikipedia.org/wiki/Sensore/Sensore"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;sensori
elettronici&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt; ha inoltre contribuito a un'esplosione del volume e
della ricchezza dei dati registrati. Sensori specializzati vedono, sentono,
odorano e gustano. Questi sensori elaborano i dati in modo molto diverso da
come farebbe un essere umano. A differenza dell'attenzione limitata e
soggettiva di un essere umano, un sensore elettronico non si prende mai una pausa
e non lascia mai che il suo giudizio distorca la sua percezione. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Sebbene i sensori non siano influenzati
dalla soggettività, essi non riportano necessariamente una rappresentazione
unica e definitiva della realtà. Alcuni hanno un errore di misurazione
intrinseco, a causa di limitazioni hardware. Altri sono limitati dalla loro
portata. Una fotografia in bianco e nero fornisce una rappresentazione diversa
del soggetto rispetto a uno scatto a colori. Allo stesso modo, un microscopio
fornisce una rappresentazione della realtà molto diversa rispetto a un
telescopio.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Nei database grazie ai sensori,
vengono registrati molti aspetti della nostra vita. Governi, aziende e
individui registrano e riportano informazioni di tutti i tipi. I sensori
meteorologici per esempio registrano i dati di temperatura e pressione, le
telecamere di sorveglianza osservano i marciapiedi e le gallerie della
metropolitana; vengono monitorati tutti i tipi di comportamenti elettronici:
transazioni, comunicazioni, amicizie e molti altri.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Questo tempesta di dati ha
portato alcuni ad affermare che siamo entrati nell’era dei &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Big_data"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Big Data&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;, ma questo
potrebbe essere un termine improprio. Gli esseri umani sono sempre stati
circondati da grandi quantità di dati. Ciò che rende unica l'era attuale è che
disponiamo di enormi quantità di dati registrati, molti dei quali sono
accessibili direttamente dai computer. Set di dati sempre più grandi e più
interessanti sono accessibili con una semplice ricerca web. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il campo di studio interessato
allo sviluppo di algoritmi informatici per trasformare i dati in azioni
intelligenti è noto come &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Machine_learning"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;machine learning&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;.&lt;/span&gt; Questo
campo ha avuto origine in un ambiente in cui i dati disponibili, i metodi
statistici e la potenza di calcolo si sono evoluti rapidamente e
simultaneamente.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhHErXJCh9MVgoFfnoSNTIoikYSR0R6KWfTvi_t-pe8bmo4-I5LrslYR2yiRcVtuwAv5uv4g6cpgRmGDd9qd8pLH7QVql6xM6_YPc87cPtfPOfnHcOK89X4PltSbm8y_Z__IYvIzvez/s500/m1.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="390" data-original-width="500" height="250" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhHErXJCh9MVgoFfnoSNTIoikYSR0R6KWfTvi_t-pe8bmo4-I5LrslYR2yiRcVtuwAv5uv4g6cpgRmGDd9qd8pLH7QVql6xM6_YPc87cPtfPOfnHcOK89X4PltSbm8y_Z__IYvIzvez/s320/m1.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;La crescita dei dati ha richiesto una potenza
di calcolo aggiuntiva, che a sua volta ha stimolato lo sviluppo di metodi
statistici per analizzare set di dati di grandi dimensioni. Ciò ha consentito la
raccolta di dati ancora più abbondanti e interessanti. Una tecnica strettamente
correlata all'apprendimento automatico, il &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Data_mining"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;data mining&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;, si
occupa invece della generazione di nuove informazioni da grandi database. Il
data mining prevede uno scavo sistematico delle pepite di “intelligenza
utilizzabili” nelle miniere dei dati disponibili. Sebbene vi sia un certo disaccordo
su quanto l'apprendimento automatico e il data mining si sovrappongano, un
potenziale punto di distinzione è che l'apprendimento automatico si concentra
sull'insegnamento ai computer su come utilizzare i dati per prevedere cosa
succedera’ in futuro, mentre il data mining si concentra sull'insegnamento ai
computer su come utilizzare i dati per capire cosa e’ successo nel passato. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Praticamente tutto il data mining
implica l'uso del machine learning, ma non tutto il machine learning coinvolge
il data mining. Per esempio e’ possibile applicare l'apprendimento automatico
ai dati sul traffico automobilistico per individuare grazie ai modelli di data
mining i pattern interessanti relativi ai tassi di incidenti; d'altra parte, se
il computer sta imparando a guidare l'auto da solo, si tratta di un puro
apprendimento automatico senza data mining.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La maggior parte delle persone ha
sentito parlare del computer &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Deep_Blue_(chess_computer)"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Deep Blu&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt; &lt;/span&gt;che
gioca a scacchi, il primo a vincere una partita contro un campione del mondo, o
di &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Watson_(intelligenza_artificiale)"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Watson&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;, il
computer che ha sconfitto due avversari umani nel programma televisivo &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Jeopardy!"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Jeopardy&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Sulla base di
questi straordinari risultati, alcuni hanno ipotizzato che &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Intelligenza_artificiale"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;l'intelligenza artificiale&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;
sostituirà gli esseri umani in molte occupazioni di tecnologia
dell'informazione, proprio come le macchine hanno sostituito gli umani nei
campi e i robot hanno sostituito gli umani sulla catena di montaggio.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La verità è che anche quando le
macchine raggiungono traguardi così impressionanti, sono ancora relativamente
limitate nella loro capacità di comprendere a fondo un problema. Sono pura
potenza intellettuale ma senza direzione. Un computer può essere più capace di
un essere umano a trovare schemi in grandi database, ma ha comunque bisogno di
un essere umano per motivare l'analisi e trasformare il risultato in un'azione
significativa.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le macchine non sono brave a fare
domande, e non sanno quali domande porre. Sono molto più brave a rispondere, a
condizione che la domanda sia formulata in un modo che esse possono comprendere.
Gli attuali algoritmi di machine learning collaborano con le persone in modo
simile ai segugi che aiutano i loro padroni; l'olfatto del cane può essere di
gran lunga più sviluppato di quello del suo padrone, ma senza essere diretto
con attenzione, il cane può finire a rincorrersi la coda.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;L'apprendimento automatico ha più
successo quando aumenta, anziché sostituisce, la conoscenza specializzata di un
esperto in materia. Lavora con medici in prima linea nella lotta per sradicare
il cancro, assiste ingegneri e programmatori per creare case e automobili più
intelligenti e aiuta gli scienziati sociali a costruire la conoscenza di come
funzionano le società. A tal fine, è impiegato in innumerevoli aziende,
laboratori scientifici, ospedali e organizzazioni governative. Qualsiasi
organizzazione che genera o aggrega dati probabilmente utilizza almeno un
algoritmo di apprendimento automatico per dare un senso alla grande mole di
dati.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Sebbene sia impossibile elencare
tutti i casi d'uso dell'apprendimento automatico, un sondaggio sulle recenti
storie di successo include diverse applicazioni importanti:&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Identificazione di &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Spam" style="text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;messaggi spam&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt; nella posta
elettronica&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Segmentazione del comportamento dei
clienti per pubblicità mirata&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Previsioni del tempo meteorologico e dei
cambiamenti climatici a lungo termine&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Riduzione delle transazioni fraudolente
con carta di credito&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Stime attuariali dei danni finanziari di
tempeste e calamità naturali&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Previsione dei risultati delle elezioni
popolare&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Sviluppo di algoritmi per droni a
pilotaggio automatico e auto a guida autonoma&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Proiezione delle aree in cui l'attività
criminale è più probabile&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Scoperta di sequenze genetiche legate a
malattie&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Indipendentemente dal contesto,
il processo di apprendimento automatico è lo stesso. Un algoritmo infatti prende
i dati e identifica i modelli che costituiscono la base per ulteriori azioni.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Sebbene l'apprendimento
automatico sia ampiamente utilizzato e abbia un enorme potenziale, è importante
comprenderne i limiti. L'apprendimento automatico, in questo momento, non è in
alcun modo un sostituto del cervello umano. Ha pochissima flessibilità a fare
estrapolazioni al di fuori dei rigidi parametri che ha appreso e non conosce il
buon senso. Con questo in mente, si dovrebbe essere estremamente attenti a
riconoscere esattamente ciò che l'algoritmo ha appreso prima di lasciarlo
libero nel mondo reale.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Senza una vita di esperienze
passate su cui basarsi, i computer sono anche limitati nella loro capacità di
fare semplici inferenze di buon senso sui passaggi logici successivi. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Molti hanno familiarità con le
carenze della capacità dell'apprendimento automatico di comprendere o tradurre una
lingua o di riconoscere&amp;nbsp; parole e
scrittura a mano. Forse il primo esempio di questo tipo di fallimento è in un
episodio del 1994 della serie televisiva, I Simpsons, che mostrava una parodia
del tablet &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Apple_Newton"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Apple
Newton&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La capacità delle macchine di
comprendere il linguaggio è migliorata abbastanza dal 1994, tanto che Google,
Apple e Microsoft sono tutte abbastanza sicure da offrire servizi virtuali
gestiti tramite riconoscimento vocale. Tuttavia, anche questi servizi fanno
regolarmente fatica a rispondere a domande relativamente semplici. Inoltre, i
servizi di traduzione online a volte interpretano erroneamente frasi che un
bambino potrebbe facilmente capire. La funzione di scrittura predittiva su
molti dispositivi ha anche portato a una serie di divertenti siti di errore di
correzione automatica che illustrano la capacità del computer di comprendere il
linguaggio di base ma di fraintendere completamente il contesto.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Una definizione formale di
apprendimento automatico proposta dallo scienziato informatico &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Tom_M._Mitchell"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Tom M. Mitchell&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt; afferma
che una macchina impara ogni volta che è in grado di utilizzare la sua
esperienza per migliorare le sue prestazioni future su esperienze simili.
Sebbene questa definizione sia intuitiva, ignora completamente il processo di
come esattamente l'esperienza può essere tradotta in azioni future e,
naturalmente, l'apprendimento è sempre più facile a dirsi che a farsi!&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Contrariamente ai cervelli umani
naturalmente in grado di apprendere fin dalla nascita, le condizioni necessarie
affinché i computer apprendano devono essere rese esplicite. Per questo motivo,
sebbene non sia strettamente necessario comprendere le basi teoriche
dell'apprendimento, questa base aiuta a comprendere, distinguere e implementare
algoritmi di apprendimento automatico. Indipendentemente dal fatto che lo
studente sia un essere umano o una macchina, il processo di apprendimento di
base è simile. Esso può essere suddiviso in quattro componenti correlate.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;La &lt;/span&gt;&lt;b style="font-size: 16pt; text-indent: -0.25in;"&gt;memorizzazione &lt;/b&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;dei dati
utilizza l'osservazione, la memoria e il richiamo per fornire una base fattuale
per ulteriori ragionamenti.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;L'&lt;b&gt;astrazione&lt;/b&gt; implica la
traduzione dei dati memorizzati in rappresentazioni e concetti più ampi.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoListParagraphCxSpMiddle" style="mso-list: l2 level1 lfo2; text-align: justify; text-indent: -.25in;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;&lt;span&gt;&amp;nbsp;&amp;nbsp; &amp;nbsp;&lt;/span&gt;La &lt;/span&gt;&lt;b style="font-size: 16pt; text-indent: -0.25in;"&gt;generalizzazione&lt;/b&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt; utilizza dati
astratti per creare conoscenze e inferenze che guidano l'azione in nuovi
contesti.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoListParagraphCxSpMiddle" style="mso-list: l2 level1 lfo2; text-align: justify; text-indent: -.25in;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;&amp;nbsp; &amp;nbsp; La &lt;/span&gt;&lt;b style="font-size: 16pt; text-indent: -0.25in;"&gt;valutazione&lt;/b&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt; fornisce un
meccanismo di feedback per misurare l'utilità della conoscenza acquisita e
informare potenziali miglioramenti.&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La figura seguente illustra le quattro
fasi alla base del processo di apprendimento:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhtUW4uygs1O4HUA0IXU3z3PZFJ-f-yBfENbu8vBCVxMgu_SR3lKHBu4nsX1hwTFjx6UGgbYFbSv5qUtMfA_fn0L86PJvccNwocjFdaqkyrrO9ltaVHiYHFqgHQtiWfvDuSwGXHuh5U/s500/m2.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="117" data-original-width="500" height="114" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhtUW4uygs1O4HUA0IXU3z3PZFJ-f-yBfENbu8vBCVxMgu_SR3lKHBu4nsX1hwTFjx6UGgbYFbSv5qUtMfA_fn0L86PJvccNwocjFdaqkyrrO9ltaVHiYHFqgHQtiWfvDuSwGXHuh5U/w486-h114/m2.png" width="486" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="center" class="MsoNormal"&gt;&lt;span style="font-size: 16pt; text-align: justify;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Tenere presente che, il processo
di apprendimento e’ stato concettualizzato in quattro componenti distinte, solo
per uno scopo illustrativo. In realtà, l'intero processo di apprendimento è
indissolubilmente inter-correlato. Negli esseri umani, il processo avviene
inconsciamente. Ricordiamo, deduciamo, induciamo e intuiamo con i confini
dell'occhio della nostra mente, e poiché questo processo è nascosto, eventuali
differenze da persona a persona sono attribuite a una vaga nozione di
soggettività. Al contrario, con i computer questi processi sono espliciti e
poiché l'intero processo è trasparente, le conoscenze apprese possono essere
esaminate, trasferite e utilizzate per azioni future.&amp;nbsp; Tutto l'apprendimento ovviamente deve iniziare
con i dati. Sia gli esseri umani che i computer utilizzano l'archiviazione dei
dati come base per ragionamenti più avanzati. In un essere umano, questo è
costituito da un cervello che utilizza segnali elettrochimici in una rete di
cellule biologiche per memorizzare ed elaborare le osservazioni per il richiamo
futuro a breve e lungo termine. I computer hanno capacità simili di richiamo a
breve e lungo termine utilizzando l’unità di disco rigido, la memoria flash e la
memoria ad accesso casuale (&lt;/span&gt;&lt;a href="https://www.robadainformatici.it/cose-la-ram/"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;RAM&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;) in
combinazione con un'unità di elaborazione centrale (&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/CPU"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;CPU&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;).&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Può sembrare ovvio, ma la
capacità di archiviare e recuperare i dati da sola non è sufficiente per
l'apprendimento. Senza un livello di comprensione superiore, la conoscenza è
limitata esclusivamente al richiamo, intendendo esclusivamente ciò che si vede
prima e nient'altro. I dati dopo tutto sono solo una successione di uno e zero
su un disco. Sono ricordi immagazzinati senza un significato più ampio. Per
comprendere meglio le sfumature di questa idea, può essere utile pensare
all'ultima volta che abbiamo studiato per una prova difficile, magari per un
esame finale universitario o la discussione della Tesi. Nel caso in cui sia
stata utilizzata quella che si chiama una memoria eidetica (fotografica) si potrebbe
rimanere delusi nell'apprendere che è improbabile che il richiamo perfetto sia
di grande aiuto. Anche se si potesse memorizzare perfettamente tutto il
materiale, l’apprendimento meccanico non sarebbe di alcuna utilità, a meno che non
si conoscano in anticipo le domande e le risposte esatte. &amp;nbsp;Altrimenti, si rimarebbe &amp;nbsp;bloccati nel tentativo di memorizzare le
risposte a ogni domanda che si potrebbe plausibilmente fare. Ovviamente, questa
è una strategia insostenibile.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Un approccio migliore invece è
quello di trascorrere il tempo in modo selettivo, memorizzando un piccolo
insieme di idee rappresentative mentre si sviluppano strategie su come le idee
si relazionano e su come utilizzare le informazioni memorizzate. In questo
modo, le idee di grandi dimensioni possono essere comprese senza bisogno di
memorizzarle a memoria.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Questo lavoro di assegnazione di un
significato ai dati memorizzati si verifica durante il cosiddetto processo di
astrazione, in cui i dati grezzi assumono un significato più astratto. Questo
tipo di connessione, tra un oggetto e la sua rappresentazione, è semplificato
dal famoso dipinto di &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Ren%C3%A9_Magritte"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;René Magritte&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/La_Trahison_des_images"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;The Treachery of
Images&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiyp3M_P1rMY3jWB3nI_DC-LBgTDn_uJ3-cXqPLTX2xepH8wt36z-8UnXhJeEYflpSPphlfq8bcvu_z7Eigj67OCR0wwc6jchMCVM-4bQS-KR2TOrQxtdPIMPN3xnODDhw550aSNWN6/s378/m3.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="264" data-original-width="378" height="223" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiyp3M_P1rMY3jWB3nI_DC-LBgTDn_uJ3-cXqPLTX2xepH8wt36z-8UnXhJeEYflpSPphlfq8bcvu_z7Eigj67OCR0wwc6jchMCVM-4bQS-KR2TOrQxtdPIMPN3xnODDhw550aSNWN6/s320/m3.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="center" class="MsoNormal"&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16.0pt; line-height: 107%;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-size: 16pt;"&gt;Il dipinto raffigura una pipa con
la dicitura “Ceci n'est pas une pipe” (questa non è una pipa). Il punto che
Magritte ha cercato di illustrare è che la rappresentazione di una pipa non è
veramente una pipa. Tuttavia, nonostante il fatto che la pipa non sia reale,
chiunque veda il dipinto lo riconosce facilmente come una pipa. Ciò suggerisce
che la mente dell'osservatore è in grado di collegare l'immagine di una pipa
all'idea di una pipa, al ricordo di una pipa fisica che potrebbe essere tenuta
in mano. Connessioni astratte come queste sono la base della rappresentazione
della conoscenza, la formazione di strutture logiche che aiutano a trasformare
le informazioni sensoriali grezze in una visione significativa. Durante il
processo di rappresentazione della conoscenza di una macchina, il computer
riassume i dati memorizzati utilizzando un modello, una descrizione esplicita
dei modelli all'interno dei dati. Proprio come la pipa di Magritte, il modello assume
una vita al di là dei dati. Rappresenta un'idea più grande della somma delle
sue parti.&amp;nbsp;&lt;/span&gt;&lt;span style="font-size: 16pt;"&gt;Esistono molti tipi diversi di
modelli.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Equazioni
matematiche&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Diagrammi
relazionali come alberi e grafici&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Regole
logiche if/else&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;Raggruppamenti
di dati noti come clusters&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La scelta del modello in genere
non è lasciata alla macchina. E’ l'attività di apprendimento dei dati a
disposizione, invece che aiuta nella selezione del modello. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il processo di adattamento di un
modello a un set di dati è noto come addestramento (training). Quando il
modello è stato addestrato, i dati vengono trasformati in una forma astratta
che riassume le informazioni originali.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La rappresentazione assume una
vita al di là dei dati.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-MBFwDbiR0DVV0yUMGBJzTeS_zgEOucJzFbynsArHfDKrUJveMnvcJTH1MAsQeKPFG7EX2aDvHSS9aBaXOWJc5Mq80Onj5zBzUYWtqvb8B8ZdhTQmmfWp3uH9jv1RJMoed5gEK6eu/s600/m4.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="196" data-original-width="600" height="168" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-MBFwDbiR0DVV0yUMGBJzTeS_zgEOucJzFbynsArHfDKrUJveMnvcJTH1MAsQeKPFG7EX2aDvHSS9aBaXOWJc5Mq80Onj5zBzUYWtqvb8B8ZdhTQmmfWp3uH9jv1RJMoed5gEK6eu/w513-h168/m4.png" width="513" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt;"&gt;La maggior parte dei modelli sviluppati
non portano a grandi scoperte scientifiche. Alcuni di essi comunque portano
alla scoperta di relazioni mai viste prima tra i dati. Un modello addestrato su
dati genomici potrebbe trovare diversi geni che, se combinati, potrebbero
essere responsabili dell'insorgenza del diabete; le banche potrebbero scoprire
un tipo di transazione apparentemente innocuo che appare sistematicamente prima
di un'attività fraudolenta; gli psicologi potrebbero identificare una
combinazione di caratteristiche della personalità che indicano un nuovo
disturbo. Questi modelli sottostanti ai dati sono stati sempre li, e’ solo un
modo di presentare le informazioni in un formato diverso, viene concettualizzato
in una nuova idea.&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il processo di apprendimento non
è completo finché lo studente/computer non è in grado di utilizzare la sua
conoscenza astratta per azioni future. Tuttavia, tra gli innumerevoli modelli
sottostanti che potrebbero essere identificati durante il processo di
astrazione e la miriade di modi per costruire questi modelli, alcuni saranno
più utili di altri. A meno che il processo di astrazione non sia limitato, lo
studente/computer non sarà in grado di procedere. Sarebbe bloccato dove è
iniziato, con un ampio pool di informazioni, ma nessuna intuizione
utilizzabile.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il termine generalizzazione
descrive il processo di trasformazione della conoscenza astratta in una forma
che può essere utilizzata per azioni future, su compiti simili, ma non
identici, a quelli visti prima. La generalizzazione è un processo difficile da
descrivere. Tradizionalmente, è stato immaginato come una ricerca attraverso
l'intero insieme di modelli (cioè teorie o inferenze) che potrebbero essere
astratte durante l'allenamento. In altre parole, se puoi immaginare un
ipotetico set contenente ogni possibile teoria che potrebbe essere stabilita
dai dati, la generalizzazione implica la riduzione di questo insieme ad un
numero gestibile di scoperte.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Nella generalizzazione, lo
studente/computer ha il compito di limitare i modelli che scopre solo a quelli
che saranno più rilevanti per i suoi compiti futuri. In generale, non è
possibile ridurre il numero di modelli esaminandoli uno ad uno e
classificandoli in base all'utilità futura. Invece, gli algoritmi di
apprendimento automatico utilizzano generalmente scorciatoie che riducono
velocemente lo spazio di ricerca. A tal fine, l'algoritmo utilizza le cosiddette
euristiche, cioe’ le ipotesi plausibili con cui trovare le inferenze più utili.
L'euristica viene abitualmente utilizzata dagli esseri umani per generalizzare
rapidamente l'esperienza a nuovi scenari. L'incredibile capacità umana di
prendere decisioni rapide spesso non si basa sulla logica del computer, ma
piuttosto su euristiche guidate dalle emozioni. A volte, questo può portare a
conclusioni illogiche. Ad esempio, più persone esprimono paura dei viaggi aerei
rispetto ai viaggi in automobile, nonostante le automobili siano
statisticamente più pericolose. Ciò può essere spiegato dalla disponibilità
euristica, che è la tendenza delle persone a stimare la probabilità di un
evento in base alla facilità con cui i suoi esempi possono essere richiamati.
Gli incidenti che coinvolgono i viaggi aerei sono molto pubblicizzati.
Trattandosi di eventi traumatici, è probabile che vengano ricordati molto
facilmente, mentre gli incidenti automobilistici meritano a malapena una
menzione sul giornale.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La follia delle euristiche
applicate in modo errato non è limitata agli esseri umani. Anche le euristiche
impiegate dagli algoritmi di apprendimento automatico a volte portano a
conclusioni errate. Si dice che l'algoritmo abbia un pregiudizio se le
conclusioni sono sistematicamente errate o sbagliate in modo prevedibile.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Ad esempio, supponiamo che un
algoritmo di apprendimento automatico abbia imparato a identificare i volti
trovando due cerchi scuri che rappresentano gli occhi, posizionati sopra una
linea retta che indica una bocca. L'algoritmo potrebbe quindi avere problemi, o
essere prevenuto, con volti che non sono conformi al suo modello. I volti con
gli occhiali, girati ad angolo, che guardano di lato o con varie tonalità della
pelle potrebbero non essere rilevati dall'algoritmo. Allo stesso modo, potrebbe
essere prevenuto verso volti con determinate tonalità della pelle, viso forme o
altre caratteristiche che non sono conformi alla sua comprensione del mondo.&lt;/span&gt;&lt;span lang="IT"&gt; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSTkUriLyfvpWtWZssL9iStx8VGzy2IYXg9ZHtXlik4CFsBKmO28li3Bb6vronpeuLBw0udDM2GYguQWCey3ippyiaxqxk2rV1qhWkvd_iqy8j7DV27vUDieg2y3_5u3MPoRrdjtpY/s600/m5.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="172" data-original-width="600" height="115" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSTkUriLyfvpWtWZssL9iStx8VGzy2IYXg9ZHtXlik4CFsBKmO28li3Bb6vronpeuLBw0udDM2GYguQWCey3ippyiaxqxk2rV1qhWkvd_iqy8j7DV27vUDieg2y3_5u3MPoRrdjtpY/w400-h115/m5.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt;"&gt;Nell'uso moderno, la parola bias
ha assunto connotazioni piuttosto negative. Varie forme di mass media affermano
spesso di essere liberi da pregiudizi e affermano di riferire i fatti in modo
obiettivo, non contaminato dalle emozioni. Tuttavia, supponiamo per un momento
la possibilità che un piccolo pregiudizio possa essere utile. Senza un po' di arbitrarietà,
potrebbe essere difficile decidere tra diverse scelte concorrenti, ognuna con
punti di forza e di debolezza distinti? In effetti, alcuni studi recenti nel
campo della psicologia hanno suggerito che le persone nate con danni a parti
del cervello responsabili delle emozioni sono inefficaci nel processo decisionale
e potrebbero passare ore a discutere di decisioni semplici come il colore della
camicia da indossare o dove pranzare. Paradossalmente, il pregiudizio è ciò che
ci rende ciechi ad alcune informazioni e ci consente anche di utilizzare altre
informazioni per l'azione. È il modo in cui gli algoritmi di apprendimento
automatico scelgono tra gli innumerevoli modi per comprendere un insieme di
dati.&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il bias è un male necessario
associato ai processi di astrazione e generalizzazione inerenti a qualsiasi compito
di apprendimento. Per guidare l'azione di fronte a possibilità illimitate, ogni
studente/computer deve essere prevenuto in un modo particolare. Di conseguenza,
ogni studente ha i suoi punti deboli e non esiste un unico algoritmo di
apprendimento per dominarli tutti. Pertanto, il passaggio finale nel processo
di generalizzazione è valutare o misurare il successo dello studente/computer
nonostante i suoi pregiudizi e utilizzare queste informazioni per fornire informazione
aggiuntiva, se necessario. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;In genere, la valutazione avviene
dopo che un modello è stato addestrato su un set di dati di training iniziale.
Quindi, il modello viene valutato su un nuovo set di dati di test per giudicare
quanto bene la sua caratterizzazione dei dati di addestramento si generalizza a
dati nuovi e mai visti prima. Vale la pena notare che è estremamente raro che
un modello generalizzi perfettamente a ogni caso imprevisto. In alcune parti, i
modelli non riescono a generalizzare perfettamente a causa del problema del rumore,
un termine che descrive variazioni inspiegabili o inspiegabili nei dati. I dati
rumorosi sono causati da eventi apparentemente casuali, come:&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Errore
di misurazione dovuto a sensori imprecisi che a volte aggiungono o sottraggono
un po' dalle letture&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Problemi
con soggetti umani, come i rispondenti al sondaggio che riportano risposte
casuali alle domande del sondaggio, al fine di terminare più rapidamente&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Problemi
di qualità dei dati, inclusi valori mancanti, nulli, troncati, codificati in
modo errato o danneggiati&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-size: 16pt; text-indent: -0.25in;"&gt;Fenomeni
così complessi o così poco compresi da influire sui dati in modi che sembrano
non sistematici&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Cercare di modellare il rumore è
alla base di un problema chiamato &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Overfitting"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;overfitting&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Poiché
la maggior parte dei dati rumorosi è inspiegabile per definizione, il tentativo
di spiegare il rumore porterà a conclusioni errate che non si generalizzano
bene a nuovi casi. Gli sforzi per spiegare il rumore si tradurranno anche in
modelli più complessi che mancheranno il vero modello che lo studente/computer
cerca di identificare. Un modello che sembra funzionare bene durante
l'addestramento, ma scarsamente durante la valutazione, si dice che sia troppo
adattato al set di dati di addestramento, in quanto non generalizza bene al set
di dati di test.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgq89xWwF7e3quau_Ao3uSg3RGmD8TbKuA4NjuhjHBK343atqIn7bYORFABytPnte5n-uE4eqNUI9_Stt3xqdSygmjd5pP4SwZ8rFsdhhqQCdeoES1cLotVSNzjuPolY5Sdlol2GJf5/s500/m6.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="194" data-original-width="500" height="155" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgq89xWwF7e3quau_Ao3uSg3RGmD8TbKuA4NjuhjHBK343atqIn7bYORFABytPnte5n-uE4eqNUI9_Stt3xqdSygmjd5pP4SwZ8rFsdhhqQCdeoES1cLotVSNzjuPolY5Sdlol2GJf5/w400-h155/m6.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="center" class="MsoNormal"&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le soluzioni al problema
dell'overfitting sono specifiche per particolari approcci di machine learning.
Per ora, il punto importante è essere consapevoli del problema. La capacità dei
modelli di gestire dati rumorosi è un'importante fonte di distinzione tra di
loro.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Finora, ci siamo concentrati su
come funziona l'apprendimento automatico in teoria. Per applicare il processo
di apprendimento alle attività del mondo reale, in genere si utilizza un processo
in cinque fasi. Indipendentemente dall'attività in corso, qualsiasi algoritmo
di apprendimento automatico può essere distribuito seguendo questi passaggi:&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;b style="text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Raccolta
dei dati:&lt;/span&gt;&lt;/b&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt; la fase di raccolta dei dati implica la raccolta del
materiale di apprendimento che un algoritmo utilizzerà per generare conoscenza
utilizzabile. Nella maggior parte dei casi, i dati dovranno essere combinati in
un'unica fonte come un file di testo, un foglio di calcolo o un database.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;b style="text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Esplorazione
e preparazione dei dati:&lt;/span&gt;&lt;/b&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt; la qualità di qualsiasi progetto di
machine learning si basa in gran parte sulla qualità dei suoi dati di input.
Pertanto, è importante saperne di più sui dati e sulle loro sfumature durante
una pratica chiamata esplorazione dei dati. È necessario un lavoro aggiuntivo
per preparare i dati per il processo di apprendimento. Ciò comporta la
correzione o la pulizia dei cosiddetti dati "disordinati",
l'eliminazione dei dati non necessari e la ricodifica dei dati per conformarli
agli input previsti dallo studente.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt;&lt;b&gt;F&lt;/b&gt;&lt;/span&gt;&lt;b style="text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;ormazione
del modello:&lt;/span&gt;&lt;/b&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt; nel momento in cui i dati sono stati preparati per
l'analisi, è probabile che tu abbia un'idea di ciò che sei in grado di
apprendere dai dati. Il compito specifico di apprendimento automatico scelto
informerà la selezione di un algoritmo appropriato e l'algoritmo rappresenterà
i dati sotto forma di un modello.&amp;nbsp;
Valutazione del modello: poiché ogni modello di apprendimento automatico
risulta in una soluzione parziale al problema di apprendimento, è importante
valutare quanto bene l'algoritmo apprende dalla sua esperienza. A seconda del
tipo di modello utilizzato, potrebbe essere possibile valutare l'accuratezza
del modello utilizzando un set di dati di test oppure potrebbe essere
necessario sviluppare misure di prestazioni specifiche per l'applicazione
prevista.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;b style="text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Miglioramento
del modello:&lt;/span&gt;&lt;/b&gt;&lt;span lang="IT" style="font-size: 16pt; line-height: 107%; text-indent: -0.25in;"&gt; se sono necessarie prestazioni migliori, diventa
necessario utilizzare strategie più avanzate per aumentare le prestazioni del
modello. A volte, potrebbe essere necessario passare a un tipo di modello
completamente diverso. Potrebbe essere necessario integrare i dati con dati
aggiuntivi o eseguire lavori preparatori aggiuntivi come nella fase due di
questo processo.&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Dopo aver completato questi
passaggi, se il modello sembra funzionare bene, può essere distribuito per
l'attività prevista. A seconda dei casi, si potrebbe utilizzare il modello per
fornire dati sulle previsioni (possibilmente in tempo reale), per proiezioni di
dati finanziari, per generare informazioni utili per il marketing o la ricerca
o per automatizzare attività come la consegna della posta o l'aereo in volo . I
successi e gli insuccessi del modello distribuito potrebbero persino fornire
dati aggiuntivi per formare lo studente di prossima generazione.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La pratica dell'apprendimento
automatico implica l'abbinamento delle caratteristiche dei dati di input ai
pregiudizi degli approcci disponibili. Pertanto, prima di applicare
l'apprendimento automatico ai problemi del mondo reale, è importante
comprendere la terminologia che distingue tra i set di dati di input.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;La frase unità di osservazione
viene utilizzata per descrivere l'entità più piccola con proprietà misurate di
interesse per uno studio. Comunemente, l'unità di osservazione è sotto forma di
persone, oggetti o cose, transazioni, punti temporali, regioni geografiche o
misurazioni. A volte, le unità di osservazione sono combinate per formare unità
come anni-persona, che denotano casi in cui la stessa persona viene monitorata
per più anni; ogni anno-persona comprende i dati di una persona per un anno.&lt;/span&gt;&lt;span lang="IT"&gt; &lt;/span&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;I set di dati che memorizzano le
unità di osservazione e le loro proprietà possono essere immaginati come
raccolte di dati costituite da:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Esempi: istanze dell'unità di
osservazione per cui sono state registrate le proprietà&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Caratteristiche: proprietà
registrate o attributi di esempi che possono essere utili per l'apprendimento&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;È più facile comprendere le
caratteristiche e gli esempi attraverso casi del mondo reale. Per costruire un
algoritmo di apprendimento per identificare la posta indesiderata, l'unità di
osservazione potrebbe essere i messaggi di posta elettronica, gli esempi
sarebbero messaggi specifici e le caratteristiche potrebbero consistere nelle
parole utilizzate nei messaggi. Per un algoritmo di rilevamento del cancro,
l'unità di osservazione potrebbe essere i pazienti, gli esempi potrebbero
includere un campione casuale di pazienti affetti da cancro e le
caratteristiche potrebbero essere i marcatori genomici delle cellule biopsiate
nonché le caratteristiche del paziente come peso, altezza o pressione
sanguigna.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Sebbene gli esempi e le funzionalità
non debbano essere raccolti in una forma specifica, sono comunemente raccolti
in formato matrice, il che significa che ogni esempio ha esattamente le stesse
caratteristiche.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il seguente foglio di calcolo
mostra un set di dati in formato matrice. Nei dati a matrice, ogni riga del
foglio di calcolo è un esempio e ogni colonna è una caratteristica. Qui, le
righe indicano esempi di automobili, mentre le colonne registrano varie
caratteristiche di ciascuna automobile, come il prezzo, chilometraggio, colore
e tipo di trasmissione. I dati in formato matrice sono di gran lunga la forma
più comune utilizzata nell'apprendimento automatico. Tuttavia, ci sono anche altre
forme che vengono utilizzate occasionalmente in casi speciali. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEtuZuqSTwEiBnCcr_8JB-jmmyrJjN4Rz09fd3D3G6rAZ7v0FQlEpoEcGdGTJZ2UwNnkLxf_U-Vdw6DvlMBra8U0DP2djXnrzE5_ZbX_RTHwdXmutznPEeSfOedf_xZSnoHBvM3mq9/s600/m7.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="263" data-original-width="600" height="214" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEtuZuqSTwEiBnCcr_8JB-jmmyrJjN4Rz09fd3D3G6rAZ7v0FQlEpoEcGdGTJZ2UwNnkLxf_U-Vdw6DvlMBra8U0DP2djXnrzE5_ZbX_RTHwdXmutznPEeSfOedf_xZSnoHBvM3mq9/w489-h214/m7.png" width="489" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p align="center" class="MsoNormal"&gt;&lt;span style="font-size: 16pt; text-align: justify;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le funzionalità sono disponibili
anche in varie forme. Se una caratteristica rappresenta una variabile misurata,
non sorprende che venga chiamata numerica. In alternativa, se un elemento è un
attributo costituito da un insieme di categorie, l'elemento è chiamato categorico
o nominale. Un caso speciale di variabili categoriche è chiamato ordinale, che
designa una variabile nominale con categorie che rientrano in un elenco
ordinato. Alcuni esempi di variabili ordinali includono taglie di abbigliamento
come piccola, media e grande; o una misurazione della soddisfazione del cliente
su una scala da "per niente felice" a "molto felice". È
importante considerare ciò che rappresentano le funzionalità, come il tipo e il
numero nel set di dati che aiuterà a determinare un algoritmo di apprendimento
automatico appropriato. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Gli algoritmi di apprendimento
automatico sono suddivisi in categorie in base al loro scopo. Comprendere le
categorie di algoritmi di apprendimento è un primo passo essenziale verso
l'utilizzo dei dati per guidare l'azione desiderata.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Un modello predittivo viene
utilizzato per attività che implicano, come suggerisce il nome, la previsione
di un valore utilizzando altri valori nel set di dati. L'algoritmo di
apprendimento tenta di scoprire e modellare la relazione tra la caratteristica
di destinazione (la caratteristica da prevedere) e le altre caratteristiche.
Nonostante l'uso comune della parola "previsione", i modelli
predittivi non devono necessariamente prevedere eventi futuri. Ad esempio, un
modello predittivo potrebbe essere utilizzato per prevedere eventi passati,
come la data del concepimento di un bambino utilizzando i livelli ormonali
attuali della madre. I modelli predittivi possono anche essere utilizzati in
tempo reale per controllare i semafori nelle ore di punta.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Poiché ai modelli predittivi
vengono fornite istruzioni chiare su ciò che devono apprendere e su come
intendono apprenderlo, il processo di formazione di un modello predittivo è
noto come &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Apprendimento_supervisionato"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;apprendimento
supervisionato&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. La supervisione non si riferisce al coinvolgimento
umano, ma piuttosto al fatto che i valori target forniscono allo studente un
modo per conoscere quanto bene ha imparato il compito desiderato. Detto in modo
più formale, dato un insieme di dati, un algoritmo di apprendimento
supervisionato tenta di ottimizzare una funzione (il modello) per trovare la
combinazione dei valori delle caratteristiche (predictors) che risultano nell'output
di destinazione (response).&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;L'attività di apprendimento
automatico supervisionato spesso utilizzata per prevedere a quale categoria
appartiene un esempio è nota come classificazione. È facile pensare ai
potenziali usi di un classificatore. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Stabilire se un messaggio di
posta elettronica è spam&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Stabilire se una persona e’
ammalata di cancro&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Stabilire se una squadra di
calcio vincerà o perderà una partita&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Stabilire se un richiedente andrà
in negativo su un prestito&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Nella classificazione, l'elemento
target da prevedere è un elemento categorico noto come classe ed è suddiviso in
categorie chiamate livelli. Una classe può avere due o più livelli e i livelli
possono o non possono essere ordinali. Poiché la classificazione è così
ampiamente utilizzata nell'apprendimento automatico, esistono molti tipi di
algoritmi di classificazione, con punti di forza e di debolezza adatti a
diversi tipi di dati di input. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Gli algoritmi supervisionati
possono essere utilizzati anche per prevedere dati numerici come reddito,
valori di laboratorio, punteggi di test o conteggi di elementi. Per prevedere
tali valori numerici, una forma comune di previsione numerica adatta modelli di
regressione lineare &amp;nbsp;ai dati di input.
Sebbene i modelli di regressione non siano l'unico tipo di modello numerico,
sono di gran lunga i più utilizzati. I metodi di regressione sono ampiamente
utilizzati per la previsione, poiché quantificano in termini esatti
l'associazione tra input e target, inclusi entrambi, l'entità e l'incertezza
della relazione. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Un modello descrittivo invece viene
utilizzato per attività che devono trarre vantaggio dal mettere insieme tutte
le informazioni acquisite e analizzate in modo nuovo e interessante. A
differenza dei modelli predittivi che prevedono un obiettivo di interesse, in
un modello descrittivo nessuna singola caratteristica è più importante di
qualsiasi altra. Poiché non vi è alcun obiettivo da apprendere, il processo di
formazione di un modello descrittivo è chiamato apprendimento senza
supervisione (&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Apprendimento_non_supervisionato"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;unsupervised&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;).
Sebbene possa essere più difficile pensare ad applicazioni per modelli
descrittivi - dopotutto a cosa serve uno studente che non sta imparando nulla
in particolare - vengono utilizzati abbastanza regolarmente per attivita’ di data
mining. Ad esempio, l'attività di modellizzazione descrittiva chiamata pattern
discovery utilizzata per identificare associazioni utili all'interno dei dati. Per
esempio nel caso di un Supermercato, l'obiettivo è quello di identificare quegli
articoli che vengono acquistati insieme di frequente, in modo che le
informazioni apprese possano essere utilizzate per perfezionare le tattiche di
marketing. &amp;nbsp;Ad esempio, se un rivenditore
viene a sapere che i costumi da bagno vengono comunemente acquistati
contemporaneamente agli occhiali da sole, potrebbe posizionare gli articoli vicino
nel negozio o eseguire una promozione per "vendere" ai clienti gli
articoli associati. Il compito di modellizzazione descrittiva di dividere un
set di dati in gruppi omogenei è chiamato &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Clustering"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;clustering&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. A
volte viene utilizzato per l'analisi della segmentazione che identifica gruppi
di individui con comportamenti o informazioni demografiche simili, in modo che
le campagne pubblicitarie possano essere adattate a un pubblico particolare.
Sebbene la macchina sia in grado di identificare i cluster, è necessario
l'intervento umano per interpretarli. Ad esempio, dato cinque diversi gruppi di
acquirenti in un negozio di alimentari il team di marketing dovrà comprendere
le differenze tra i gruppi al fine di creare una promozione che meglio si
adatti a ciascun gruppo.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Infine, c’e’ un’altra classe di
algoritmi che vanno sotto il nome di &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Apprendimento_per_rinforzo"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;algoritmi di
re-inforcemen&lt;/span&gt;t&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. &amp;nbsp;L'apprendimento
per rinforzo è un metodo di apprendimento automatico basato sulla ricompensa
dei comportamenti desiderati e/o sulla punizione di quelli indesiderati. In
generale, un agente di apprendimento per rinforzo è in grado di percepire e
interpretare il suo ambiente, intraprendere azioni e apprendere attraverso
tentativi ed errori.&amp;nbsp; Nell'apprendimento
per rinforzo, gli sviluppatori escogitano un metodo per premiare i
comportamenti desiderati e punire i comportamenti indesiderati. Questo metodo
assegna valori positivi alle azioni desiderate per incoraggiare l'agente e
valori negativi a comportamenti indesiderati. Questo fa si che l'agente cerca
continuamente di ottenere la massima ricompensa possibile per ottenere alla
fine una soluzione ottimale. Questi obiettivi a lungo termine aiutano a
prevenire che l'agente si blocchi su obiettivi minori. Con il tempo, l'agente
impara a evitare il negativo e a cercare il positivo. Questo metodo di
apprendimento è stato adottato nell'intelligenza artificiale (AI) come un modo
per dirigere l'apprendimento automatico senza supervisione attraverso
ricompense e penalità.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;I videogiochi sono probabilmente
il campo di utilizzo più comune per l'apprendimento per rinforzo. Esso e’ in
grado di raggiungere prestazioni sovrumane in numerosi giochi. Un esempio
comune riguarda il &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Pac-Man"&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;gioco
del Pac-Man&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Un algoritmo di apprendimento che gioca a Pac-Man deve avere
la capacità di muoversi in una delle quattro possibili direzioni, escludendo
l'ostruzione. Dai dati dei pixel, un agente puo’ ricevere una ricompensa
numerica per il risultato di un'unità di viaggio: 0 per lo spazio vuoto, 1 per
i pellet, 2 per la frutta, 3 per i power pellet, 4 per i fantasmi dopo i power
pellets, 5 per la raccolta di tutte le pallottole e il completamento di un
livello e una detrazione di 5 punti per la collisione con un fantasma. L'agente
inizia dal gioco casuale e passa a un gioco più sofisticato, imparando
l'obiettivo per ottenere tutte le palline per completare il livello. Con il
tempo, un agente potrebbe persino imparare tattiche come conservare i
proiettili energetici fino a quando non saranno necessari per l'autodifesa. Nella
robotica, l'apprendimento per rinforzo ha trovato la sua applicazione in test
limitati. Questo tipo di apprendimento automatico può fornire ai robot la
capacità di apprendere compiti che un insegnante umano non può dimostrare, di
adattare un'abilità appresa a un nuovo compito o di ottenere l'ottimizzazione
nonostante la mancanza di una formulazione analitica disponibile. L'apprendimento
per rinforzo viene utilizzato anche nella ricerca operativa, nella teoria
dell'informazione, nella teoria dei giochi, nella teoria del controllo,
nell'ottimizzazione basata sulla simulazione, nei sistemi multiagente,
nell'intelligenza degli sciami, nelle statistiche e negli algoritmi genetici.&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;</description><link>http://quantidiscienza.blogspot.com/2021/08/il-machine-learning-per-navigare-nel.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhHErXJCh9MVgoFfnoSNTIoikYSR0R6KWfTvi_t-pe8bmo4-I5LrslYR2yiRcVtuwAv5uv4g6cpgRmGDd9qd8pLH7QVql6xM6_YPc87cPtfPOfnHcOK89X4PltSbm8y_Z__IYvIzvez/s72-c/m1.png" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3129845037665498596</guid><pubDate>Fri, 16 Jul 2021 13:17:00 +0000</pubDate><atom:updated>2021-07-16T06:21:00.051-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">intelligenza artificiale</category><category domain="http://www.blogger.com/atom/ns#">labquake</category><category domain="http://www.blogger.com/atom/ns#">machine learning</category><category domain="http://www.blogger.com/atom/ns#">predizione</category><category domain="http://www.blogger.com/atom/ns#">random forest</category><category domain="http://www.blogger.com/atom/ns#">terremoti</category><category domain="http://www.blogger.com/atom/ns#">time to fail</category><title>Come il machine learning puo’ aiutare i geofisici nella predizione dei terremoti</title><description>&lt;p style="text-align: justify;"&gt;&amp;nbsp;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16.0pt; line-height: 107%; mso-ansi-language: IT;"&gt;Come residente della regione Abruzzo, una delle piu’ pericolose da un punto
di vista sismico, e dopo aver vissuto il terremoto dell’Irpinia degli anni
ottanta ho sperimentato sulla mia pelle la pericolosita’&amp;nbsp; di questo evento naturale che puo’ fare molti
morti se ci trova impreparati.&amp;nbsp;&amp;nbsp; &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Se si riuscisse a prevedere quando avverra’ un terremoto,
il popolo potrebbe prendere azioni preventive e si potrebbero salvare cosi
potenzialmente molte vite. Con l’avvento del &lt;/span&gt;&lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Machine_learning#:~:text=Machine%20learning%20(ML)%20is%20the,a%20part%20of%20artificial%20intelligence.&amp;amp;text=The%20study%20of%20mathematical%20optimization,the%20field%20of%20machine%20learning."&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Machine Learning&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt; negli anni ottanta, i sismologi erano molto ottimisti e
pensavano che prima o poi si sarebbe risolto il problema. Negli anni successivi
purtroppo i sismologi hanno imparato che prevedere i terremoti e’ molto piu’
complicato di quanto pensavano a parte qualche dubbio risultato di scienza
scadente come quello relativo al terremoto dell’Aquila o quelli riportati nel
bel libro di &lt;/span&gt;&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Nate_Silver"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Nate Silver&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt; “ The signal and the noise”. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le onde generate da un terremoto sono composte da due tipi
di onde: &lt;/span&gt;&lt;/span&gt;&lt;a href="https://earthquake.usgs.gov/learn/glossary/?term=p%20wave"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;p-waves&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt; (onde di compressione) che viaggiano ad alta velocita’ e
quindi meno dannose e le &lt;/span&gt;&lt;/span&gt;&lt;a href="https://earthquake.usgs.gov/learn/glossary/?term=s%20wave"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;s-waves&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt; (onde di traslazione) che arrivano qualche secondo dopo
le p-vawes e che generano i danni maggiori. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="mso-bookmark: _Hlk76656251;"&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhvZPGq0e9OWI-6clRNNXjcHpUVCReKB_gOlRLSCFi73uf2H0bsSD79tz1xZzYZFTvlpHAp8YaXqeHFiVFnHjTiO0dSmDT9fq9fXjaoH-ujR2rK9uACdMW0XtkXzE2sF5oCWeLoNtqf/s850/p1.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="429" data-original-width="850" height="222" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhvZPGq0e9OWI-6clRNNXjcHpUVCReKB_gOlRLSCFi73uf2H0bsSD79tz1xZzYZFTvlpHAp8YaXqeHFiVFnHjTiO0dSmDT9fq9fXjaoH-ujR2rK9uACdMW0XtkXzE2sF5oCWeLoNtqf/w440-h222/p1.png" width="440" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjr1P4HITjEQVgSI2Mr37F1EsSFKGeoO5EsTXpzhz-3ZPXYKcr7jnVZStEcJ7unqtRmpnDSuvX4ETepbOZTPxGRjN6deMS5XJtFyWHSoW-OaD3VdHfirzvnXHy2YVV7-VgBI38-MCzB/s864/p2.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="570" data-original-width="864" height="282" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjr1P4HITjEQVgSI2Mr37F1EsSFKGeoO5EsTXpzhz-3ZPXYKcr7jnVZStEcJ7unqtRmpnDSuvX4ETepbOZTPxGRjN6deMS5XJtFyWHSoW-OaD3VdHfirzvnXHy2YVV7-VgBI38-MCzB/w427-h282/p2.png" width="427" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Rispetto agli anni ottanta il Machine Learning ha fatto molti passi avanti
e c’e’ stato anche un aumento significativo dei dati raccolti sul campo e nei
diversi laboratori del mondo; questo ha portato una nuova ventata di speranza
di poter arrivare prima o poi alla previsione di questi eventi disastrosi.&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;In questo post cerco di descrivere proprio l’uso del machine learning nella
modellizzazione di un set di dati pubblicati dai &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Los_Alamos_National_Laboratory"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Laboratori di Los Alamos&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;, ottenuti grazie ad un esperimento che cerca di mimare i
terremoti reali. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;L’esperimento e’ stato realizzato utilizzando &amp;nbsp;due presse idrauliche applicate a due lastre
di acciaio con in mezzo uno strato granulare che allo stesso tempo viene spinto
lentamente verso il basso. Dei sensori acustici catturano il suono generato
dall’attrito del sistema generando in output un segnale digitale continuo (vedi
immagine di seguito). Questo esperimento e’ una buona simulazione del movimento
delle placche tettoniche vicino ad una linea di faglia, producendo dei terremoti
ad un tasso &amp;nbsp;relativamente consistente.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7HfOhPgwhnOpTa8N7yNdpUxkJAjePcyi85lkjE80gCEhdAVF7sNqMlxquU8Hqd-Zx3NAnn5YzGfnnXKMKFUdYGUvKF54ruYtBYrDlAsgPFfS7VD29VtNzjXT5NQCMY6txqQUm7J1Y/s769/p3.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="769" data-original-width="500" height="579" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7HfOhPgwhnOpTa8N7yNdpUxkJAjePcyi85lkjE80gCEhdAVF7sNqMlxquU8Hqd-Zx3NAnn5YzGfnnXKMKFUdYGUvKF54ruYtBYrDlAsgPFfS7VD29VtNzjXT5NQCMY6txqQUm7J1Y/w376-h579/p3.png" width="376" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT;"&gt;Il terremoto è un intenso scuotimento della superficie
terrestre dovuto a un improvviso slittamento delle rocce nella crosta terrestre
o a faglie vicino all'interfaccia tra le placche tettoniche. Il primo terremoto
di cui si abbia notizia e’ quello verificatosi in Cina nel 1177 a.C. Il primo &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Sismoscopio"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT;"&gt;sismoscopio&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT;"&gt; fu quello
inventato dal filosofo cinese &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Zhang_Heng"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT;"&gt;Chang Heng&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT;"&gt; nel 132 d.C. Sebbene oggi il
monitoraggio e la registrazione dei terremoti e’ un qualche cosa di ben
sviluppato, non siamo ancora in grado di prevederli né di comprenderne la causa
esatta. I terremoti tuttavia e le loro conseguenze sono tra gli eventi che di
più hanno cambiato la vita nella storia dell'umanità. Le attività sismiche e le
conseguenze dei disastri sono state la causa maggiore di&amp;nbsp; perdite di vite umane rispetto a tutti gli
altri rischi naturali messi insieme negli ultimi due decenni, in quantro molti
paesi si trovano in zone&amp;nbsp; sismicamente
attive. L'approccio descritto in questo post combina il machine learning con
metodi tipici delle serie temporali per stabilire &amp;nbsp;l'insieme di caratteristiche statistiche più
adatte alla previsione del cosiddetto time to fail (TTF - il tempo rimanente
prima di un sisma). Il database messo a disposizione dai Laboratori di Los
Alamos consiste di due colonne e circa 630 milioni di righe.&amp;nbsp; &lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Le due colonne del database hanno il seguente
significato:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 10pt; text-indent: -0.25in;"&gt;·&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp; &amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;acoustic_data: il segnale acustico registrato in
laboratorio durante l’esperimento;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 10pt; text-indent: -0.25in;"&gt;·&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;time to failure TTF: il tempo rimanente in secondi prima
che ci sia un terremoto.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoListParagraph"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt;Qui di seguito alcune righe del
database in oggetto visualizzate con il software &lt;/span&gt;&lt;a href="https://www.jmp.com/en_my/software/predictive-analytics-software.html" style="text-align: justify;"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;JMP Pro&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt; &lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt;della SAS con cui verranno effettuate
tutte le analisi successive.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjn4rD-KTAlWkPTT7xQLzB-Pwp64DzwJettTRYPYfgFELqS_4zGfwTQxwf2thOX4yFiXOhPwIHnDIAGsKiD1FLEr2s327gmRhsIA-L_FftbIQkx0oMJVtXfwDxboBvARjj2eucj8Uik/s804/p4.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="804" data-original-width="315" height="556" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjn4rD-KTAlWkPTT7xQLzB-Pwp64DzwJettTRYPYfgFELqS_4zGfwTQxwf2thOX4yFiXOhPwIHnDIAGsKiD1FLEr2s327gmRhsIA-L_FftbIQkx0oMJVtXfwDxboBvARjj2eucj8Uik/w217-h556/p4.png" width="217" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 3pt; margin-right: 24pt; mso-margin-top-alt: auto; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Nei due grafici seguenti viene riportato
l’andamento del segnale acustico e il time to fail TTF dell’intero esperimento.
Ci sono 16 terremoti in totale con time to fail che vanno da circa 16 sec a
pochi secondi.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgj5i3gW2mQ8_hmMzbzRur59Llj-_g9yW6dbhfS1dDhX7eTOJN3ehv8SfXGVV2iFFcd8oPxp90FuVVB32lKW4FSD8rC2iY5eTo7gLr9NBOu1E-bVaO5L1Ych5OS1tvZ-77koURhZPK4/s891/p5.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="728" data-original-width="891" height="414" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgj5i3gW2mQ8_hmMzbzRur59Llj-_g9yW6dbhfS1dDhX7eTOJN3ehv8SfXGVV2iFFcd8oPxp90FuVVB32lKW4FSD8rC2iY5eTo7gLr9NBOu1E-bVaO5L1Ych5OS1tvZ-77koURhZPK4/w508-h414/p5.png" width="508" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 3pt; margin-right: 24pt; mso-margin-top-alt: auto; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Allo scopo di alleggerire il lavoro
della CPU del mio PC ho considerato solo lo 0.025% dell’intero database
campionato in modo casuale per non perdere l’informazione principale contenuto
in esso. Evidenziati in nero due terremoti, l’ottavo e undicesimo della sequenza
con i dati ridotti.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 3pt; margin-right: 24pt; mso-margin-top-alt: auto; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 3pt; margin-right: 24pt; mso-margin-top-alt: auto; text-align: justify;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEibRJnt_0k6J8nYBAJv2e3v4u7o0BgQVw9eX9GNd8GeD-toaZLSlwEqsc_xJBuSNnNgc3OtI48o07c3Dnt_JsPEGD28TISmxr2E9Z5FP-MClN5mZcem4ez0IICANdmA-lWqAVqeyf2F/s1028/p6.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="479" data-original-width="1028" height="241" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEibRJnt_0k6J8nYBAJv2e3v4u7o0BgQVw9eX9GNd8GeD-toaZLSlwEqsc_xJBuSNnNgc3OtI48o07c3Dnt_JsPEGD28TISmxr2E9Z5FP-MClN5mZcem4ez0IICANdmA-lWqAVqeyf2F/w518-h241/p6.png" width="518" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiepWL54UQsurmXAZhTqGvg3zEE7R6KwxAwIdAB47l60Uc1kLyRR9k_GHcFHWll5t4j0XEYu9N1mnsnamyttsG_1CBeyEhgWXb33Y5GTo8qrXJ3J5HNolz-Lyle77ipnUBF0lZBMO9o/s1043/p7.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="424" data-original-width="1043" height="216" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiepWL54UQsurmXAZhTqGvg3zEE7R6KwxAwIdAB47l60Uc1kLyRR9k_GHcFHWll5t4j0XEYu9N1mnsnamyttsG_1CBeyEhgWXb33Y5GTo8qrXJ3J5HNolz-Lyle77ipnUBF0lZBMO9o/w533-h216/p7.png" width="533" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p class="MsoNormal" style="text-align: left;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;I dati acustici mostrano oscillazioni complesse con ampiezza variabile.
Subito prima di ogni terremoto si verifica un aumento dell'ampiezza dei dati
acustici. Grandi ampiezze si ottengono comunque anche in momenti diversi nel
tempo e non sempre esattamente prima di un sisma. Questo lo possiamo vedere nel
seguente grafico che riporta il segnale acustico dell’ottavo terremoto; le
ampie oscillazioni visibili prima del sisma non avvengono proprio all'ultimo
momento. Ci sono treni di oscillazioni intense che precedono il terremoto
principale e altri con picchi più piccoli che lo seguono. Quindi, dopo alcune
piccole oscillazioni, si verifica il terremoto.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: left;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: left;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMySBrW7O317w-7w1RJZAirj1uiv62-f_A5ugU8Y-j3xPBNIxyB9sJBj935tcWnrIwRfGdOnoWqG7ANt5lDqVyi2GsC2Y6nY8FQDGdFb0Ta31RcGt8YPfw-BV913bCE6ZY0LDXIlb8/s1034/p8.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="479" data-original-width="1034" height="280" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMySBrW7O317w-7w1RJZAirj1uiv62-f_A5ugU8Y-j3xPBNIxyB9sJBj935tcWnrIwRfGdOnoWqG7ANt5lDqVyi2GsC2Y6nY8FQDGdFb0Ta31RcGt8YPfw-BV913bCE6ZY0LDXIlb8/w606-h280/p8.png" width="606" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div style="text-align: justify;"&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Qui lo zoom sulla
parte finale dell’ottavo terremoto. Come si diceva le oscillazioni dopo l’evento
sismico sono molto piccole.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjhhVQx4IxJRI106EWRSjU3dGanHCWJo1Rkhcssj2jhFyoqH1qxqYlbL6Zj-I6jkmSeoIdFWXk3d7cduxKzr2NtU43ytXLCEbwOiP8NnePfwqdQPBKZbYzpdvQMejkfu2yuAt03v5a/s1060/p9.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="389" data-original-width="1060" height="219" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjhhVQx4IxJRI106EWRSjU3dGanHCWJo1Rkhcssj2jhFyoqH1qxqYlbL6Zj-I6jkmSeoIdFWXk3d7cduxKzr2NtU43ytXLCEbwOiP8NnePfwqdQPBKZbYzpdvQMejkfu2yuAt03v5a/w600-h219/p9.png" width="600" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Stessa cosa prima del
terremoto indicato qui di seguito con una freccia: si notano molti segnali con
picchi bassi prima dell’evento sismico. Questi picchi sono il risultato di
eventi di micro fratture che possono essere utilizzati per predire il Time to
fail (TTF).&amp;nbsp; In generale piu’ il TTF e’
corto e piu’ i picchi acustici sono frequenti. Le caratteristiche statistiche
del segnale acustico quindi possono essere utilizzate come predittori per il
modello di machine learning che andremo a sviluppare.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;p class="MsoNormal"&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjr-jWmGo8jEeICyhPpdob0pZ655P-22omdM-7gDp5o4XZe4BLa3FA-tyHGtTexDV1nNuVeeBBHxGXB47S73hsjtao97yP4AAHKf6-hnX6Jy2LXy0krD0Eg4jVBwK-RCDjBytUW94Mh/s827/p10.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="309" data-original-width="827" height="240" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjr-jWmGo8jEeICyhPpdob0pZ655P-22omdM-7gDp5o4XZe4BLa3FA-tyHGtTexDV1nNuVeeBBHxGXB47S73hsjtao97yP4AAHKf6-hnX6Jy2LXy0krD0Eg4jVBwK-RCDjBytUW94Mh/w640-h240/p10.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;La varianza del
segnale acustico e’ la feature piu’ importante anche se altri parametri
statistici come la kurtosis e la skewness non possono essere trascurati. Qui di
seguito l’analisi temporale dell’ottavo terremoto eseguita con il modulo di
time series di JMP Pro.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiI2aFMsPTpKCwoK2zXZuVQCJUvoRnOKp9xhtZYqjkkIM6V3pwhXH0qQ4xM9uu01KS4dNg0Yw4jn-yfCzQ2Q0qqtl7YdEp2zAmBEXLrqR9Gh4NL_ygTzjCh7hv3QQnlLZXnxIa7b-zs/s804/p11.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="804" data-original-width="735" height="558" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiI2aFMsPTpKCwoK2zXZuVQCJUvoRnOKp9xhtZYqjkkIM6V3pwhXH0qQ4xM9uu01KS4dNg0Yw4jn-yfCzQ2Q0qqtl7YdEp2zAmBEXLrqR9Gh4NL_ygTzjCh7hv3QQnlLZXnxIa7b-zs/w511-h558/p11.png" width="511" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;span style="background-color: white; font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;p class="MsoNormal"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; line-height: 107%; mso-ansi-language: IT;"&gt;Si vede chiaramente
che quando il tempo di fallimento tendo a zero (ci approssimiamo quindi all’evento
sismico) c’e’ un aumento della variabilita’ del segnale acustico.&amp;nbsp;&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZsayXpFQs-l6AlCaVJQpWjEX_pLKmeKJzvunQgvRUNKnh_9Goc6LWVTiodTVwUIokyxX7kHD0rA-_3ITzYQOkrzlVJCiNjr-lB0K5hkYzX4femd_JqaMLrH06SgHbnAYQave1N4Xc/s400/p12.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="326" data-original-width="400" height="325" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZsayXpFQs-l6AlCaVJQpWjEX_pLKmeKJzvunQgvRUNKnh_9Goc6LWVTiodTVwUIokyxX7kHD0rA-_3ITzYQOkrzlVJCiNjr-lB0K5hkYzX4femd_JqaMLrH06SgHbnAYQave1N4Xc/w398-h325/p12.png" width="398" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Ovviamente per
la costruzione di un modello predittivo non e’ possibile usare il solo segnale
acustico fornito dal laboratorio di Los Alamos. Bisogna costruire delle nuove
feature a partire dal dato acustico. Quest’attivita’ va sotto il nome di
feature engineering. Si tratta di costruire delle nuove colonne (predittori)
che possano aiutare l’algoritmo a fare le sue predizioni. Essendo il segnale
una serie temporale possiamo usare la tecnica della moving window. In parole
semplici a partire da un segnale se ne costruisce un altro calcolando una
particolare statistica all’interno di una finestra di dimensione fissata e che
si muove rigidamente di uno step alla volta. Supponiamo di avere i seguenti
valori: 1 2 3 4 5. Possiamo pensare di costruire una finestra di dimensione 3.
Partendo da 1 la finestra ingloba i valori 2, 3 e 4. Nell’ipotesi che siamo
interessati alla media il valore sara’ (1+2+3+4)/4=2.5. Poi la finestra viene
spostata di 1 e i valori al suo interno saranno: 2 3 4 5. Ricalcoliamo la media
che questa volta sara’ 3.5 e cosi via. La finestra a partire da un certo valore
della serie puo’ prevedere sia un certo numero di dati prima che dopo. &amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Sono state
costruite un totale di 18 caratteristiche statistiche. Dieci&amp;nbsp; di queste sono il massimo, minimo, media,
mediana, &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Standard_deviation"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;deviazione standard&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Varianza"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;varianza&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Kurtosis"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;curtosi&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Moda_(statistica)"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;moda&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Campo_di_variazione"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;range&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; e &lt;/span&gt;&lt;a href="https://www.statisticshowto.com/probability-and-statistics/interquartile-range/"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;range interquartile&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;. Le restanti otto caratteristiche sono
i percentili a diversi valori: 1%, 5%, 10%, 25%, 75%, 90%, 95% e 99%.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Di seguito i
grafici di alcune feature statistiche riportate in funzione del TTF per l’ottavo
terremoto. E’ evidente come alcune caratteristiche correlino con il TTF, come
per esempio la standard deviation, skewness e kurtosis. &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgyOqRANoy82XYvEVqeh7lYqctjvk_NWwWVNZaA2LgieO-FekjyUgrMbmvQ5HYYKvU1IZZO9m6H-NvvUKcRyWpnCR9WvGq42-qtvgakvqXv1RKgoTIfwWVNdnJxWL35MGzBlHCayhKA/s723/p13.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="723" data-original-width="532" height="562" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgyOqRANoy82XYvEVqeh7lYqctjvk_NWwWVNZaA2LgieO-FekjyUgrMbmvQ5HYYKvU1IZZO9m6H-NvvUKcRyWpnCR9WvGq42-qtvgakvqXv1RKgoTIfwWVNdnJxWL35MGzBlHCayhKA/w414-h562/p13.png" width="414" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Nel grafico seguente
viene riportato l’andamento della varianza per gli ultimi quattro terremoti
contenuti nel database. Si vede come per questi c’e’ un trend a crescere della
varianza del segnale acustico quanto il TTF si avvicina a zero (terremoto).
Comunque da notare che alcune volte sono presenti delle spikes anche prima che
avvenga il terremoto. In effetti dobbiamo pensare che durante il movimento
delle placche terrestri iniziano a formarsi delle micro fratture nella crosta
terreste la cui lunghezza determina l’intensita’ delle spikes. Col procedere
dello slittamento si creeranno sempre piu’ microfratture fino a quando non si
formera’ la frattura principale che potra’ essere lunga anche diversi
chilometri. E’ un vero e proprio effetto domino.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiJzHBMk55-NVo0TDOcksvOY5Qld-VuqwM_U2Uu_z6G2rM_cWINya5l4Mzu5k2xVTtBIckGLZAx6WmkU9TWvRKSpFNdBuM-MHJ60lCf5KYR3gE-Dqh5tPWFjEEIPcEAwjHDwsifvd61/s648/p14.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="648" data-original-width="407" height="504" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiJzHBMk55-NVo0TDOcksvOY5Qld-VuqwM_U2Uu_z6G2rM_cWINya5l4Mzu5k2xVTtBIckGLZAx6WmkU9TWvRKSpFNdBuM-MHJ60lCf5KYR3gE-Dqh5tPWFjEEIPcEAwjHDwsifvd61/w317-h504/p14.png" width="317" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;&lt;span style="font-family: times;"&gt;&lt;span lang="IT" style="font-size: 16pt; mso-ansi-language: IT;"&gt;L’algoritmo di machine learning che si e’ deciso di usare e’ il &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Random_forest#:~:text=Random%20forests%20or%20random%20decision,decision%20trees%20at%20training%20time.&amp;amp;text=For%20regression%20tasks%2C%20the%20mean,the%20individual%20trees%20is%20returned."&gt;&lt;span lang="IT" style="color: #00ccff; font-size: 16pt; mso-ansi-language: IT;"&gt;Random
Forest&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; mso-ansi-language: IT;"&gt;.&amp;nbsp; Vediamo un attimo di cosa si tratta. Definito
Bootstrap Aggregation (o Bagging in breve), è un metodo cosiddetto &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Ensemble_learning"&gt;&lt;span lang="IT" style="color: #00ccff; font-size: 16pt; mso-ansi-language: IT;"&gt;ensemble&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; mso-ansi-language: IT;"&gt;. Si tratta cioe’ di una
tecnica che combina le previsioni di più algoritmi di apprendimento automatico
per fare previsioni più accurate rispetto a qualsiasi singolo modello. Il &lt;/span&gt;&lt;a href="https://corporatefinanceinstitute.com/resources/knowledge/other/bagging-bootstrap-aggregation/"&gt;&lt;span lang="IT" style="color: #00ccff; font-size: 16pt; mso-ansi-language: IT;"&gt;bagging&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-size: 16pt; mso-ansi-language: IT;"&gt; rientra nella categoria
dell’apprendimento Ensemble e il nome deriva dalla combinazione Bootstrap e
Aggregation. Il bootstrap indica il campionamento casuale con rimpiazzo del
dataset iniziale. Se come modello individuale si decide di usare un &lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Decision_tree#:~:text=A%20decision%20tree%20is%20a,only%20contains%20conditional%20control%20statements."&gt;&lt;span lang="IT" style="color: #00ccff; font-size: 16pt; mso-ansi-language: IT;"&gt;decision
tree&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 16pt; mso-ansi-language: IT;"&gt;&lt;span style="font-family: times;"&gt;
allora l’algoritmo prende il nome di Random Forest. Ciò significa che una
foresta casuale combina molti alberi decisionali in un unico modello.
Individualmente, le previsioni fatte dagli alberi decisionali potrebbero non
essere accurate, ma combinate insieme, le previsioni saranno in media più
vicine al target. Il risultato finale restituito da un algoritmo di Random
Forest altro non è che la media del risultato numerico restituito dai diversi
alberi nel caso di un problema di regressione, o la classe restituita dal
maggior numero di alberi nel caso di problemi di classificazione.&lt;/span&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtoeDnrH2cBfdGtY-OrBgeWVn81hY6PAGcjltROXq0IOGeGPDTB9cKG2BtuSo-UObUzOzkRadlRDfxKAqgKwJCXBzzemmmhEnRUI09yovzAG92ii3T5Dyja0dJ1Jv-CQIQwZXol5J6/s777/p15.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="514" data-original-width="777" height="348" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtoeDnrH2cBfdGtY-OrBgeWVn81hY6PAGcjltROXq0IOGeGPDTB9cKG2BtuSo-UObUzOzkRadlRDfxKAqgKwJCXBzzemmmhEnRUI09yovzAG92ii3T5Dyja0dJ1Jv-CQIQwZXol5J6/w525-h348/p15.png" width="525" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Prima di
iniziare la modellizzazione si e’ provveduto alla creazione delle nuove
features. Per la dimensione della finestra usata per la costruzione delle
moving statistics sono stati scelti diversi valori come indicato di seguito: &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both;"&gt;

&lt;p align="center" class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: center;"&gt;&lt;b&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Window size:&lt;/span&gt;&lt;/b&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt; 20, 50, 100, 150, 300, 500&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-align: justify;"&gt;Le prestazioni
della Random Forest hanno mostrato una sensibile dipendenza dall’estensione
della finestra temporale come riportato dalle tabelle statistiche&amp;nbsp; create in JMP per diversi modelli di RF.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjormzNpfv2BgHxHsq33gtwcTFp5hF3jiDlwsnFlKgXj_cCx6BG81xmcVBKE3paDT7c35ceiMtS8ts0ExVX3cI6RjaabmU-bialh31rWGKJ_2-JjgfwuChpfY7qk8qjie-DgOhvSRcY/s872/p16.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="348" data-original-width="872" height="271" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjormzNpfv2BgHxHsq33gtwcTFp5hF3jiDlwsnFlKgXj_cCx6BG81xmcVBKE3paDT7c35ceiMtS8ts0ExVX3cI6RjaabmU-bialh31rWGKJ_2-JjgfwuChpfY7qk8qjie-DgOhvSRcY/w676-h271/p16.png" width="676" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;L’&lt;/span&gt;&lt;a href="https://blog.minitab.com/en/adventures-in-statistics-2/regression-analysis-how-do-i-interpret-r-squared-and-assess-the-goodness-of-fit"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;R2&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, una delle possibili metriche
utilizzate per misurare la bonta’ di un algoritmo mostra un chiaro trend a
crescere all’aumentare della dimensione della finestra temporale considerata
per la costruzione delle engineering features. Per le analisi mostrate di
seguito si e’ scelto una dimensione della finestra di +/-1000.&amp;nbsp; &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgv8Y5qUGJDfezBQd-nwARvSrSNqtA_zapw-WuReSVoS1ME9EZeMfor1VF1UzYHkmqydD31bzsWmSf6T-kedU5RrYI0cnF8RaUS0QYDnPTvMjV53XFlyv-sHPJtc8ZHO8bOfC82caOB/s903/p17.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="903" data-original-width="580" height="570" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgv8Y5qUGJDfezBQd-nwARvSrSNqtA_zapw-WuReSVoS1ME9EZeMfor1VF1UzYHkmqydD31bzsWmSf6T-kedU5RrYI0cnF8RaUS0QYDnPTvMjV53XFlyv-sHPJtc8ZHO8bOfC82caOB/w367-h570/p17.png" width="367" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Cosi facendo si
e’ ottenuto un R2 di circa 96% avendo utilizzato 100 decison tree nella
foresta, un minimum split per albero pari a 10 e un numero di termini non
superiore a 20.&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh8wE2VmXFvPyketKPaN48E1spVVii8orDWZmsrHCDxVdFVZczxF-5f4aJ9sZd6nRC2nUh-vV6m6NclGvZ-hd0ZTqtUKrVQ26eOyYraWeOM-H5rIYochxKhYkCUK_6fzs3EPCh7EBxb/s960/p18.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="960" data-original-width="759" height="458" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh8wE2VmXFvPyketKPaN48E1spVVii8orDWZmsrHCDxVdFVZczxF-5f4aJ9sZd6nRC2nUh-vV6m6NclGvZ-hd0ZTqtUKrVQ26eOyYraWeOM-H5rIYochxKhYkCUK_6fzs3EPCh7EBxb/w362-h458/p18.png" width="362" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Qui&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;&amp;nbsp; &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;l’andamento del TTF reale (in blu) e quello
predetto (in rosso).&lt;/span&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;/div&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhEuwH3fsHEbEacyWmxVbulGhY-76r_mfkF88CXF8Cm_d0PxsVMvmzV7BCIc61yG9Iu_tBTz-483qwBZk3QKZG0XkCGrbEo4BoU6Ga1Y7hvvXmOIVVjcDW5P5PlYRYqVrmVAhrNZyF5/s1635/p19.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="854" data-original-width="1635" height="254" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhEuwH3fsHEbEacyWmxVbulGhY-76r_mfkF88CXF8Cm_d0PxsVMvmzV7BCIc61yG9Iu_tBTz-483qwBZk3QKZG0XkCGrbEo4BoU6Ga1Y7hvvXmOIVVjcDW5P5PlYRYqVrmVAhrNZyF5/w487-h254/p19.png" width="487" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Assegniamo adesso
dei colori diversi al time to fail (TTF): dal rosso al verde man mano che
mancano sempre meno secondi all’evento sismico. La parte colorata in viola
rappresenta il cosiddetto after shock cioe’ quando il sistema ormai ha subito
la frattura. Di norma questa parte andrebbe tolta dall’analisi in quanto ormai
il terremoto e’ avvenuto. Notare infatti come quasi tutti i punti viola nel
grafico del time predetto rispetto a quello actual si dispongono al di fuori
della retta di correlazione.&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh-p4ZoLNHIK5oy8wEsoyBSPGcyyrDbC6mnRocXitVA0Dq4HmhzMJlgTGHMg5-W5Sa8wvf_S48zepePd-bz5eExduNZzwLdhoV_TSBTb7dg67R1xp5iAb7_rkyYdRgcODQzJrA1LLOE/s855/p20.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="371" data-original-width="855" height="283" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh-p4ZoLNHIK5oy8wEsoyBSPGcyyrDbC6mnRocXitVA0Dq4HmhzMJlgTGHMg5-W5Sa8wvf_S48zepePd-bz5eExduNZzwLdhoV_TSBTb7dg67R1xp5iAb7_rkyYdRgcODQzJrA1LLOE/w549-h283/p20.png" width="549" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Eliminando i
dati dell’after shock le prestazioni della random forest migliorano
ulteriormente dando un R2 del 98% e come predittori piu’ importanti quelli
riportati nella tabella seguente.&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJHEYmSxPGKyA1sQSueLS51nvIajBbK2FRCz2reXCQnrNrtkWRAATq7nu47E0vt2b3arDpQv3w8sPLk9bJHnf-fbTp3q3I6futHY5P_Y3W2KaoQ11N0XjIWbfR-WnaUJDdu-_s2vTE/s462/p21.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="289" data-original-width="462" height="288" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJHEYmSxPGKyA1sQSueLS51nvIajBbK2FRCz2reXCQnrNrtkWRAATq7nu47E0vt2b3arDpQv3w8sPLk9bJHnf-fbTp3q3I6futHY5P_Y3W2KaoQ11N0XjIWbfR-WnaUJDdu-_s2vTE/w461-h288/p21.png" width="461" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;br /&gt;&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Ai primi posti
abbiamo la standard deviation, i primi percentili, il minimo e il massimo e poi
via via tutti gli altri. Considerando solo l’ottavo sisma possiamo vedere come
esso evolve nel piano delle prime due componenti principali (&lt;/span&gt;&lt;a href="https://royalsocietypublishing.org/doi/10.1098/rsta.2015.0202#:~:text=Principal%20component%20analysis%20(PCA)%20is,variables%20that%20successively%20maximize%20variance."&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;PCA&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;) che spiegano quasi il 70% dell’intera
variabilita’ del sistema. Fino a pochi attimi prima del sisma il sistema si
muove all’interno dello spazio identificato dall’ellisse di colore rosso. Nel
momento della frattura principale il sistema fa un salto al di la dell’ellisse
e si porta in una regione dello spazio mai visitata prima. Una volta rilasciata
tutta la sua energia il sistema ritorna dove era partito e cioe’ all’interno
dell’ellisse (seguire i colori del grafico per capire come evolve il terremoto).
La parte verde indica quando avviene il terremoto mentre quella in viola indica
il post terremoto. Questo andamento e’ vero per tutti i 16 terremoti contenuti
nel database.&amp;nbsp; Il &lt;/span&gt;&lt;a href="https://blog.bioturing.com/2018/06/18/how-to-read-pca-biplots-and-scree-plots/"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;loading plot&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt; correttamente evidenzia un aumento dei
valori di alcuni parametri quale il range, kurtosis, Skewness e varianza
all’approssimarsi di un sisma.&amp;nbsp; &amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&amp;nbsp;&lt;/div&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhGSLuRerDP_SFR0jTG-xBBtT0A2ZT4eRztLI-wjzI0tQuQZAC5sVEyC1NDvIV9zbFTWSZDkxq59DPL3mxqQfEavIAhP0jjAAJgQ4tzD7sQ78c_BX-MLr7EYc0EM5skEz0soOv7HqwT/s726/p22.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="670" data-original-width="726" height="553" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhGSLuRerDP_SFR0jTG-xBBtT0A2ZT4eRztLI-wjzI0tQuQZAC5sVEyC1NDvIV9zbFTWSZDkxq59DPL3mxqQfEavIAhP0jjAAJgQ4tzD7sQ78c_BX-MLr7EYc0EM5skEz0soOv7HqwT/w615-h553/p22.png" width="615" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Qui viene
riportata la sequenza del segnale acustico per i 16 terremoti del database
iniziale. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;br /&gt;&lt;p&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgnGJv4yGWQeTa3WRURHTwBgNGW7KixXTJK3Fihk9cGPTZqpRfF2KZivHwrEoRugrJtpt-EjyqOT_HOK359ajXPgRBe336o-nKTJmQm_dFPPUdWzU-4flPWg1g29L77qoi7YObSsui4/s1426/p23.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="787" data-original-width="1426" height="303" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgnGJv4yGWQeTa3WRURHTwBgNGW7KixXTJK3Fihk9cGPTZqpRfF2KZivHwrEoRugrJtpt-EjyqOT_HOK359ajXPgRBe336o-nKTJmQm_dFPPUdWzU-4flPWg1g29L77qoi7YObSsui4/w548-h303/p23.png" width="548" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Utilizzando una
parte dei dati mai vista dal modello di Random Forest abbiamo eseguito la
validazione dell’algoritmo necessaria per capire se il modello creato sta &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Overfitting"&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;overfittando&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; i dati. L’R2 medio ottenuto e’ di
circa il 75% con una&lt;/span&gt;&lt;a href="https://en.wikipedia.org/wiki/Mean_absolute_error"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;MAE&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; di 2.18. Quest’ultimo indica il mean
average error, cioe’ la somma del valore assoluto dei residui diviso il numero
totale del campione. Come aspettato rispetto al data set usato come training le
performance del modello sono inferiori. In questo caso abbiamo una differenza
di circa il 22%. In definitiva il modello ha un Bias del 2% e una Variance del
22% che e’ decisamente ancora alta. In genere per ridurre la varianza ci sono
diversi opzioni tra cui:&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: 0px;"&gt;&amp;nbsp;1.&amp;nbsp;&lt;/span&gt;.&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;aumentare la dimensione del campione&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoListParagraphCxSpMiddle" style="line-height: normal; margin-bottom: 12pt;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;2.&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;; font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt; text-indent: -0.25in;"&gt;riduzione della complessita’ del
modello&amp;nbsp; &amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoListParagraphCxSpLast" style="line-height: normal; margin-bottom: 12pt; text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoListParagraphCxSpLast" style="line-height: normal; margin-bottom: 12pt; text-indent: -0.25in;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhx0yJpiRYQ9AmY9hXyi8_x2xSTcD3IlPP04xQpilcyIcT-ysYjA_t6v77aivS5k224ARCUEqZJnp5J5zC-hqZwtusQXqLHamUbPbUzUcITrUYPu_tzxlPeyFiwLWSNXHsmoe6GzAwn/s920/p24.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="565" data-original-width="920" height="412" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhx0yJpiRYQ9AmY9hXyi8_x2xSTcD3IlPP04xQpilcyIcT-ysYjA_t6v77aivS5k224ARCUEqZJnp5J5zC-hqZwtusQXqLHamUbPbUzUcITrUYPu_tzxlPeyFiwLWSNXHsmoe6GzAwn/w679-h412/p24.png" width="679" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;Poiche’ nel seguente articolo “&lt;/span&gt;&lt;a href="https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1002/2017GL074677"&gt;&lt;span style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Machine learning predicts laboratory
earthquakes, Geophysical Res. &lt;/span&gt;&lt;span lang="IT" style="color: #00ccff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Letters 2017&lt;/span&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 16pt;"&gt;” utilizzando sempre una Random Forest con
un centinaio di features e’ stato raggiunto un R2 di 89% sul test set c’e’ da
aspettarsi che l’alta variance del nostro modello sia dovuta al campione
limitato utilizzato per evitare di impegnare troppo la CPU del PC gia’ messa a
dura prova col campione molto piccolo utilizzato rispetto all’originale.&lt;/span&gt;&lt;/div&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 12pt; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 16pt; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;Comunque anche
se il risultato del test set non e’ stato dei migliori le informazioni ottenute
sono comunque valide. L’utilita’ dell’applicazione del machine learning nella
previsione del TTF dei Labmoti (terremoti generati in laboratorio) infatti sta
nella possibilita’ di identificare dei segnali sconosciuti che possono portare
a nuove conoscenze sulla fisica delle faglie. Cosa che e’ chiaramente
deducibile anche dai risultati ottenuti nel nostro caso, che &amp;nbsp;fanno vedere come le intensita’ dei precursori
sismici possono essere cosi basse che spesso potrebbero non essere registrate o
addirittura non identificate. In passato infatti questi segnali scambiati per
rumore venivano eliminati di proposito introducendo cosi un bias umano che
invece nel machine learning e’ stato superato. Anche se il lavoro da fare
rimane ancora tanto nella previsione dei terremoti della crosta terrestre di
sicuro il ruolo del machine learning sara’ sempre piu’ importante e stimolante.
&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;p class="MsoNormal" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2021/07/come-il-machine-learning-puo-aiutare-i.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhvZPGq0e9OWI-6clRNNXjcHpUVCReKB_gOlRLSCFi73uf2H0bsSD79tz1xZzYZFTvlpHAp8YaXqeHFiVFnHjTiO0dSmDT9fq9fXjaoH-ujR2rK9uACdMW0XtkXzE2sF5oCWeLoNtqf/s72-w440-h222-c/p1.png" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-1907999938348963229</guid><pubDate>Fri, 23 Apr 2021 17:59:00 +0000</pubDate><atom:updated>2021-04-23T10:59:05.235-07:00</atom:updated><title>L’oracolo del cancro al seno</title><description>

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il tasso di morte per &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.humanitas.it/malattie/tumore-della-mammella/"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;carcinoma al seno&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; nella popolazione femminile e’ molto alto (28% dei
tumori femminili) e in Italia e’ la prima causa di morte nella fascia tra i 35
e 50 anni. Secondo la &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Organizzazione_mondiale_della_sanit%C3%A0"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;World Health Organization&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, il cancro al seno colpisce piu’ di 1.5 milioni di donne
al mondo. La prima testimonianza di un cancro al seno e’ quella di una donna
egizia del 1600 a.C. morta a causa di questa malattia. Contrariamente a quanto
si pensa oggi il cancro non e’ una malattia del nostro secolo. &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjLp_kuq-_EEJuW1SobO0Et1Ml6JqKxZW3w3yLuvxydw_rAT5AXYz-ATpuCNBx7pLEobmtd4l_mFtXyrdoEw9teuww4XAP5tdPBG-ukOJzeXFxmpEDU18sXriDjFA15DBWltrvL0dUj/s688/i1.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="688" data-original-width="556" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjLp_kuq-_EEJuW1SobO0Et1Ml6JqKxZW3w3yLuvxydw_rAT5AXYz-ATpuCNBx7pLEobmtd4l_mFtXyrdoEw9teuww4XAP5tdPBG-ukOJzeXFxmpEDU18sXriDjFA15DBWltrvL0dUj/s320/i1.jpg" /&gt;&lt;/a&gt;&lt;br /&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il rischio per una donna di ammalarsi di tumore al seno e’ del 10-12% e
varia in base all’eta’:&lt;/span&gt;&lt;/p&gt;

&lt;p style="mso-list: l1 level1 lfo1; text-align: justify; text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-bidi-font-family: Symbol; mso-fareast-font-family: Symbol;"&gt;&lt;span style="mso-list: Ignore;"&gt;·&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;fino
a 49 anni &lt;/span&gt;&lt;span lang="IT" style="font-family: Wingdings; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-ascii-font-family: &amp;quot;Times New Roman&amp;quot;; mso-bidi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-char-type: symbol; mso-hansi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-symbol-font-family: Wingdings;"&gt;&lt;span style="mso-char-type: symbol; mso-symbol-font-family: Wingdings;"&gt;à&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; 2.4% (1 donna su 42)&lt;/span&gt;&lt;/p&gt;

&lt;p style="mso-list: l1 level1 lfo1; text-align: justify; text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-bidi-font-family: Symbol; mso-fareast-font-family: Symbol;"&gt;&lt;span style="mso-list: Ignore;"&gt;·&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;tra
i 50 e i 69 anni &lt;/span&gt;&lt;span lang="IT" style="font-family: Wingdings; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-ascii-font-family: &amp;quot;Times New Roman&amp;quot;; mso-bidi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-char-type: symbol; mso-hansi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-symbol-font-family: Wingdings;"&gt;&lt;span style="mso-char-type: symbol; mso-symbol-font-family: Wingdings;"&gt;à&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; 5.5% (1 donna su 18)&lt;/span&gt;&lt;/p&gt;

&lt;p style="mso-list: l1 level1 lfo1; text-align: justify; text-indent: -0.25in;"&gt;&lt;span lang="IT" style="font-family: Symbol; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-bidi-font-family: Symbol; mso-fareast-font-family: Symbol;"&gt;&lt;span style="mso-list: Ignore;"&gt;·&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;tra
i 70 e gli 84 anni &lt;/span&gt;&lt;span lang="IT" style="font-family: Wingdings; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-ascii-font-family: &amp;quot;Times New Roman&amp;quot;; mso-bidi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-char-type: symbol; mso-hansi-font-family: &amp;quot;Times New Roman&amp;quot;; mso-symbol-font-family: Wingdings;"&gt;&lt;span style="mso-char-type: symbol; mso-symbol-font-family: Wingdings;"&gt;à&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; 4.7% (1 donna su 21)&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Data l’elevata incidenza ed il tasso di mortalita’ negli ultimi anni sono
stati adottati degli &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.airc.it/cancro/prevenzione-tumore/guida-agli-screening/che-cosa-sono-gli-screening"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;screening&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; ben precisi e definiti per identificare precocemente la
patologia. Le evidenze scientifiche dimostrano come la diagnosi precoce sia
l’azione piu’ efficace nella lotta contro il tumore della mammella.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le tecniche diagnostiche piu’ indicate per questa malattia sono l’&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Ecografia#:~:text=L'ecografia%20o%20ecotomografia%20%C3%A8,della%20trasmissione%20delle%20onde%20ultrasonore."&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;ecografia&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, la &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.humanitas.it/visite-ed-esami/mammografia/"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;mammografia&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.airc.it/cancro/affronta-la-malattia/guida-agli-esami/agoaspirato-nodulo-seno"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;agoaspirato&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Tomografia_computerizzata#:~:text=%C3%88%20nota%20anche%20come%20tomografia,l'immagine%20dell'oggetto."&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;TAC&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.airc.it/cancro/affronta-la-malattia/guida-agli-esami/pet-tomografia-a-emissione-di-positroni"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;PET&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; e &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.airc.it/cancro/affronta-la-malattia/guida-agli-esami/risonanza-magnetica"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;RNM&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. In caso di nodulo al seno, la diagnosi e’ quindi un
primo fondamentale passaggio. Una tardiva o non corretta diagnosi della
patologia potrebbe infatti portare, nei casi piu’ gravi al decesso della donna.
Nonostante i progressi scientifici fatti in ambito medico purtroppo in assoluto
non e’ possibile escludere che si possano verificare degli errori
medico-sanitari anche durante la fase diagnostica. Questi errori per esempio
possono derivare da difetti del macchinario, procedure non seguite scrupolosamente,
scambio di analisi, esami mal letti o interpretati, mancato approfondimento con
ulteriori visite o esami integrativi. Per questo motivo con l’avvento
dell’intelligenza artificiale si e’ pensato di affiancare al medico degli
oracoli digitali per riconoscere alcune forme di tumore. Numerosi ricercatori
hanno pensato di applicare le tecniche proprie del machine learning per
identificare il carcinoma al seno e non solo. &lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: center;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="mso-spacerun: yes;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgA81Y6xNLnuY803M1UBCizl-zBdfj9az1EeZkHfP8VRx3QmTd-tSAvUj2n6WY7t3JwKrDml-0bywtQbLyXkYelt25PbLb2fZdasSLIcEaSLre6t4N312j2IGdBZhdEJBYJFWGHWYgL/s842/i2.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="276" data-original-width="842" height="199" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgA81Y6xNLnuY803M1UBCizl-zBdfj9az1EeZkHfP8VRx3QmTd-tSAvUj2n6WY7t3JwKrDml-0bywtQbLyXkYelt25PbLb2fZdasSLIcEaSLre6t4N312j2IGdBZhdEJBYJFWGHWYgL/w531-h199/i2.jpg" width="531" /&gt;&lt;/a&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="mso-spacerun: yes;"&gt; &amp;nbsp; &amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: center;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif;"&gt;I&lt;span lang="IT" style="font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="font-size: small;"&gt;mmagine
ecografica di un cancro al seno &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; Immagine mammografica di cancro al seno&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;&lt;p&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif;"&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Negli ultimi anni, una grande quantita’ di dati relativi al tumore del seno
sono stati collezionati e resi disponibili sul web in diveri siti (vedi come
esempio &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://archive.ics.uci.edu/ml/index.php"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;UCI&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;). Tra questi
database c’e’ &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://archive.ics.uci.edu/ml/datasets/Breast+Cancer+Wisconsin+(Diagnostic)"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;quello&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; dell’&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Universit%C3%A0_del_Wisconsin"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;&lt;span style="color: #01ffff;"&gt;Universita’ del Wisconsin&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; utilizzato in questo post. E’ un classico database per
l’applicazione di algoritmi di classificazione binaria per il machine learning.
E’ composto da 569 esempi o istanze, 31 predittori o features e una risposta
che in questo caso e’ una variabile binaria con due valori: benigno B e maligno
M. Ci sono 357 casi di tumore benigno e 212 di tumore maligno. Le due classi
sono abbastanza bilanciate con un rapporto del 60%. &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhNluNnxl8blwP2z7Bny52qgjTaeufrbi-bhZIwGm3iZ0qWHRMLywM59ZMsgi4AThuV9rbk-d3fSb_vypCEnETeh8RwAEQQzUN9HGXLVDaN7KN3lkW28bcAqKcmsZL4LTQTo2My6Bpu/s1480/i3.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="547" data-original-width="1480" height="283" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhNluNnxl8blwP2z7Bny52qgjTaeufrbi-bhZIwGm3iZ0qWHRMLywM59ZMsgi4AThuV9rbk-d3fSb_vypCEnETeh8RwAEQQzUN9HGXLVDaN7KN3lkW28bcAqKcmsZL4LTQTo2My6Bpu/w645-h283/i3.png" width="645" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="mso-spacerun: yes;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le variabili x (i predittori o features) sono state registrate utilizzando
delle immagini digitali della massa tumorale catturata con la tecnica dell’ago
aspirato. In effetti le variabili sono 10, ma diventano 30 in quanto e’ stato
preso il &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Valore_atteso"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;valore medio&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, la &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Scarto_quadratico_medio"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;standard deviation&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; e il valore massimo. Si tratta di 10 misure tutte
relative ai &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Nucleo_cellulare#:~:text=Il%20nucleo%20%C3%A8%20una%20struttura,e%20alla%20maturazione%20dell'RNA.&amp;amp;text=un%20materiale%20filamentoso%2C%20la%20cromatina%2C%20costituita%20da%20proteine%20ed%20acidi%20nucleici"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;nuclei delle cellule&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; tumorali (vedi immagine di seguito).&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_HMPKrAVPXhaF8t71C62IAIU4Hv4vrUHnSoM0E5ke4JrKy7RAyWyXwNuIVQUBilyA2mTqFqbJQ5qpjR95MqGYaAgsxTuBJmcpJb_2wnq_yVI5zjB9zCmi9MuiHmT_G2-ffIJFN6e8/s372/i4.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="225" data-original-width="372" height="227" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_HMPKrAVPXhaF8t71C62IAIU4Hv4vrUHnSoM0E5ke4JrKy7RAyWyXwNuIVQUBilyA2mTqFqbJQ5qpjR95MqGYaAgsxTuBJmcpJb_2wnq_yVI5zjB9zCmi9MuiHmT_G2-ffIJFN6e8/w374-h227/i4.jpg" width="374" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Le features estratte dall’immagine sono:&amp;nbsp;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;1.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Raggio di un nucleo (media di tutti i raggi, standard
deviation e valore massimo)&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;2.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Perimetro di ogni nucleo mediato&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;3.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Area del nucleo (valore medio, std e valore max)&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif;"&gt;&lt;span style="font-size: large;"&gt;&lt;span lang="IT" style="font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;4.&amp;nbsp; Compattezza ottenuta combinando opportunamente l’area e
il perimetro (P^2/A)&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif;"&gt;&lt;span style="font-size: large;"&gt;&lt;span lang="IT" style="font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;5.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Lisciamento"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Smoothness&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; ottenuta facendo la differenza tra il raggio in un certo
punto e il valore &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp;&amp;nbsp; medio dei primi vicini &lt;/span&gt;&lt;/div&gt;

&lt;p align="center" style="text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjoLgjKCJ1WCraTzaRnL-k51x2mHXRX2A4gAehswdT6DjLeUU2T6WdJwMhw0pOMtPv08pPxc-_nmvU-3XqE_sjn9JJ_UUNWGLg-cUgUyrUjulRPeHESSHKeEBpmC6UQxg5-4iNswjod/s322/i5.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="262" data-original-width="322" height="150" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjoLgjKCJ1WCraTzaRnL-k51x2mHXRX2A4gAehswdT6DjLeUU2T6WdJwMhw0pOMtPv08pPxc-_nmvU-3XqE_sjn9JJ_UUNWGLg-cUgUyrUjulRPeHESSHKeEBpmC6UQxg5-4iNswjod/w185-h150/i5.png" width="185" /&gt;&lt;/a&gt;&lt;/p&gt;&lt;p style="text-align: left;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;6.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="http://www.ripmat.it/mate/c/cg/concavita.html"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Concavita’&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: left;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;7.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Punti di concavita’. Diversamente dalla concavita’ questo
parametro determina quanti&amp;nbsp; punti di concavita’ ci sono.&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: left;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;8.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Simmetria"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Simmetria&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;
misurata tracciando l’asse maggiore passante per il centro e poi facendo la
differenza della lunghezza tra linee perpendicolari all’asse maggiore in
entrambe le direzioni. &lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEizxrie1ca0ckGoiKkGO8IfGDf1KN-p-th4n4s5kNbm2ojQzGu4vVp4h95i9c3Ybd4tRJQkaCcvRNDnuSzTlklRWrpzpVUzVa7a9403oco6ToF7lCcN944Uli_gBLJLEO7f8O9G1GMS/s295/i6.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="280" data-original-width="295" height="149" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEizxrie1ca0ckGoiKkGO8IfGDf1KN-p-th4n4s5kNbm2ojQzGu4vVp4h95i9c3Ybd4tRJQkaCcvRNDnuSzTlklRWrpzpVUzVa7a9403oco6ToF7lCcN944Uli_gBLJLEO7f8O9G1GMS/w157-h149/i6.png" width="157" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt; &amp;nbsp; 9.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Dimensione_frattale"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Dimensione frattale&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; ottenuta approssimando la linea chiusa con la “linea di
costa” &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp;&amp;nbsp; descritta da&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Beno%C3%AEt_Mandelbrot"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Mandelbrot&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;10.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Texture_(grafica)"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Texture&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; ottenuta trovando la varianza dell’intensita’ della
scala dei grigi nei pixels&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Per questo studio e’ stato utilizzato &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.jmp.com/it_it/software/new-release/new-in-jmp.html"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;JMP Pro 16&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #01ffff;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;della &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.google.com/aclk?sa=L&amp;amp;ai=DChcSEwiyrre_k5HwAhWKBaIDHd0oBOEYABAAGgJsZQ&amp;amp;ae=2&amp;amp;sig=AOD64_2Tgr8-zIkAV22eJb2R7-tjQkTnAQ&amp;amp;q&amp;amp;adurl&amp;amp;ved=2ahUKEwiG76u_k5HwAhUMMuwKHQE0DXsQ0Qx6BAgDEAE"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;SAS&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; che contiene una serie di algoritmi di &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Apprendimento_automatico#:~:text=L'apprendimento%20automatico%20(nella%20letteratura,computazionale%2C%20riconoscimento%20di%20pattern%2C%20reti"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;machine learning&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; utilizzabili per scopi di classificazione
supervisionata. Tra i modelli disponibili abbiamo: &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Albero_di_decisione"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Decision tree&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Foresta_casuale"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Random Forest&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://indico.fnal.gov/event/15356/contributions/31377/attachments/19671/24560/DecisionTrees.pdf"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Boosted tree&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Logistic_regression"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Logical regression&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Support-vector_machine"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Support Vector Machine&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Naive_Bayes_classifier"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Naive Bayes&lt;/span&gt;&lt;/a&gt;&lt;a href="https://en.wikipedia.org/wiki/XGBoost"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;XGboost&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/K-nearest_neighbors"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;kNN&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Artificial_neural_network"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Neural Network&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; (per maggiori dettagli sui diversi&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;modelli di machine learning fare riferimeno
al post “&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="http://quantidiscienza.blogspot.com/2020/04/alla-scoperta-delle-leggi-di-fisica-con.html"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Alla scoperta delle leggi della fisica con
il machine learning&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;” su
questo blog). Prima di iniziare, controlliamo le distribuzioni delle nostre
features che risultano tutte leggermente &lt;/span&gt;&lt;span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Skewness"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;skewed&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="color: #01ffff;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;sulla destra
(mostrano cioe’ una leggera coda verso gli alti valori). Non ci sono valori
mancanti nel database e solo alcuni &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Outlier"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;outliers&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. &lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj7NgcwGH7Bb7BntQTx5k4Es5iDw78RC-PZ9BtsCwnlqrV0VVhSD90LkPMCNfUKZXWkqujdE4gFbliwpM3MY641bKnee4K2fdyqGuvh_fdAGTN-l6Vr_aJBDOJywLxu_Xo32FbUCKyf/s1485/i7.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="727" data-original-width="1485" height="383" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj7NgcwGH7Bb7BntQTx5k4Es5iDw78RC-PZ9BtsCwnlqrV0VVhSD90LkPMCNfUKZXWkqujdE4gFbliwpM3MY641bKnee4K2fdyqGuvh_fdAGTN-l6Vr_aJBDOJywLxu_Xo32FbUCKyf/w652-h383/i7.png" width="652" /&gt;&lt;/a&gt;&lt;/span&gt;&lt;/div&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;p&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Il &lt;/span&gt;&lt;span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Machine_learning"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;training&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="color: #01ffff;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;per questo dataset e’ stato fatto su 8 classificatori
usando l’opzione 5-&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://machinelearningmastery.com/k-fold-cross-validation/"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;fold cross validation&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Per stabilire il grado di accuratezza e l’efficacia di
qualsiasi modello di machine learning e’ necessario eseguire una o piu’
valutazioni sugli errori che si ottengono con ogni previsione. In genere, dopo
il training viene effettuata una stima dell’errore per il modello, meglio nota
come valutazione dei residui. Si tratta della stima numerica della differenza
tra la risposta prevista e quella originale, chiamata anche errore di
addestramento (&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.sciencedirect.com/topics/computer-science/training-error"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;training error&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;). Tuttavia questo non basta in quanto non da’ un idea di
quanto il nostro modello riuscira’ a generalizzare in caso di nuovi dati. Per
questo motivo viene utilizzata la valutazione incrociata. Essa consiste nella
suddivisione dell’insieme di dati in k parti (5 nel nostro caso) di uguale
numerosita’ e a ogni passo la k-esima parte dei dati viene usata come convalida,
mentre la restante parte costituisce l’insieme di training (addestramento). In
questo modo si allena il modello per ognuna delle k parti evitando problemi di &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Overfitting"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;overfitting&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; (sovradattamento) ma anche di campionamento asimmetrico
(distorsione) tipico della suddivisione dei dati in due sole parti.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Per stabilire quanto un modello e’ bravo nella classificazione esistono
diverse metriche. Quelle piu’ usate sono legate al concetto di &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Matrice_di_confusione"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;matrice di confusione&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. La nostra risposta puo’ avere solo due possibili valori
M e B. Quindi accoppiando le risposte del modello e quelle effettive possiamo
avere la seguente matrice:&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="separator" style="clear: both; text-align: center;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjANiJgj22PFKdZob9fWPqTqLORBHWGWLjE5rPZIF50LlNEjQVvXEdh6Le4DG6qcpmLmuA8cnEdCo3MjQh1Q6zKPCGpjwVm-_Da1bfRZwet-AEypOgjmItYvdSbxiEvENS74m2iqCuS/s194/i16.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="127" data-original-width="194" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjANiJgj22PFKdZob9fWPqTqLORBHWGWLjE5rPZIF50LlNEjQVvXEdh6Le4DG6qcpmLmuA8cnEdCo3MjQh1Q6zKPCGpjwVm-_Da1bfRZwet-AEypOgjmItYvdSbxiEvENS74m2iqCuS/s0/i16.png" /&gt;&lt;/a&gt;&lt;/p&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&lt;p style="text-align: justify;"&gt;&lt;/p&gt;&lt;/span&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;FN rappresenta il numero di casi in cui il modello ha previsto Malignant e
invece nella realta’ il tumore e’ Benign (si parla di falsi negativi). Viceversa
per il caso FP (falsi positivi) che rappresenta i casi missing. Il rapporto tra
la somma FN+FP e il numero totale di esempi TP+TN+FP+FN (dove TP e TN indica i
totali positivi e negativi rispettivamente) e’ chiamato misclassification error
ME da cui si ricava immediatamente l’accuratezza data da: &lt;/span&gt;&lt;/div&gt;

&lt;p style="text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;A=1-ME=1-((FN+FP)/(FN+FP+TN+TP))&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Osserviamo che come ci si aspetta se l’errore e’ nullo allora l’accuratezza
sara’ massima e cioe’ 1. Nel caso invece in cui l’errore e’ massimo e cioe’ 1
allora l’accuratezza del modello e’ pari a zero. Un’altra metrica e’ la Precisione
P del modello che indica l’abilita’ di un classificatore di non etichettare
un’istanza positiva che in realta’ e’ negativa. &lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;P=TP/(TP+FN) &lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Altre metriche utilizzate da JMP Pro per i classificatori sono l’&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Coefficiente_di_determinazione"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;R2&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;, il &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.jmp.com/support/help/en/15.2/index.shtml#page/jmp/the-model-comparison-report.shtml"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;RASE&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; e l’&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://developers.google.com/machine-learning/crash-course/classification/roc-and-auc"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;AUC&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Trattandosi di un classificatore che lavora su dati
categorici per la risposta ci si chiede come e’ possibile che JMP restituisca
il valore del R2 che tutti associamo alle regressioni numeriche? E la stessa
domanda nasce anche quando le X sono categoriche. Un algoritmo dopo tutto e’
una sequenza di operazioni matematiche. Ma come si fa a sommare due variabili
nominali quali Benigno e Maligno?&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMLEnt78N3V8L5sLi-Q_0oLJvOSFPbPHE92k1S2P6cLpubuwNBkLa_vXX0heDy_kVUGlILVd1J5vbLTWvFTUMXge5U_D6lsa2fUqFrHSTmICQ32AJGknOuLDRG0F5wo-gEHUAkM_L8/s711/i9.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="235" data-original-width="711" height="218" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMLEnt78N3V8L5sLi-Q_0oLJvOSFPbPHE92k1S2P6cLpubuwNBkLa_vXX0heDy_kVUGlILVd1J5vbLTWvFTUMXge5U_D6lsa2fUqFrHSTmICQ32AJGknOuLDRG0F5wo-gEHUAkM_L8/w594-h218/i9.png" width="594" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Nell‘ambito del Machine learning si usa il cosiddetto algoritmo “&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://hackernoon.com/what-is-one-hot-encoding-why-and-when-do-you-have-to-use-it-e3c6186d008f"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;one hot encoder&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;”.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;Nell’esempio
dei colori della tabella qui sotto, la variabile ha 3 stati (red, blue e green)
e quindi si creano altrettante variabili dummy con valori di 0 e 1.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/div&gt;

&lt;p align="center" style="text-align: center;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: large;"&gt;&lt;/span&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgIPnqkoGjuaAzS0XMneAKqHkr3ns_tsNBWpM9r1r450PNjpaTgT6-2Ezw1A6wRqt43OxXgq7XOdw6X-pqQrsVBvT7yQy8Qc0VLEtESov4WOJOcweZl00BuV41sYF0V-R1OMvspNiJi/s700/i10.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="196" data-original-width="700" height="167" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgIPnqkoGjuaAzS0XMneAKqHkr3ns_tsNBWpM9r1r450PNjpaTgT6-2Ezw1A6wRqt43OxXgq7XOdw6X-pqQrsVBvT7yQy8Qc0VLEtESov4WOJOcweZl00BuV41sYF0V-R1OMvspNiJi/w593-h167/i10.png" width="593" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;In questo modo e’ possibile calcolare il valore del R2 essendo adesso le
variabili tutte numeriche. Allo stesso modo e’ possibile calcolare il
cosiddetto RASE, cioe’ la radice quadrata del valore medio dell’errore (y-ya)
al quadrato (ya e’ il valore effettivo e y quello previsto dal modello). L’AUC
indica invece l’area al di sotto della curva ROC. Vediamo di cosa si tratta. In
qualsiasi problema di classificazione, il modello genera per ogni record un
valore di probabilita’ di appartenenza ad uno dei 2 gruppi. Per decidere quindi
se un record appartiene ad una classe piu’ che ad un’altra, e’ importante
stabilire un valore di soglia per la &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Probabilit%C3%A0"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;p&lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;robabilita’&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Ovviamente al variare di tale soglia cambiera’ l’output
del modello e la relativa matrice di confusione. Per stabilire se un modello
sta lavorando bene si puo’ utilizzare la curva di ROC. Sull’asse della x viene
riportato il numero di falsi positivi (FP) o 1-SPE dove SPE=TN/(TN+FP) &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;e’ la cosiddetta Specificita’, mentre
sull’asse delle y viene riportata la quantita’&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;
&lt;/span&gt;TP/(TP+FN) che in modo indiretto e’ legata al numero di falsi negativi
(quando FN e’ zero infatti questo rapporto vale 1). Il migliore modello di
classificazione sara’ quello che ottiene FP=0 e FN=0, che nel piano della curva
ROC corrisponde al punto x=0 e y=1. I due plot ROC seguenti si riferiscono al
caso della rete neurale per il set di Training e di Validation. I colori rosso
e blu indicano i due valori della classe di risposta: Benign e Malignant. L’AUC
come indica l’acronimo e’ il valore dell’area al di sotto della curva ROC. Piu’
e’ prossimo ad 1 e meglio e’ la prestazione del modello. &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p align="center" style="text-align: center;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiZE9pznaiZzKzOhSpndU855S5oD6cvpdrK9G1I6ahAW08iOF3hC_y9sH8JdgWlZW_H0HRhiiuNRNLUQ9XK6PydtQ2KoRE64uEBDDQUmLhSKnxUmzi534uUe5qrBHh-cFRRjbEnWNGi/s1048/i11.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="387" data-original-width="1048" height="237" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiZE9pznaiZzKzOhSpndU855S5oD6cvpdrK9G1I6ahAW08iOF3hC_y9sH8JdgWlZW_H0HRhiiuNRNLUQ9XK6PydtQ2KoRE64uEBDDQUmLhSKnxUmzi534uUe5qrBHh-cFRRjbEnWNGi/w644-h237/i11.png" width="644" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;&lt;/p&gt;

&lt;p align="center" style="text-align: center;"&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiCz1n6N5KaczSqQqFWyANbPiuMnrfwwrG264hbOzDfsbaw3Kio_NJcpo_occpi4P7bTXeocLI83SrMRZmFnPO_6Zjf7Kku3f0uWDUXHa5C94teT0ErpZbkybCruqJfkQdslbdrpaBQ/s426/i12.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="410" data-original-width="426" height="370" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiCz1n6N5KaczSqQqFWyANbPiuMnrfwwrG264hbOzDfsbaw3Kio_NJcpo_occpi4P7bTXeocLI83SrMRZmFnPO_6Zjf7Kku3f0uWDUXHa5C94teT0ErpZbkybCruqJfkQdslbdrpaBQ/w385-h370/i12.png" width="385" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: large;"&gt;&lt;/span&gt;&lt;br /&gt;&lt;p&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg99wAM0mznw0_Yhf7LbPfErhNKr986HB4ngBcCXssfAn06GEiAuz38OPNqI77ZLGt79rY_geN6kOrw8RG8jOT2qku5dnRH5ZvVCERRnUESuKI3ty_gDEqEC8iW0BGE4AIsQ7lIAiHq/s1028/i13.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="457" data-original-width="1028" height="249" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg99wAM0mznw0_Yhf7LbPfErhNKr986HB4ngBcCXssfAn06GEiAuz38OPNqI77ZLGt79rY_geN6kOrw8RG8jOT2qku5dnRH5ZvVCERRnUESuKI3ty_gDEqEC8iW0BGE4AIsQ7lIAiHq/w561-h249/i13.png" width="561" /&gt;&lt;/a&gt;&lt;br /&gt;&lt;/div&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;L’accuratezza di tutti i modelli testati con il comando &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.jmp.com/support/help/en/16.0/jmp/model-screening.shtml"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Model Screening&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; di JMP e’ ben al di sopra del 90%, il che significa che
il massimo errore per mis-classification e’ minore del 10%. L’algoritmo del Neural
Boosted addirittura mostra un errore del solo 1%. Non c’e’ che dire, l’oracolo digitale
sembra fare delle ottime previsioni. Attenzione. Anche se nella lingua inglese
non c’e’ una grossa differenza tra prediction e prevision (o forecast) questo
non e’ vero in italiano. Nella nostra lingua la predizione e’ quella fatta da
un mago che cerca di capire cosa accadra’ nel futuro aiutandosi con strumenti
che di scientifico non hanno praticamente nulla (e quindi fallira’ miseramente).
Al contrario la previsione e’ quella che cerca di capire cosa puo’ succedere utilizzando
metodi scientifici (matematici, fisici, statistici) come la previsione del
ritorno della cometa di Halley o la probabilita’ che il costo delle azioni
Apple crescera’ nei prossimi giorni. &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Ritorniamo ai modelli testati. Il migliore e’ la rete Neurale Boosted. Ma
cosa significa&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Boosting"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;boosted&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;? E’ una classe di modelli nati nel 1988 con l’idea che
mettendo insieme piu’ modelli di apprendimento deboli si possa creare un
modello piu’ forte (della serie che l’unione fa la forza). Si tratta di un
modello iterativo (lavora in seriale) che stabilisce come collegare tra loro un
insieme di weak learner per crearne uno strong. Anche se l’accuratezza
raggiunta da questo modello e’ molto alta, il fatto che ci siano alcuni casi in
cui abbiamo predetto che il cancro e’ benigno mentre invece e’ maligno non ci
piace affatto, visto che si ha a che fare con le vite delle persone. Meglio
caso mai &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;avere un Falso negativo
(diciamo che e’ maligno ma in realta’ e’ benigno) che oltre alla paura non
fara’ altri danni alla persona sottoposta alla diagnosi. C’e’ da dire comunque
che nel Machine learning e’ possibile provare a penalizzare gli esempi che
ricadono nella casella FN rispetto a quella FP. In JMP Pro questo puo’ essere
fatto direttamente dal Model Screening utilizzando l’opzione &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://community.jmp.com/t5/video/gallerypage/user-id/4598/video-id/6205301446001"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Decision Thresholds&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;. Questa permette di esplorare la soglia dei modelli per
la classificazione binaria. C’e’ un report per ogni modello specificato dal
metodo di validazione.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjovDpwjPL2k67X85ENHxkY5di5P8Rkd2sJXSBKceylQtno7lL_kqgNyNFtGW3jTqeW-z9CnHvv3minQKo9AEuR5REOKTa66p2jtTtZBMhHmkC0vRHBM8WGT3M1tQdsL-Lf6w2OsKjM/s1207/i14.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="567" data-original-width="1207" height="300" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjovDpwjPL2k67X85ENHxkY5di5P8Rkd2sJXSBKceylQtno7lL_kqgNyNFtGW3jTqeW-z9CnHvv3minQKo9AEuR5REOKTa66p2jtTtZBMhHmkC0vRHBM8WGT3M1tQdsL-Lf6w2OsKjM/w640-h300/i14.png" width="640" /&gt;&lt;/a&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Ogni report contiene un grafico della distribuzione delle probabilita’
previste, delle carte a barra per le diverse classificazioni e la matrice di
confusione. Nelle barre la porzione in rosso e’ proporzionale all’errore di
mis-classification. Spostando la linea nera al centro del grafico delle
distribuzione si puo’ cambiare la soglia e cercare di diminuire il numero di
falsi positivi rispetto a quelli negativi. Con la scelta operata nel nostro
caso si e’ potuto ottenere un azzeramento dei Falsi positivi per le NN Boosted
raggiungendo un’accuratezza del 100%. &lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhjyj2nhe88w2UUQdDaNMLVOinQW_dSZYTojZm9QYMQyJqBCsYCf_cvaIVgQ3WPQyxV5uuyPtmIP_rO26VtS8V5VGSm1dKWHQpuhXI0y2csd-zdeQe8nhyphenhyphenqcPhqdBO-kxRPA4WMSVHd/s1036/i15.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="322" data-original-width="1036" height="226" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhjyj2nhe88w2UUQdDaNMLVOinQW_dSZYTojZm9QYMQyJqBCsYCf_cvaIVgQ3WPQyxV5uuyPtmIP_rO26VtS8V5VGSm1dKWHQpuhXI0y2csd-zdeQe8nhyphenhyphenqcPhqdBO-kxRPA4WMSVHd/w653-h226/i15.png" width="653" /&gt;&lt;/a&gt;&lt;/p&gt;&lt;p align="center" style="text-align: center;"&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Anche se in JMP le opzioni che vado a descrivere adesso vengono
implementate automaticamente, in generale usando linguaggi come &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.python.org/"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;Python&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; o&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://it.wikipedia.org/wiki/R_(software)"&gt;&lt;span lang="IT" style="mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;R&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="color: #01ffff; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; &lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;e le loro librerie, conviene prima di passare al
training/test del modello di normalizzare le variabili X per esempio facendo in
modo che tutti i predittori siano nel range 0-1 e che questi vengano
trasformati con una funzione tipo logaritmo per cercare di eliminare la
skewness&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;della distribuzione.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;In definitiva i 5 steps piu’ importanti in
ogni attivita’ di Machine learning sono:&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;1.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Data collection: si tratta dello step dove viene raccolto
il materiale da dare in pasto agli algoritmi per trasformarlo in conoscenza
utilizzabile. Nella maggior parte dei casi i dati devono essere combinati in
una singola sorgente come un file testo, csv o excel.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;2.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Data exploration/preparation: la qualita’ di qualsiasi
progetto di machine learning dipende dalla qualita’ dei dati in ingresso. Quindi
ogni qualvolta si parte col costruire un modello si devono pulire i dati dal
rumore, eliminare quelli non necessari, e riempire le celle vuote del database
(&lt;a href="https://en.wikipedia.org/wiki/Missing_data"&gt;&lt;span style="color: #01ffff;"&gt;missing value&lt;/span&gt;&lt;/a&gt;).&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;3.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Model training: una volta che i dati sono stati
prepararti si divide il set in training/validation/test e si fa partire la
ricerca&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;4.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt; &amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Model evaluation: poiche’ ogni machine learning tende ad
essere biasato e’ importante valutare le prestazioni dell’algoritmo in termini
di generalizzazione. Per fare questo si utilizzano diversi tipi di metriche a
secondo che si tratta di un problema di regressione o di classificazione.&amp;nbsp;&lt;/span&gt;&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="mso-list: Ignore;"&gt;5.&lt;span style="font-size-adjust: none; font-stretch: normal; font: 7pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;Model improvement: nel caso in cui siano necessarie
prestazioni migliori si puo’ pensare di utilizzare delle strategie avanzate.
Qualche volta basta cambiare il modello, o costruire dei nuovi predittori
(feature engineering). Altre volte in caso di &lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%;"&gt;&lt;a href="https://www.datarobot.com/wiki/underfitting/"&gt;&lt;span lang="IT" style="color: #01ffff; mso-ansi-language: IT;"&gt;underfitting&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt; del sistema semplicemente raccogliere piu’ dati.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;span style="color: red;"&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p style="text-align: justify;"&gt;&lt;span lang="IT" style="font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 14pt; line-height: 107%; mso-ansi-language: IT;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/p&gt;

&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;br /&gt;&lt;/div&gt;</description><link>http://quantidiscienza.blogspot.com/2021/04/loracolo-del-cancro-al-seno.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjLp_kuq-_EEJuW1SobO0Et1Ml6JqKxZW3w3yLuvxydw_rAT5AXYz-ATpuCNBx7pLEobmtd4l_mFtXyrdoEw9teuww4XAP5tdPBG-ukOJzeXFxmpEDU18sXriDjFA15DBWltrvL0dUj/s72-c/i1.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3855997709288836026</guid><pubDate>Sat, 03 Oct 2020 11:46:00 +0000</pubDate><atom:updated>2020-10-03T04:46:32.350-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">archeologia</category><category domain="http://www.blogger.com/atom/ns#">archeometria</category><category domain="http://www.blogger.com/atom/ns#">fisica</category><category domain="http://www.blogger.com/atom/ns#">isotopistabili</category><category domain="http://www.blogger.com/atom/ns#">spettromtria di massa</category><title>Quando un diverso numero di neutroni può aiutare l’archeologo</title><description>&lt;p style="text-align: justify;"&gt;&amp;nbsp;Nell’ultimo decennio, in tutti i campi delle Scienze Ambientali e dei Beni Culturali, è emersa una forte esigenza di metodologie innovative da affiancare a quelle convenzionali per una migliore comprensione dei processi ambientali e antropogenici. Per questo motivo le metodologie isotopiche hanno assunto un ruolo sempre più importante in un numero crescente di procedure di analisi e di controllo sia in campo industriale, che ambientale, biomedico e archeologico. Si tratta, in generale, di metodi di misura sviluppati nella ricerca di base in fisica e trasferiti ai laboratori in vari altri campi. Tra questi metodi la &lt;span style="color: #01ffff;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Spettrometria_di_massa" target="_blank"&gt;&lt;span style="color: #01ffff;"&gt;spettrometria di massa&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;di isotopi stabili degli elementi più abbondanti in natura, costituisce un potente mezzo di indagine, largamente utilizzato nelle scienze applicate alla diagnostica dei beni culturali ed ambientali. L’ambiente è, per sua natura, in continua evoluzione ma l’uomo ne ha accelerato il passo in una direzione incognita. Ecco, allora, che la determinazione della composizione isotopica di elementi quali il Carbonio, l’Ossigeno e l’Azoto nell’atmosfera, nel suolo, nella vegetazione e nelle acque, si è dimostrata un indicatore molto sensibile delle piccole variazioni (spesso dovute proprio ad attività antropiche) dei flussi di questi elementi e per studiare meccanismi ancora poco chiari. Gli &lt;a href="https://it.wikipedia.org/wiki/Isotopo" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;isotopi&lt;/span&gt;&lt;/a&gt; sono atomi di uno stesso elemento che posseggono un diverso numero di neutroni. Gli isotopi vengono definiti stabili quando il numero di protoni e neutroni non cambia nel tempo. Poiché i neutroni all’interno dell’atomo sono particelle elettricamente neutre, due isotopi dello stesso elemento mantengono la stessa carica ma hanno un diverso numero di massa (A). Il numero di massa è espresso dalla somma del numero di neutroni (N) e di protoni (Z, particelle cariche positivamente) ed è riportato come apice a sinistra del simbolo chimico. Qui di seguito un diagramma che mostra come la stabilità nucleare è più un’eccezione che una regola con solo 270 nuclidi stabili su 2500 conosciuti.&lt;/p&gt;&lt;p style="text-align: justify;"&gt;&lt;br /&gt;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqop4qAxKbUmRnj75lB09rte70vKdozi6vNnSn7BcPbeOJMCsxhz4y_ETuobaST7XivVEeDvtGls-l4iIeabAnqmrH7aTRUQKF6rYy71Eyx6YlduEtIdTrD24a1ZYrC8kqaVLgdLKL/s556/Immagine1.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="310" data-original-width="556" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqop4qAxKbUmRnj75lB09rte70vKdozi6vNnSn7BcPbeOJMCsxhz4y_ETuobaST7XivVEeDvtGls-l4iIeabAnqmrH7aTRUQKF6rYy71Eyx6YlduEtIdTrD24a1ZYrC8kqaVLgdLKL/s320/Immagine1.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;A causa della diversa massa, gli isotopi di un elemento hanno forze di legame diverse e di conseguenza possono avere comportamenti chimico-fisici diversi. La composizione in isotopi stabili di elementi di bassa massa atomica è riportata in termini di valori relativi ad uno standard di composizione isotopica nota. Questa notazione, il “delta per mille” (δ ‰) è calcolata secondo l’equazione:&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjRlVf0aYNAYrcXb5zind96fgZMcZAqoWLUk7OH1_r6Jxhi6r_zsH6IhZ3QfIFgbrvlEPm49ZBPbQTAoRj6q5iWjbQP365RMCl0TGswCMM52sEZgdcSLg6tP9cWb1UYLsIy84rFxUEq/s261/Immagine2.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="68" data-original-width="261" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjRlVf0aYNAYrcXb5zind96fgZMcZAqoWLUk7OH1_r6Jxhi6r_zsH6IhZ3QfIFgbrvlEPm49ZBPbQTAoRj6q5iWjbQP365RMCl0TGswCMM52sEZgdcSLg6tP9cWb1UYLsIy84rFxUEq/s0/Immagine2.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;dove R indica il rapporto tra l’isotopo più pesante e quello più leggero. In pratica, il valore δ esprime di quante parti per mille il rapporto isotopico si discosta dallo stesso rapporto in uno standard di riferimento con composizione isotopica nota. Il motivo dell’utilizzo di tale notazione risiede nel fatto che la differenza tra due isotopi di uno stesso elemento è molto piccola per cui utilizzare il rapporto R da solo implicherebbe il maneggiamento di numeri con molte cifre decimali e complicherebbe i calcoli. L’uso della notazione δ espande piccole differenze e le rende più facilmente visibili. Inoltre, l’uso di un rapporto di rapporti permette di confrontare elementi diversi che sarebbero molto più difficili da confrontare in valori assoluti.&lt;/p&gt;&lt;p style="text-align: justify;"&gt;Un valore δ positivo indica che il rapporto isotopico del campione considerato è più alto di quello dello standard, cioè che il campione è arricchito nell’isotopo pesante rispetto allo standard. Viceversa, un valore δ negativo indica che il rapporto isotopico del campione considerato è più basso di quello dello standard, e quindi che il campione è impoverito nell’isotopo pesante rispetto allo standard. Diversi termini vengono comunemente usati per comparare i valori δ: arricchito/impoverito in isotopi pesanti; più positivo/più negativo; maggiore/minore; più pesante/più leggero. &lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_oRF2TDf2e7m9MZRwGL-1_TDNSK3yLnQsO-nKVlJRdm3SxfSBD8qy-1V844J_02ct9Fa90D2uEIWUc69GezRMbvLOSJ0d2pxHpJVj5dKOs-wcKwVhdf1sZ0kjB_ltd3UmS7hf1D-l/s276/Immagine3.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="219" data-original-width="276" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_oRF2TDf2e7m9MZRwGL-1_TDNSK3yLnQsO-nKVlJRdm3SxfSBD8qy-1V844J_02ct9Fa90D2uEIWUc69GezRMbvLOSJ0d2pxHpJVj5dKOs-wcKwVhdf1sZ0kjB_ltd3UmS7hf1D-l/s0/Immagine3.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Esistono diversi standard internazionali di riferimento per vari isotopi (vedi tabella di seguito). Per quanto riguarda gli isotopi stabili dell’acqua (&lt;sup&gt;2&lt;/sup&gt;H e &lt;sup&gt;18&lt;/sup&gt;O) per esempio, comunemente, lo standard di riferimento è rappresentato dallo &lt;a href="https://en.wikipedia.org/wiki/Vienna_Standard_Mean_Ocean_Water" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;VSMOW&lt;/span&gt;&lt;/a&gt; (Vienna Standard Mean Ocean Water), rimpiazzato nel 2006 dallo VSMOW2 che, per definizione, ha un valore di δ di 0‰.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEigKaJU8y7KD7fSpUEdWankVt9ZPUN3D9HuAh85exaCXI4vWzD0AcuXmkM3T5gTzte14_KZg-dRXoqjWMfLQawj68DumUHOu-VsDcusAm6VnNRRZdOvvpyrtOKt6EMD76x0l7elx3bX/s460/Immagine4.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="439" data-original-width="460" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEigKaJU8y7KD7fSpUEdWankVt9ZPUN3D9HuAh85exaCXI4vWzD0AcuXmkM3T5gTzte14_KZg-dRXoqjWMfLQawj68DumUHOu-VsDcusAm6VnNRRZdOvvpyrtOKt6EMD76x0l7elx3bX/s320/Immagine4.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Le proporzioni relative dei diversi isotopi non sono sempre le stesse a causa del cosiddetto &lt;a href="https://elearning2.uniroma1.it/pluginfile.php/609056/course/section/78524/Lezione%2016.pdf" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;frazionamento isotopico&lt;/span&gt;&lt;/a&gt;. Questo fenomeno è dovuto a differenze nella velocità di reazione degli isotopi leggeri e pesanti dello stesso elemento durante le reazioni termodinamiche. Nell’acqua, per esempio, il frazionamento isotopico avviene principalmente durante i cambiamenti di fase (evaporazione, condensazione, fusione). In questi casi, la velocità di diffusione varia a seconda della forza dei legami chimici tra gli isotopi pesanti e leggeri. I legami molecolari tra gli isotopi leggeri vengono spezzati più facilmente di quelli tra isotopi pesanti. La forma isotopica pesante dell’acqua (cioè quella contenente &lt;sup&gt;2&lt;/sup&gt;H e &lt;sup&gt;18&lt;/sup&gt;O, ossia &lt;sup&gt;2&lt;/sup&gt;H&lt;sup&gt;18&lt;/sup&gt;O) richiede più energia per spezzare i legami chimici rispetto all’acqua che contiene isotopi più leggeri (&lt;sup&gt;1&lt;/sup&gt;H&lt;sup&gt;16&lt;/sup&gt;O), e di conseguenza la reazione avviene più lentamente. Nel caso del cambiamento di stato da liquido a gassoso, per esempio, le molecole di acqua che contengono &lt;sup&gt;16&lt;/sup&gt;O evaporano più facilmente rispetto a quelle che contengono &lt;sup&gt;18&lt;/sup&gt;O, a causa della differenza di massa tra i due isotopi e della facilità di rottura dei legami idrogeno che mantengono l’acqua in forma liquida. Inoltre, maggiore è la differenza di massa tra due isotopi, maggiore è il frazionamento isotopico. Esistono due meccanismi principali che determinano il frazionamento isotopico: frazionamento all’equilibrio e frazionamento non all’equilibrio (frazionamento cinetico). Il primo comporta la redistribuzione degli isotopi di un elemento tra vari composti, cosicché la velocità di reazione diretta e inversa di un certo isotopo è identica. Questo implica che il rapporto tra isotopi differenti in ogni composto o in ogni fase della reazione per una certa temperatura rimanga costante ma non implica necessariamente che la loro concentrazione sia uguale. Durante le reazioni all’equilibrio, l’isotopo più pesante si accumula nel composto col maggiore stato di ossidazione o nel composto più “denso”. Un tipico esempio di processo all’equilibrio è rappresentato dalla condensazione del vapore acqueo. In tale processo, gli isotopi pesanti della molecola d’acqua (&lt;sup&gt;18&lt;/sup&gt;O and &lt;sup&gt;2&lt;/sup&gt;H) si concentrano nella fase liquida (che così viene definita arricchita in isotopi pesanti) mentre gli isotopi leggeri (&lt;sup&gt;16&lt;/sup&gt;O and &lt;sup&gt;1&lt;/sup&gt;H) rimangono concentrati nella fase gassosa. In generale, il frazionamento è fortemente dipendente dalla temperatura: più alta è la temperatura, minore è la differenza tra la composizione isotopica di due specie all’equilibrio. Il frazionamento non all’equilibrio è tipico di sistemi aperti, dove il prodotto viene continuamente allontanato dal sistema, o nelle reazioni irreversibili. In questi casi, non è possibile raggiungere l’equilibrio fra reagenti e prodotti. La velocità di reazione è dipendente dal rapporto delle masse isotopiche e dalle loro &lt;a href="https://it.wikipedia.org/wiki/Transizione_vibrazionale" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;energie vibrazionali&lt;/span&gt;&lt;/a&gt;. Come nel caso del frazionamento all’equilibrio, i legami tra gli isotopi leggeri vengono spezzati più facilmente di quelli tra isotopi pesanti. Questo comporta un accumulo di isotopi pesanti nel reagente mentre nelle reazioni reversibili all’equilibrio i prodotti della reazione possono essere isotopicamente sia più leggeri che più pesanti dei reagenti originari. Un tipico esempio di frazionamento isotopico cinetico è rappresentato dal processo di evaporazione dell’acqua dalla superficie degli oceani, in cui il vapore acqueo prodotto dall’evaporazione viene continuamente rimosso dai processi di turbolenza dell’atmosfera cosicché la reazione non può mai raggiungere l’equilibrio. Il vapore prodotto dalla reazione di evaporazione risulta impoverito in isotopi pesanti con una deviazione del rapporto di frazionamento rispetto a quello che avverrebbe all’equilibrio.&lt;/p&gt;&lt;p style="text-align: justify;"&gt;Gli isotopi stabili vengono utilizzati per risolvere diversi problemi. Una delle applicazioni più comuni è la geotermometria, cioè la misura di temperature che si sviluppano nel corso dei fenomeni geologici. Il frazionamento isotopico è inversamente proporzionale alla temperatura: il frazionamento è grande alle basse temperature e piccolo alle alte temperature. La geotermometria è inoltre un’analisi geochimica che consente di determinare, indirettamente e attraverso la composizione dei diversi minerali costituenti una roccia, i valori della temperatura alla quale la roccia si è andata formando. Questo metodo si applica se esistono condizioni di equilibrio termodinamico tra i componenti. &lt;/p&gt;&lt;p style="text-align: justify;"&gt;Un’altra applicazione degli isotopi stabili è l’identificazione di processi. Le piante, per esempio, che per fotosintesi producono catene di idrocarburi C4 (cioè idrocarburi con 4 atomi di Carbonio) frazionano il carbonio diversamente dalle piante che producono catene di idrocarburi C3. Questo frazionamento è mantenuto nella catena alimentare e quindi la misura di isotopi stabili nelle ossa di mammiferi fossili ci da’ informazioni sulla loro dieta. Le tecniche isotopiche giocano un ruolo importante anche nelle scienze archeologiche, dove sono state utilizzate per stabilire le diete del passato e la migrazione dei popoli, la provenienza di marmi usati in architettura e scultura, la provenienza di antiche ceramiche e metalli, la ricostruzione di &lt;a href="https://it.wikipedia.org/wiki/Paleoclimatologia" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;paleoclimi&lt;/span&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Paleoambiente" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;paleoambienti&lt;/span&gt;&lt;/a&gt; e l’utilizzo di oggetti di terracotta grazie all’analisi dei residui di cibo presenti sulla loro superficie. &lt;/p&gt;&lt;p style="text-align: justify;"&gt;Tra gli isotopi usati dagli archeologi quelli più importanti sono: &lt;/p&gt;&lt;ul&gt;&lt;li&gt;&lt;div style="text-align: justify;"&gt;&lt;b&gt;carbonio:&lt;/b&gt; &lt;sup&gt;13&lt;/sup&gt;C (o C-13) e &lt;sup&gt;12&lt;/sup&gt;C (o C-12). Il rapporto tra i due (&lt;sup&gt;13&lt;/sup&gt;C/&lt;sup&gt;12&lt;/sup&gt;C) viene indicato come δ&lt;sup&gt;13&lt;/sup&gt;C &lt;/div&gt;&lt;/li&gt;&lt;li&gt;&lt;div style="text-align: justify;"&gt;&lt;b&gt;azoto:&lt;/b&gt; &lt;sup&gt;15&lt;/sup&gt;N (o N-15) e &lt;sup&gt;14&lt;/sup&gt;N (o N-14). Di nuovo il rapporto (&lt;sup&gt;15&lt;/sup&gt;N/&lt;sup&gt;14&lt;/sup&gt;N) è dato da δ&lt;sup&gt;15&lt;/sup&gt;N.&lt;/div&gt;&lt;/li&gt;&lt;li&gt;&lt;div style="text-align: justify;"&gt;&lt;b&gt;ossigeno:&lt;/b&gt; &lt;sup&gt;18&lt;/sup&gt;O (O-18) e &lt;sup&gt;16&lt;/sup&gt;O (O-16), con il loro rapporto (&lt;sup&gt;18&lt;/sup&gt;O/&lt;sup&gt;16&lt;/sup&gt;O) indicato come δ&lt;sup&gt;18&lt;/sup&gt;O.&lt;/div&gt;&lt;/li&gt;&lt;li&gt;&lt;div style="text-align: justify;"&gt;&lt;b&gt;stronzio:&lt;/b&gt; &lt;sup&gt;87&lt;/sup&gt;Sr (Sr-87) e &lt;sup&gt;86&lt;/sup&gt;Sr (Sr-86). Il rapporto è dato da &lt;sup&gt;87&lt;/sup&gt;Sr/&lt;sup&gt;86&lt;/sup&gt;Sr.&lt;/div&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p style="text-align: justify;"&gt;Per il carbonio le due principali riserve in natura sono rappresentate dal carbonio organico e dai carbonati. Queste sono caratterizzate da differenti impronte isotopiche a causa dei diversi processi in cui sono coinvolte.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhk1j7xcdDeo5m2I0rq6rIS7BXh2o0miP9DS3BH0zFRjH_sVESIgfEsQ9Om5GFdJhPyBqhCwhtET7uPiaKGrRsIvG6h-8tl1oYazkGPl7boQ9ZB-CmedoTZVFWWcpx0BMjRflnFJHKZ/s506/Immagine5.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="324" data-original-width="506" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhk1j7xcdDeo5m2I0rq6rIS7BXh2o0miP9DS3BH0zFRjH_sVESIgfEsQ9Om5GFdJhPyBqhCwhtET7uPiaKGrRsIvG6h-8tl1oYazkGPl7boQ9ZB-CmedoTZVFWWcpx0BMjRflnFJHKZ/s320/Immagine5.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;Il carbonio inorganico (carbonatico) interviene negli equilibri di scambio tra anidride carbonica atmosferica - ione bicarbonato disciolto - carbonato solido; queste reazioni di scambio portano ad un arricchimento dell’isotopo pesante nella forma carbonatica solida (δ&lt;sup&gt;13&lt;/sup&gt;C pari a 0‰). Viceversa, le reazioni cinetiche in cui risulta principalmente coinvolto il carbonio organico, attraverso i processi fotosintetici, determinano una concentrazione dell’isotopo più leggero nel materiale organico prodotto (δ&lt;sup&gt;13&lt;/sup&gt;C pari a circa −25‰). Il frazionamento del carbonio organico è principalmente legato al tipo di pianta che opera la fotosintesi. Le piante terrestri, classificate come C3 e C4, seguono due vie metaboliche differenti. Entrambe generano sostanza organica caratterizzata da valori di δ&lt;sup&gt;13&lt;/sup&gt;C più negativi rispetto a quello dell’anidride carbonica (~-7‰), in quanto durante la fotosintesi la sostanza organica prodotta accumula l’isotopo leggero rispetto a quello pesante. Le piante C3, caratteristiche dei climi temperati, producono un composto a tre atomi di carbonio (&lt;a href="https://it.wikipedia.org/wiki/Ciclo_di_Calvin#:~:text=Il%20ciclo%20di%20Calvin%2DBenson,luce%2Ddipendente%20per%20sintetizzare%20glucosio." target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;ciclo di Calvin&lt;/span&gt;&lt;/a&gt;) con un valore medio di δ&lt;sup&gt;13&lt;/sup&gt;C pari a -26,5‰. Le piante C4 generano un composto a 4 atomi di carbonio &lt;a href="https://it.wikipedia.org/wiki/Ciclo_C4" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;(ciclo di Hatch-Slack&lt;/span&gt;&lt;/a&gt;&lt;span style="color: #80ffff;"&gt;)&lt;/span&gt; caratterizzato da un valore di δ&lt;sup&gt;13&lt;/sup&gt;C intorno a -12,5‰. Partendo da questo tipo di conoscenze il frazionamento del carbonio di origine organica è stato indagato per molteplici applicazioni, tra le quali lo studio delle &lt;a href="http://home.deib.polimi.it/casagran/courses/eco1como/07-Reti_Eco1_2010.pdf" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;reti trofiche&lt;/span&gt;&lt;/a&gt;. La composizione chimica dei tessuti animali è connessa alle risorse alimentari che essi assimilano e pertanto i tessuti riflettono la composizione isotopica della dieta. L’arricchimento tra i produttori e i consumatori primari (erbivori) è stato stimato intorno al +5‰ mentre andando ai livelli successivi della catena trofica l’arricchimento risulta meno marcato (+1‰). Il valore isotopico rilevato nei tessuti di un organismo, quindi, può essere utilizzato come indicatore della sua posizione trofica, ma dato che la variazione dei valori di δ&lt;sup&gt;13&lt;/sup&gt;C associata ai passaggi trofici risulta relativamente modesta, questo dato è usato principalmente per rintracciare la fonte primaria di carbonio assunta. Attraverso l’analisi degli isotopi stabili del carbonio è possibile anche differenziare le reti trofiche terrestri da quelle marine. Il carbonio “marino” deriva infatti dal carbonio inorganico disciolto (bicarbonato disciolto) caratterizzato da un valore isotopico pari a circa 0‰, e quindi più alto di quello dell’anidride carbonica atmosferica, che è pari a circa -7‰. Tale differenza è mantenuta ad ogni livello trofico sia in ambiente marino che terrestre.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgahrwOuHb25B2lGdhuKw9QLyITRGxtDOZ-hFqDQd31y5RM-RcNs2mpX8CulGiZXG1wBMM1hA7NvRAnlY8qG6iSKTOd5NH7eDO-Hj3sbZ41I8mkaoVODcl1k7P4_8F65jSEQIfuwhm9/s592/Immagine6.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="379" data-original-width="592" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgahrwOuHb25B2lGdhuKw9QLyITRGxtDOZ-hFqDQd31y5RM-RcNs2mpX8CulGiZXG1wBMM1hA7NvRAnlY8qG6iSKTOd5NH7eDO-Hj3sbZ41I8mkaoVODcl1k7P4_8F65jSEQIfuwhm9/s320/Immagine6.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;Passiamo adesso all’azoto. Esso è il principale elemento dell’atmosfera terrestre (circa il 78%), ma nonostante ciò la maggior parte degli organismi non sono in grado di usarlo in forma gassosa. L’azoto atmosferico deve essere quindi convertito in forme utilizzabili e ciò avviene naturalmente attraverso una serie di reazioni chimiche mediate dai microorganismi azotofissatori che vivono sia nel suolo che nelle acque dolci e salate (Clostridium, Azotobacter, Rhizobium leguminosarum, attinomiceti), e che producono un frazionamento isotopico dell’azoto differenziando i valori di δ&lt;sup&gt;15&lt;/sup&gt;N. La prima fase della fissazione è quella che vede la formazione di azoto ammonico (δ&lt;sup&gt;15&lt;/sup&gt;N pari a circa 1‰) da quello molecolare atmosferico.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhBeV0hCO1UWN0QHip6jNQ4DSTAJ7j6DpQSuwK7dXPB1KUMVtijkEplZhImkcQuo_LZN-nI_rUbZ5Wwz4Q866wd0lW9lzmBUIpPkjqT8JyI1mkepB3pec-5PQznEFi2NVPqcoyzdjDt/s553/Immagine8.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="343" data-original-width="553" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhBeV0hCO1UWN0QHip6jNQ4DSTAJ7j6DpQSuwK7dXPB1KUMVtijkEplZhImkcQuo_LZN-nI_rUbZ5Wwz4Q866wd0lW9lzmBUIpPkjqT8JyI1mkepB3pec-5PQznEFi2NVPqcoyzdjDt/s320/Immagine8.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Le reazioni che generano ulteriori trasformazioni dell’azoto nel suolo e nelle acque sono la mineralizzazione, la volatilizzazione, la nitrificazione e la denitrificazione, anch’esse per la maggior parte mediate da microrganismi. Ad esempio, la volatilizzazione è legata alla perdita di ammoniaca dal suolo all’atmosfera. Tale processo è caratterizzato da un elevato frazionamento che produce ammoniaca impoverita in δ&lt;sup&gt;15&lt;/sup&gt;N, lasciando lo ione ammonio residuo presente nel suolo arricchito dell’isotopo pesante. L’intero processo di trasformazione dell’azoto in nitrato coinvolge diversi passaggi di reazione, ognuno dei quali produce un arricchimento nel substrato azotato residuo che può arrivare al 30‰. La &lt;a href="https://it.wikipedia.org/wiki/Denitrificazione" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;denitrificazione&lt;/span&gt;&lt;/a&gt; (cioè l’utilizzo del nitrato al posto dell’ossigeno quale substrato per l’ossidazione della materia organica) è un processo mediato da batteri, in grado di provocare un elevato frazionamento isotopico del nitrato residuo. In relazione anche alle condizioni ambientali, l’attività batterica discrimina le forme isotopiche più “leggere”, determinando nel nitrato residuo un arricchimento dell’isotopo pesante rispetto all’azoto molecolare prodotto. Nella figura sottostante vengono riportati i principali processi che interessano il ciclo dell’azoto in ambiente marino.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGe2Ood9lXrO8SnU5Y_jJoWlKcSmQ0b-h0Gm5_UQiVyOj03VC5yOGLuFLLIhakP3Hiiq1QwWnnFPVm5oEwWU-jrgG8XTZSCBhCugNEcCEoBoHLA0nX3vr4Qk4pamoRHxtZ43F1j3z9/s509/Immagine9.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="509" data-original-width="478" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGe2Ood9lXrO8SnU5Y_jJoWlKcSmQ0b-h0Gm5_UQiVyOj03VC5yOGLuFLLIhakP3Hiiq1QwWnnFPVm5oEwWU-jrgG8XTZSCBhCugNEcCEoBoHLA0nX3vr4Qk4pamoRHxtZ43F1j3z9/s320/Immagine9.png" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;La conoscenza dell’intero ciclo dell’azoto in termini di distribuzione isotopica, in associazione a quello del carbonio, è utile sia per comprendere le caratteristiche della catena trofica che le relazioni tra alcuni tipi di pressioni antropiche sull’ambiente e gli impatti sugli ecosistemi.&lt;/p&gt;&lt;p style="text-align: justify;"&gt;Ora passiamo all’ossigeno. Durante i fenomeni di evaporazione e precipitazione si verifica il frazionamento isotopico dell’ossigeno (e dell’idrogeno). L’entità del frazionamento dipende dalla temperatura e da altri fattori climatici e geografici come ad esempio latitudine, altitudine, stagionalità e continentalità. L’acqua tende ad evaporare con una reazione di equilibrio regolata dalla temperatura. La fase vapore è caratterizzata da un arricchimento in &lt;sup&gt;16&lt;/sup&gt;O (δ&lt;sup&gt;18&lt;/sup&gt;O &amp;lt; 0) e in &lt;sup&gt;1&lt;/sup&gt;H, essendo le molecole di &lt;sup&gt;1&lt;/sup&gt;H&lt;sup&gt;16&lt;/sup&gt;O più leggere e quindi più favorite all’evaporazione. La fase liquida sarà viceversa più ricca in &lt;sup&gt;2&lt;/sup&gt;H&lt;sup&gt;16&lt;/sup&gt;O, &lt;sup&gt;1&lt;/sup&gt;H&lt;sup&gt;18&lt;/sup&gt;O e &lt;sup&gt;2&lt;/sup&gt;H&lt;sup&gt;18&lt;/sup&gt;O, molecole più pesanti (δ&lt;sup&gt;18&lt;/sup&gt;O e δ&lt;sup&gt;2&lt;/sup&gt;H &amp;gt;0).&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgTsj3PQEb5O0Vw8LKDF9hvJ429Ku5E_4lud9hGy6Hrkz33a4aXmgbkU5rDRlreNsEJdUHSuIMlbU7X99DRJ8kerj69c89Tze6sHTBc2_dIL1IPWkTwbmbDns5-kEziqbyzW2jXWvN5/s624/Immagine10.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="344" data-original-width="624" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgTsj3PQEb5O0Vw8LKDF9hvJ429Ku5E_4lud9hGy6Hrkz33a4aXmgbkU5rDRlreNsEJdUHSuIMlbU7X99DRJ8kerj69c89Tze6sHTBc2_dIL1IPWkTwbmbDns5-kEziqbyzW2jXWvN5/s320/Immagine10.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;Le precipitazioni si impoveriscono dell’isotopo pesante all’aumentare della latitudine e dell’altitudine. In una stessa regione, le precipitazioni relative ai mesi freddi sono caratterizzate da composizioni isotopiche negative mentre durante i mesi caldi risultano arricchite in isotopi pesanti (δ più positivi per l’effetto stagionalità). Le precipitazioni risultano infine più arricchite dell’isotopo pesante spostandosi da regioni costiere all’entroterra. Anche nel ciclo vegetativo delle piante, i processi di adsorbimento dell’acqua e di evapotraspirazione determinano un arricchimento degli isotopi pesanti (&lt;sup&gt;2&lt;/sup&gt;H e &lt;sup&gt;18&lt;/sup&gt;O), in dipendenza dalla specie vegetale e dall’acqua “isotopicamente” diversa che le varie specie vegetali hanno a disposizione per la fotosintesi.&lt;/p&gt;&lt;p style="text-align: justify;"&gt;Il quarto elemento anch’esso molto utilizzato dagli archeologi e’ lo stronzio. Esso ha quattro isotopi naturali: &lt;sup&gt;84&lt;/sup&gt;Sr, &lt;sup&gt;86&lt;/sup&gt;Sr, &lt;sup&gt;87&lt;/sup&gt;Sr e &lt;sup&gt;88&lt;/sup&gt;Sr tutti quanti stabili. Le abbondanze isotopiche sono variabili a causa della formazione del radiogenico &lt;sup&gt;87&lt;/sup&gt;Sr attraverso il decadimento del &lt;sup&gt;87&lt;/sup&gt;Rb. Per questo motivo l’esatta composizione isotopica delle rocce dipende dal rapporto iniziale di Rb/Sr durante la fase di cristallizzazione, dall’età della roccia e da quanto &lt;sup&gt;87&lt;/sup&gt;Sr si è formato, dall’interazione con fluidi o attività metamorfica. Questa quantità rimane inalterata per tutta la vita della roccia, anche quando questa si sgretola andando a formare il terreno dove crescono piante che a loro volta entrano nel ciclo di vita degli erbivori. &lt;/p&gt;&lt;p style="text-align: justify;"&gt;Ma come facciamo a misurare quantità cosi esigue di elementi isotopici? Quali apparecchiature possono aiutare l’archeologo o il geologo ad effettuare studi sui rapporti isotopici? La risposta è la spettrometria di massa. Si tratta di una tecnica che viene utilizzata per separare molecole cariche, in base alla loro massa, o più correttamente in base al loro rapporto massa/carica grazie ad un campo magnetico. Quindi è una tecnica in grado di distinguere isotopi dello stesso elemento e di calcolarne i rapporti isotopici. Questi ultimi nel caso degli elementi leggeri (H, O, C, N, S) vengono misurati con la tecnica &lt;a href="https://www.googleadservices.com/pagead/aclk?sa=L&amp;amp;ai=DChcSEwi4vvDCipjsAhXB2bIKHcFOAFkYABAAGgJscg&amp;amp;ohost=www.google.it&amp;amp;cid=CAESQeD2lPYO9sA4MarxbxAu_IxWh1njWdm_ZLPoMtQaw7JM7g1EfCbRCY0tAiouNxyRPmUY-B4SsiWw-2cum_z5wmbq&amp;amp;sig=AOD64_2h9a-QFwaKrd58N3DNA2crJ7Vehg&amp;amp;q&amp;amp;adurl&amp;amp;ved=2ahUKEwjjvuPCipjsAhUosKQKHZHvBpgQ0Qx6BAgbEAE" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;IRMS&lt;/span&gt;&lt;/a&gt; (isotope ratio mass spectrometry) mediante trasformazione in gas puri. Per altri elementi, quali ad esempio B, Fe e Sr viene utilizzata invece la tecnica &lt;a href="https://en.wikipedia.org/wiki/Inductively_coupled_plasma_mass_spectrometry" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;ICP-MS&lt;/span&gt;&lt;/a&gt; (Inductively coupled plasma-mass spectrometry) che prevede la trasformazione del campione da analizzare in atomi e ioni. &lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgC7It6vLDXqnV4qCm8WACwRkJ9dvugyKDLG6RYv0xALT7kOPaHYcCOaQGFJdYY8gCOeJ9FvvRi3ChrikKYsuKDxQiMPg14aj4pX1WtajEmDip942jr2uHiYgm63ldTKe_sAc2IlFT3/s498/Immagine11.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="347" data-original-width="498" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgC7It6vLDXqnV4qCm8WACwRkJ9dvugyKDLG6RYv0xALT7kOPaHYcCOaQGFJdYY8gCOeJ9FvvRi3ChrikKYsuKDxQiMPg14aj4pX1WtajEmDip942jr2uHiYgm63ldTKe_sAc2IlFT3/s320/Immagine11.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Passiamo adesso a qualche esempio di applicazione nell’ambito archeologico. Una delle attività di ricerca in cui si fa largo uso degli isotopi stabili è quella dello studio dei resti fossili umani ed animali per risalire all’ecologia e alla dieta degli individui investigati e ricostruire le condizioni paleoclimatiche e paleoambientali dei loro habitat. A questo scopo vengono misurati i rapporti isotopici di C, N, S, O e Sr nelle frazioni minerali (carbonato idrossiapatite) e organiche (collagene) di ossa e denti. Questi risultano per vari motivi indicatori delle condizioni ambientali in cui gli organismi sono vissuti e possono fornire informazioni di tipo paleoidrologico, paleoclimatico, sulle diete, sulla disponibilità e qualità del cibo, ecc. Alcuni di questi parametri possono essere utilizzati inoltre per identificare la mobilità e le migrazioni degli individui studiati. Lo scheletro dei mammiferi è costituito da una frazione minerale di carbonato idrossiapatite (&lt;a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4251810/" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;bioapatite&lt;/span&gt;&lt;/a&gt;) e da una struttura di sostegno costituita da fibre di &lt;a href="https://it.wikipedia.org/wiki/Collagene" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;collagene&lt;/span&gt;&lt;/a&gt; nelle quali sono dispersi i minerali. È stato osservato che entrambi i tessuti sono in grado di “registrare” nella loro composizione isotopica le condizioni dell’habitat. Il δ&lt;sup&gt;13&lt;/sup&gt;C del collagene e della bioapatite deriva principalmente dalla dieta, a sua volta dipendente dalla distribuzione e dalla tipologia delle piante. Il δ&lt;sup&gt;15&lt;/sup&gt;N risulta anche correlato direttamente con l’aridità dell’habitat. Il δ&lt;sup&gt;34&lt;/sup&gt;S risulta invece dipendente anche dal contesto geologico, dato che subisce scarsi frazionamenti durante i vari passaggi della catena trofica, per cui può essere utilizzato per ricostruire la mobilità degli individui, esattamente come il &lt;sup&gt;87&lt;/sup&gt;Sr/&lt;sup&gt;86&lt;/sup&gt;Sr. Il δ&lt;sup&gt;18&lt;/sup&gt;O della porzione fosfatica (δ&lt;sup&gt;18&lt;/sup&gt;Op) e carbonatica (δ&lt;sup&gt;18&lt;/sup&gt;Oc) della bioapatite è dipendente da tutte le fonti di ossigeno (cibo, acqua, O&lt;sub&gt;2&lt;/sub&gt; respiratorio, ecc.) ma per il bilancio di massa l’acqua ingerita, essendo in maggiore quantità rispetto alle altre componenti, risulta generalmente responsabile della composizione isotopica del minerale dello scheletro. Prima di eseguire le misure con lo spettrometro di massa vengono utilizzate specifiche tecniche di estrazione per separare i tessuti di interesse. Un secondo esempio è quello dell’utilizzo degli isotopi stabili per determinare la provenienza dei marmi utilizzati nel passato come per esempio quelli mostrati qui di seguito.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEixE_PURRWV-9KHJ-1Alh4B4XcvVkU0z_i1wgsxcbjaEnYUH4iOfqCbR98XEKQOQ1WPjzXTmxCDNTiQ-opQVvprlRqSl9j6tWBoC74ZFMV2jVsFBB9tghFcM99YHjDyupbIPZLbRJwc/s303/Immagine12.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="221" data-original-width="303" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEixE_PURRWV-9KHJ-1Alh4B4XcvVkU0z_i1wgsxcbjaEnYUH4iOfqCbR98XEKQOQ1WPjzXTmxCDNTiQ-opQVvprlRqSl9j6tWBoC74ZFMV2jVsFBB9tghFcM99YHjDyupbIPZLbRJwc/s0/Immagine12.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;La tecnica è stata utilizzata per la prima volta nel 1972, quando Harmon e Valerie Craig proposero l’uso degli isotopi stabili del C e del O per distinguere 170 diversi marmi da quattro cave greche.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjztAgUK1L33z49R1aT8ID4iMAtpJRqGN0Lvc3PVRojCOa-B-sja-ah_iNouqavxcY35xRYdfzTKNKPtgprl58TwSDCS36bXY_s0OoGFuySP21KM3ZhjQAQY2_HsXcfaRzuvOPvaZDe/s459/Immagine13.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="321" data-original-width="459" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjztAgUK1L33z49R1aT8ID4iMAtpJRqGN0Lvc3PVRojCOa-B-sja-ah_iNouqavxcY35xRYdfzTKNKPtgprl58TwSDCS36bXY_s0OoGFuySP21KM3ZhjQAQY2_HsXcfaRzuvOPvaZDe/s320/Immagine13.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;Grazie a questi studi gli archeologi sono riusciti ad individuare le principali cave presenti nel mediterraneo al tempo dei romani (vedi mappa a di seguito) e nell’antica Grecia (vedi mappa b di seguito). Chiaramente la tecnica degli isotopi stabili è una di alcune tecniche a disposizione dell’archeologo per stabilire la provenienza del marmo. Solo grazie ad un’analisi comparata del campione è possibile stabilire con certezza la sua cava di provenienza.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiP0rDZpYSxVHR-mvL1A09F4NoOzaSwIii8wxULU5FWu_dOwEYYs-PkWH45s_QvRwL3nzRzLwBNRPYuquDDaTPBs7DaVVPB5eqygFY6YtW8Vi-KAGgt4cKBbmL-WmYfqH2gFzpOJnUu/s423/Immagine14.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="264" data-original-width="423" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiP0rDZpYSxVHR-mvL1A09F4NoOzaSwIii8wxULU5FWu_dOwEYYs-PkWH45s_QvRwL3nzRzLwBNRPYuquDDaTPBs7DaVVPB5eqygFY6YtW8Vi-KAGgt4cKBbmL-WmYfqH2gFzpOJnUu/s320/Immagine14.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEizzr-T5W3nbByfK3LH5opCMt6LB5wfJxrc895ntluA8zOW8I0PV9gnkIzL50GG8wD22xw6cut1VSonqpnxjUcx8PsqyCImfd3MLo-Jx7IGf5Z-JK5pOxFESEUMD0qw95OBC9Y37YWG/s426/Immagine15.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="243" data-original-width="426" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEizzr-T5W3nbByfK3LH5opCMt6LB5wfJxrc895ntluA8zOW8I0PV9gnkIzL50GG8wD22xw6cut1VSonqpnxjUcx8PsqyCImfd3MLo-Jx7IGf5Z-JK5pOxFESEUMD0qw95OBC9Y37YWG/s320/Immagine15.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Tra le tecniche maggiormente usate che affiancano l’analisi degli isotopi stabili c’è l’analisi macro e micro-&lt;a href="https://it.wikipedia.org/wiki/Petrografia" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;petrografica&lt;/span&gt;&lt;/a&gt; e la diffrazione a raggi X. Queste tecniche permettono di stabilire le caratteristiche strutturali del campione, i minerali presenti e la tessitura. Nelle immagini seguenti vengono riportate le caratteristiche petrografiche di alcuni marmi osservati con un &lt;a href="https://it.wikipedia.org/wiki/Microscopio_polarizzatore" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;microscopio polarizzato&lt;/span&gt;&lt;/a&gt;.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiajJBASBPRUGZNxmnX1INVldu_UAD93m372havDG5X10NGdA5K4EwlMupBLC5RkyIYeuCa4fn1xGHxohZK-VPS7nta09pIAPuZi3OaAz7Mgzgu4UPNW38pf0W8hWGfEOA8yU1A0Oe7/s311/Immagine16.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="311" data-original-width="299" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiajJBASBPRUGZNxmnX1INVldu_UAD93m372havDG5X10NGdA5K4EwlMupBLC5RkyIYeuCa4fn1xGHxohZK-VPS7nta09pIAPuZi3OaAz7Mgzgu4UPNW38pf0W8hWGfEOA8yU1A0Oe7/s0/Immagine16.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p style="text-align: justify;"&gt;Un’altra possibile applicazione degli isotopi stabili è quella della determinazione della provenienza di oggetti in metallo. In questo caso si usa l’isotopo del piombo i cui studi risalgono al 1970. La provenienza geologica del metallo può essere determinata grazie al frazionamento a cui viene sottoposto il piombo durante i processi metallurgici, come la fusione, raffinazione, lavorazione, colata o corrosione. Il piombo è presente in piccole quantità nel bronzo, nelle monete e in tanti altri oggetti metallici. In natura esiste come 4 isotopi stabili con numero di massa 204, 206, 207 e 208. Per stabilire la provenienza di un oggetto metallica si usa un diagramma del rapporto &lt;sup&gt;206&lt;/sup&gt;Pb/&lt;sup&gt;204&lt;/sup&gt;Pb verso il rapporto &lt;sup&gt;207&lt;/sup&gt;Pb/&lt;sup&gt;206&lt;/sup&gt;Pb o &lt;sup&gt;208&lt;/sup&gt;Pb/&lt;sup&gt;206&lt;/sup&gt;Pb. In questo modo vengono riportati molti dati di miniere di diverse regioni del mediterraneo. Sul diagramma si formano diversi clusters a seconda delle diverse miniere. Qui di seguito un esempio per oggetti in rame da 170 posti del Sud-Ovest dell’Asia. Ci sono alcune punti che si sovrappongono e rendono difficile individuare in maniera univoca la regione della miniera se non si ricorre ad altri metodi.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzisWLPeJ5TcEwWqA-QYZERJeY1ARgnx2Zzb3WQ2zPETemGvAFbmbSW2AX4dC6Ys_vfLmqzjpzVhhri8aXLS98c9dvuuwiB4GT3sXDZcEGxUKhZABSKnixi2uUNFJfOKiHVnovDlKt/s426/Immagine17.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="426" data-original-width="337" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjzisWLPeJ5TcEwWqA-QYZERJeY1ARgnx2Zzb3WQ2zPETemGvAFbmbSW2AX4dC6Ys_vfLmqzjpzVhhri8aXLS98c9dvuuwiB4GT3sXDZcEGxUKhZABSKnixi2uUNFJfOKiHVnovDlKt/s320/Immagine17.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p style="text-align: justify;"&gt;Una migliore situazione e’ stata ottenuta per esempio per le miniere e oggetti di rame del periodo carcolitico (2900-1800 aC) della Serbia e della Bulgaria dove la sovrapposizione tra i diversi clusters è molto piccola il che si traduce in una migliore precisione del metodo degli isotopi stabili di Pb.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg0RYlZSmHb2qFABgAA7QeYD5ny2Xefp8oeYfWuGDoj5A2MMm4WMGm2D1Gc8a4yWO85H1fpUsM-G1DhSlI19PGHIM-1WX9S8eCKHA962DThlQyAol7WV0XZYGZ8sjmMbYzo8z_1DqRy/s401/Immagine18.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="281" data-original-width="401" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg0RYlZSmHb2qFABgAA7QeYD5ny2Xefp8oeYfWuGDoj5A2MMm4WMGm2D1Gc8a4yWO85H1fpUsM-G1DhSlI19PGHIM-1WX9S8eCKHA962DThlQyAol7WV0XZYGZ8sjmMbYzo8z_1DqRy/s320/Immagine18.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2020/10/quando-un-diverso-numero-di-neutroni.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqop4qAxKbUmRnj75lB09rte70vKdozi6vNnSn7BcPbeOJMCsxhz4y_ETuobaST7XivVEeDvtGls-l4iIeabAnqmrH7aTRUQKF6rYy71Eyx6YlduEtIdTrD24a1ZYrC8kqaVLgdLKL/s72-c/Immagine1.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6192419036408169557</guid><pubDate>Sat, 04 Apr 2020 09:22:00 +0000</pubDate><atom:updated>2020-04-04T02:28:13.717-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">algoritmo</category><category domain="http://www.blogger.com/atom/ns#">boosted</category><category domain="http://www.blogger.com/atom/ns#">caduta dei gravi</category><category domain="http://www.blogger.com/atom/ns#">fisica</category><category domain="http://www.blogger.com/atom/ns#">interazione gravitazionale</category><category domain="http://www.blogger.com/atom/ns#">JMP</category><category domain="http://www.blogger.com/atom/ns#">KNN</category><category domain="http://www.blogger.com/atom/ns#">machine learning</category><category domain="http://www.blogger.com/atom/ns#">neural network</category><category domain="http://www.blogger.com/atom/ns#">random forest</category><category domain="http://www.blogger.com/atom/ns#">SAS</category><title>Alla scoperta delle leggi di fisica con il machine learning</title><description>&lt;div class="MsoNormal" style="margin-left: 0cm; mso-line-height-alt: 12.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; mso-line-height-alt: 12.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; mso-line-height-alt: 12.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Nel lontano 1999, pubblicai sul TI Technical
Journal (March 1999) un articolo scritto con alcuni miei colleghi dal titolo “Semiconductor
Device Modeling using a Neural Network” (&lt;a href="https://drive.google.com/file/d/1FY7oT8qOA9r-XBeoF-LzHsHEw33UUjiO/view?usp=sharing" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Link&lt;/span&gt;&lt;/a&gt;) in cui si proponeva l’uso di &lt;a href="https://it.wikipedia.org/wiki/Rete_neurale_artificiale" target="_blank"&gt;&lt;span style="color: cyan;"&gt;neural network&lt;/span&gt;&lt;/a&gt; (NN) per cercare di predire alcuni parametri critici dei dispositivi a
semiconduttore partendo dai dati prodotti da un &lt;a href="https://www.silvaco.com/products/tcad.html" target="_blank"&gt;&lt;span style="color: cyan;"&gt;simulatore TCAD&lt;/span&gt;&lt;/a&gt;. Ma perche’
usare una NN per fare quello che puo’ fare un simulatore TCAD molto sofisticato
e disponibile in tutti i centri di ricerca di grosse compagnie? Questione di
memoria. Il CAD per produrre un risultato ha bisogno di tanta memoria e di
tempi lunghi, addirittura di intere giornate. Una rete invece occupa poca
memoria e una volta che ha appreso e’ velocissima. L’unica cosa importante e’ che
con il simulatore bisogna esplorare uno “spazio delle fasi” del modello quanto
piu’ largo e’ possibile, &amp;nbsp;all’interno del
quale poi la rete fara’ le sue predizioni. Dopo 21 anni ritrovo in giro la stessa
idea, allargata ovviamente a tutti gli algoritmi di &lt;a href="https://en.wikipedia.org/wiki/Machine_learning" target="_blank"&gt;&lt;span style="color: cyan;"&gt;machine learning&lt;/span&gt;&lt;/a&gt; e non solo
le reti NN, &amp;nbsp;e applicata non solo nel
campo dei semiconduttori ma ai concetti di base della fisica stessa. Procediamo
con ordine.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; mso-line-height-alt: 12.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Nelle ultime due decadi il Machine Learning e’
diventato uno dei pilastri dell’&lt;a href="http://www.intelligenzaartificiale.it/" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Intelligenza Artificiale&lt;/span&gt;&lt;/a&gt;, e parte della nostra
vita anche se non tutti se ne accorgono. Il termine e’ stato usato per la prima
volta da &lt;a href="https://it.wikipedia.org/wiki/Arthur_Samuel" target="_blank"&gt;&lt;span style="color: cyan;"&gt;A. Samuel&lt;/span&gt;&lt;/a&gt; nel 1959. Ma quale e’ la differenza tra un algoritmo
tradizionale e uno di machine elarning? Nel primo caso il programmatore conosce
il modello e definisce i parametri e i dati necessari alla risoluzione del
problema, mentre nel secondo caso non c’e’ un modello a priori e né una
strategia. Si fa in modo che il computer impari da solo eseguendo l’attivita’ e
migliorandola iterativamente. In questo caso si parla di apprendimento
automatico. Con la continua crescita dei dati a disposizione e’ ragionevole pensare
che la &lt;a href="https://it.wikipedia.org/wiki/Big_data_analytics" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Data Analytics&lt;/span&gt;&lt;/a&gt; diventera’ sempre piu’ pervasiva e un ingrediente
necessario del progresso tecnologico. Il Machine Learning puo’ apparire in
diverse forme come:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpFirst" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;1.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Ranking delle
pagine web&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpMiddle" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;2.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Identificazione
di spamming &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpMiddle" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;3.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Traduzione
automatica&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpMiddle" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;4.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Riconoscimento
vocale&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpMiddle" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;5.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Riconoscimento
immagini&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpLast" style="mso-list: l0 level1 lfo1; text-align: justify;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Calibri; mso-bidi-font-size: 11.0pt; mso-bidi-theme-font: minor-latin;"&gt;6.&lt;span style="font-size: 7pt; font-stretch: normal; font-variant-east-asian: normal; font-variant-numeric: normal; line-height: normal;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Identificare gli
interessi delle persone (come per es. su amazon, netflix etc)&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;per fare solo pochi esempi.&amp;nbsp; Il machine learning comunque e’ una tecnica
molto potente non solo nel predire quale film ci piace vedere ma anche nella
ricerca scientifica. Non a caso viene utilizzato su diversi siti web per la
classificazione della forma delle galassie, l’individuazione delle tracce delle
particelle elementari dopo una collisione, il riconoscimento di una forma
tumorale dall’analisi di immagini &lt;a href="https://it.wikipedia.org/wiki/Tomografia_computerizzata" target="_blank"&gt;&lt;span style="color: cyan;"&gt;TAC&lt;/span&gt;&lt;/a&gt; o della presenza di infezione da &lt;a href="https://it.wikipedia.org/wiki/COVID-19" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Covid-19&lt;/span&gt;&lt;/a&gt;
dall’analisi delle immagini a &lt;a href="https://it.wikipedia.org/wiki/Raggi_X" target="_blank"&gt;&lt;span style="color: cyan;"&gt;raggi X&lt;/span&gt;&lt;/a&gt;. E non solo. E’ notizia dell’ultima ora
che il machine learning sta aiutando gli scienziati a predire i risultati di
alcuni fenomeni naturali e in alcuni casi a rivelare le leggi alla base del
fenomeno. Si avete capito bene, le leggi che sono alla base della natura.
Pensate un attimo al racconto della mela di &lt;span style="color: cyan;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Isaac_Newton" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Netwon&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;e supponete di trasferirlo
nel mondo di oggi. Il nostro Netwon avra’ un cellulare, con cui potra’
organizzare l’esperimento della mela raccogliendo in una tabella l’altezza da cui
cade la mela e il tempo necessario per arrivare a terra. &amp;nbsp;E supponiamo anche che Netwon abbia tanta pazienza
da raccogliere ben 5000 misure. Questa potrebbe essere la tabella compilata. Il
sistema di misure utilizzato e’ l’MKS cioe’ metri, Kg e secondi. Con y0 Newton
ha indicato la posizione iniziale della mela cioe’ l’altezza da cui essa cade.
La prima riga per esempio dice che la mela cadendo da un’altezza di 82 metri impiega
4 sec per arrivare a terra e cosi via. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="text-align: center;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhKKjxnPKpzgTKClcsR3NoEBUpQfJ4PQuSckWmzf7ax3PALOBmr2rmV7_ZRhwFdJpKH6DyYZtgfq51017RwvS7b0-DVHAvKqLmFyfu6eMyoF_feZa8tbuzZdDbOsPl6LbShj1gLcgnz/s1600/nn102.bmp" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="246" data-original-width="164" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhKKjxnPKpzgTKClcsR3NoEBUpQfJ4PQuSckWmzf7ax3PALOBmr2rmV7_ZRhwFdJpKH6DyYZtgfq51017RwvS7b0-DVHAvKqLmFyfu6eMyoF_feZa8tbuzZdDbOsPl6LbShj1gLcgnz/s1600/nn102.bmp" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&amp;nbsp;&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;Ipotizziamo che Newton, uomo dei nostri tempi abbia a
disposizione un software molto sofisticato per l’analisi dei dati e machine learning,
&amp;nbsp;&lt;a href="https://www.jmp.com/it_it/software.html" target="_blank"&gt;&lt;span style="color: cyan;"&gt;JMP Pro&lt;/span&gt;&lt;/a&gt; sviluppato dalla prestigiosa &lt;a href="https://www.sas.com/it_it/company-information.html" target="_blank"&gt;&lt;span style="color: cyan;"&gt;SAS&lt;/span&gt;&lt;/a&gt;.
Tra i diversi modelli a disposizione e’ stata scelta una semplice rete neurale
il cui schema e’ riportato qui di seguito:&lt;/span&gt;&lt;br /&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxWUTmD2WEs2jAFVVFnkZvCiaX9YpRCFi0SWmI2AKoaj-ijC1ChgyipqiMDvjIzGlxo7G6gn7xXe3TNhmQFz2oCpF7PEBYeSerPJWsAsE_FYTshCQ4fxEMDbprmMiRnIAEoS5BaWI_/s1600/nn2.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="432" data-original-width="439" height="314" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjxWUTmD2WEs2jAFVVFnkZvCiaX9YpRCFi0SWmI2AKoaj-ijC1ChgyipqiMDvjIzGlxo7G6gn7xXe3TNhmQFz2oCpF7PEBYeSerPJWsAsE_FYTshCQ4fxEMDbprmMiRnIAEoS5BaWI_/s320/nn2.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Una rete neurale e’ un algoritmo che cerca di simulare il
comportamento del nostro cervello. E’ costituita da uno strato di ingresso (il
nostro y0) da alcuni strati nascosti (nel nostro caso 2, quelli con cerchi
verdi) e uno strato di uscita (il nostro tempo t). Ogni strato e’ costituito da
diversi nodi che rappresentano i nostri neuroni e delle linee che entrano ed
escono da essi che simulano le nostre sinapsi. Ad ogni connessione e’ associato
un peso che va a moltiplicare il valore che viene presentato su quel link. La
stessa cosa accade per le altre connessioni. Dopo di che si sommano tutti i
valori che insistono sullo stesso nodo. Questo costituisce il valore x di una
funzione che viene specificata all’interno di ogni nodo (vedi immagine sopra
dei cerchi verdi). Questa funzione viene chiamata funzione di attivazione. Tra
quelle piu’ note abbiamo la funzione a gradino o &lt;a href="https://it.wikipedia.org/wiki/Funzione_sigmoidea" target="_blank"&gt;&lt;span style="color: cyan;"&gt;sigmoide&lt;/span&gt;&lt;/a&gt;, quella &lt;a href="https://it.wikipedia.org/wiki/Funzione_lineare" target="_blank"&gt;&lt;span style="color: cyan;"&gt;lineare&lt;/span&gt;&lt;/a&gt; e
quella &lt;a href="https://it.wikipedia.org/wiki/Funzione_gaussiana" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Gaussiana&lt;/span&gt;&lt;/a&gt;. A seconda della funzione quindi avremo in uscita un certo
valore dato da f(x)=y.&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span lang="IT"&gt;&amp;nbsp;&lt;/span&gt;&amp;nbsp;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiTEKy1OBuQyVG0z_YyGWEVjJQ4kNGooWrA0Xcm9KNCoBx8tj09wyt6Z_NQ3ynrwHndialYGLEVoI_nnxwibj2xx0BImschmxC8IKPW3UYagyKCtHu5z9pjXUVl-vy9huaxvUROxpXX/s1600/nn3.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="155" data-original-width="400" height="124" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiTEKy1OBuQyVG0z_YyGWEVjJQ4kNGooWrA0Xcm9KNCoBx8tj09wyt6Z_NQ3ynrwHndialYGLEVoI_nnxwibj2xx0BImschmxC8IKPW3UYagyKCtHu5z9pjXUVl-vy9huaxvUROxpXX/s320/nn3.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span lang="IT"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-size: 14pt; text-indent: 0cm;"&gt;La potenza di questi oggetti, come per il nostro cervello
sta nel mettere insieme piu’ nodi con connessioni non lineari tra loro. Questo costituisce
una rete neurale. Dando alla rete sia i valori in input che in output, essa
aggiusta in modo opportuno tutti i pesi delle connessioni per far si che
l’errore in uscita sia il piu’ piccolo possibile. In partica si stabilisce una
funzione di costo (anche detto &lt;a href="https://it.wikipedia.org/wiki/MSE" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Mean squared error&lt;/span&gt;&lt;/a&gt; - MSE) e si cerca dei metodi
matematici per minimizzarla. Con la rete mostrata nell’immagine Diagram e con
5000 esempi raccolti dal nostro buon Netwon questo il risultato ottenuto.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEQvB6Quam3XrpbEX5gZlU3YU90ouSJvkG6ZD_fU_QyWQ484zXfLCdMgqvIIl_Zmjmgi4VsFw80stXOauibEeZ-ZzgADt78c_ftz89cD2HIppgPe7c5A27utbTxQFOk5tjw7B4fLat/s1600/nn4.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="177" data-original-width="538" height="130" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgEQvB6Quam3XrpbEX5gZlU3YU90ouSJvkG6ZD_fU_QyWQ484zXfLCdMgqvIIl_Zmjmgi4VsFw80stXOauibEeZ-ZzgADt78c_ftz89cD2HIppgPe7c5A27utbTxQFOk5tjw7B4fLat/s400/nn4.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Il campione a disposizione come vedete e’ stato diviso in
3 parti: un campione per il &lt;a href="https://en.wikipedia.org/wiki/Training,_validation,_and_test_sets" target="_blank"&gt;&lt;span style="color: cyan;"&gt;training&lt;/span&gt;&lt;/a&gt;, uno per la validation e un altro per il
test. &amp;nbsp;Questo e’ vero per qualsiasi
modello di machine learning utilizzato e non solo per le reti neurali. Questa
divisione viene fatta per far si che la rete non impari a memoria perdendo
cosi’ in generalizzazione della predizione. In effetti oltre al campione di
training e di validazione dove la rete viene ottimizzata, si usa quello di test
dove ci sono esempi che l’algoritmo non ha mai visto. Solo se le prestazioni
della rete sono buone per entrambi il training e il test allora i suoi
risultati si giudicano soddisfacenti. Nel nostro esempio i risultati sono
eccezionali come ci dice il &lt;a href="https://it.wikipedia.org/wiki/Coefficiente_di_determinazione" target="_blank"&gt;&lt;span style="color: cyan;"&gt;coefficiente R2&lt;/span&gt;&lt;/a&gt; che e’ praticamente pari a 1 per tutti
e 3 i gruppi. Ricordiamo che il parametro R2 esprime la bonta’ del nostro
modello. Piu’ questo valore e’ vicino a 1 e piu’ il modello e’ buono. (per
approfondimenti si puo’ consultare su questo blog il&lt;span style="color: cyan;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="color: cyan;"&gt;&lt;a href="https://www.slideshare.net/feru60/data-mining-winter-lab-conference" target="_blank"&gt;&lt;span style="color: cyan;"&gt;post&lt;/span&gt;&lt;/a&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;). Qui
di seguito l’andamento previsto dalla rete della y0 e del tempo t. Come e’
possibile vedere la rete ha catturato correttamente l’andamento secondo la
radice quadrata tra il tempo e l’altezza y0.&amp;nbsp;
&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjAm3bVqLlbpi8hHDnNwFQ2SXwWJJQhNstwN2EMnO-UrBszFzP2byOByqy2WAKHKsu8yLRefHzWlahvZTygHCFAUoVovk52FWOQlYIizX16Z018ozeP7JwlEtx_rLoDT8UYeVStBMt9/s1600/nn5.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="343" data-original-width="434" height="252" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjAm3bVqLlbpi8hHDnNwFQ2SXwWJJQhNstwN2EMnO-UrBszFzP2byOByqy2WAKHKsu8yLRefHzWlahvZTygHCFAUoVovk52FWOQlYIizX16Z018ozeP7JwlEtx_rLoDT8UYeVStBMt9/s320/nn5.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: left; text-indent: 0cm;"&gt;
&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;Addirittura se andiamo a verificare il valore del tempo
predetto in funzione dell’altezza y0 vediamo che la curva (in rosso) che meglio
approssima i dati (in nero) e’ una radice quadrata e il coefficiente della
radice quadrata di y0 e’ pari a 0.447 che e’ il valore previsto dalla teoria
per l’&lt;a href="https://it.wikipedia.org/wiki/Accelerazione_di_gravit%C3%A0" target="_blank"&gt;&lt;span style="color: cyan;"&gt;accelerazione di gravita’&lt;/span&gt;&lt;/a&gt;.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjgUHxnmq-69HAaUA1-reyKze_mtdZ4aODXB3Y_-olBKa3_X01ZSk3O_n6PQNGWX2rqoZGHTRzo8vpBpySaPwM7rVoJF9fNyr177an2P4irrEUZAT7HEGBOdmlvJPlkNgy46JThtWpd/s1600/nn6.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="634" data-original-width="505" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjgUHxnmq-69HAaUA1-reyKze_mtdZ4aODXB3Y_-olBKa3_X01ZSk3O_n6PQNGWX2rqoZGHTRzo8vpBpySaPwM7rVoJF9fNyr177an2P4irrEUZAT7HEGBOdmlvJPlkNgy46JThtWpd/s320/nn6.png" width="254" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Infatti la legge oraria della caduta dei gravi e’ data da:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Y=Yo+Vo*t-1/2*g*t^2&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;dove Yo e’ l’altezza, Vo la velocita’ iniziale e g l’accelerazione di
gravita’, una costante pari a 9.8 m/sec2 in prossimita’ della superficie Terrestre.
Per l’esperimento realizzato dal nostro Newton del 2020, Y=0 e Vo=0, cioe’&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;0=Yo-1/2*(9.8)*t^2&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;da cui&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;t=sqrt(Yo/5)=1/sqrt(5)*sqrt(Yo)=0.447*sqrt(Yo)&amp;nbsp;&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;avendo eliminata la soluzione negativa (in quanto il
tempo e’ una quantita’ sempre positiva). &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Adesso complichiamo leggermente le cose utilizzando
l’intera legge oraria scritta precedentemente assumendo che la velocita’
iniziale non sia zero e che non ci sia un suolo su cui l’oggetto che cade possa
fermarsi. Questo spiega i valori della y negativi nella tabella sottostante. I
dati sono stati creati utilizzando la funzione &lt;a href="https://exceljet.net/excel-functions/excel-rand-function" target="_blank"&gt;&lt;span style="color: cyan;"&gt;RAND()&lt;/span&gt;&lt;/a&gt; di excel. Abbiamo
introdotto anche una piccola variazione percentuale della costante g per
cercare di confondere l’algoritmo. Come potete vedere e’ stata introdotta anche
la massa m anche se dalla teoria sappiamo che essa non ha alcun impatto sulla
caduta dei gravi come invece pensava &lt;a href="http://www.filosofico.net/schema.htm" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Aristotele&lt;/span&gt;&lt;/a&gt;. Vediamo cosa succede
utilizzando i &lt;a href="https://en.wikipedia.org/wiki/Predictive_modelling" target="_blank"&gt;&lt;span style="color: cyan;"&gt;predictive models&lt;/span&gt;&lt;/a&gt; di JMP Pro.&amp;nbsp;
&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiDH9HdV1qtDtXOfebuIShJ5XByKzBrnB6TmI40jZUCRzArV78iXRld49dY-2JDAO9ky-biFIPwZwkABCGO0h6JVtmmuYqQNIVfMlO_ApRmoz3frm4qIvMQGcjgNfbJSsPu3af3ayLA/s1600/nn101.bmp" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="280" data-original-width="412" height="217" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiDH9HdV1qtDtXOfebuIShJ5XByKzBrnB6TmI40jZUCRzArV78iXRld49dY-2JDAO9ky-biFIPwZwkABCGO0h6JVtmmuYqQNIVfMlO_ApRmoz3frm4qIvMQGcjgNfbJSsPu3af3ayLA/s320/nn101.bmp" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Oltre alla rete neurale gia’ introdotta prima, sono stati
utilizzati i seguenti modelli di machine learning: &lt;span style="color: cyan;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Foresta_casuale" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Random Forest&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;(RF),&lt;span style="color: lime;"&gt; &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Boosting" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Ensemble Boosted &lt;/span&gt;&lt;/a&gt;e &lt;a href="https://it.wikipedia.org/wiki/K-nearest_neighbors" target="_blank"&gt;&lt;span style="color: cyan;"&gt;KNN&lt;/span&gt;&lt;/a&gt;.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Prima di poter parlare di Random Forest dobbiamo
introdurre il modello di &lt;span style="color: cyan;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Decision_tree" target="_blank"&gt;&lt;span style="color: cyan;"&gt;decison tree&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;da cui l’RF deriva. L’idea alla base dei
modelli Tree e’ molto semplice. E’ quella dei mitici romani: dividi e governa.
Dato un dataset con almeno una risposta Y (sia numerica che categorica) e tante
features X (o anche predictors), l’algoritmo cerca di dividere il dataset in
due gruppi per una certa X che massimizza la differenza tra i valori medi della
Y nei due gruppi e che all’interno di ognuno di essi minimizza la &lt;a href="https://it.wikipedia.org/wiki/Scarto_quadratico_medio" target="_blank"&gt;&lt;span style="color: cyan;"&gt;standard deviation&lt;/span&gt;&lt;/a&gt;. Fatto cio’ ripete piu’ e piu’ volte questa divisione costruendo un
vero e proprio albero con tanti rami e tante foglie (in giallo nell’immagine
qui sotto). &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgU2nXmNoKuE7iioMkxrH8yFTlLd77pjRJfEh7nirT_LA5k1aenxmMIkUPNtC1PoLgFDXbi15_ikRa8JHvlHqJlV1SJulk5Yr_hB1zpmF6m0UHfZEJh-pnh8BXHMHfhL7zkb0q4nzfZ/s1600/nn8.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="626" data-original-width="681" height="294" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgU2nXmNoKuE7iioMkxrH8yFTlLd77pjRJfEh7nirT_LA5k1aenxmMIkUPNtC1PoLgFDXbi15_ikRa8JHvlHqJlV1SJulk5Yr_hB1zpmF6m0UHfZEJh-pnh8BXHMHfhL7zkb0q4nzfZ/s320/nn8.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;Purtroppo i decision tree sono
molto sensibili ai dati in ingresso. Se i dati di training vengono cambiati
(per esempio addestrando l’albero su un sottoinsieme dei dati di addestramento)
l’albero decisionale risultante puo’ essere abbastanza diverso e con diverse
previsioni.&amp;nbsp; Per questo motivo si e’
arrivati alle Random Forest (RF). Come il nome indica si tratta di un grande
numero di alberi decisionali che operano come un tutt’uno nel senso che
lavorano in parallelo. Le RF si basano sulla regola che un gruppo di persone e’
piu’ intelligente di un singolo individuo (saggio di J. &lt;a href="https://it.wikipedia.org/wiki/James_Surowiecki" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Surowiecki&lt;/span&gt;&lt;/a&gt;, La saggezza
della folla). Ogni singolo tree fa la sua previsione e la classe che ottiene
piu’ voti diventa la previsione globale dell’algoritmo nel caso di
classificazione oppure il valore medio nel caso di regressione. Individualmente,
le previsioni fatte dai singoli alberi potrebbero anche essere non accurate, ma
combinate insieme, si avvicineranno alla risposta corretta.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Passiamo adesso all’algoritmo di
boosting. Come per le random forest anche questi modelli fanno parte dei
cosiddetti modelli previsionali ottenuti tramite la composizione di vari
modelli piu’ semplici (&lt;a href="https://it.wikipedia.org/wiki/Apprendimento_ensemble" target="_blank"&gt;&lt;span style="color: cyan;"&gt;ensemble models&lt;/span&gt;&lt;/a&gt;). Il tutto nasce nel 1988 quando si capisce
che un insieme di modelli di apprendimento deboli se messi insieme possono
creare un modello robusto (l’unione fa la forza). Il concetto non e’ molto
diverso dall’ottenere una funzione complessa a partire dalla somma di funzioni
elementari semplici. Vediamo un esempio. Supponiamo di avere a disposizione dei
dati (punti in blu nel grafico qui sotto) e vogliamo trovare la migliore curva
che approssima questi punti. Poiche’ si vede un andamento globale a crescere la
prima cosa che possiamo fare e’ provare con una funzione radice quadrata (in
arancione). Non male. Osservando bene pero’ possiamo notare che ci sono delle
oscillazioni intorno al valore della radice quadrata. Viene quindi spontaneo
aggiungere alla radice quadrata una funzione seno (linea nera) che migliora
l’approssimazione come si puo’ vedere dalla tabella excel riportata. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiX29DjS2n2sD-z28zyRDOJWFc9ABslomu5h1m65g0RuBVp9YIcprRzTv2J976r2WdahRos4cvSpAILMFqhMAZpGQdSgBVM0HG3TulNea_FD8iVFyvNUJOWSG2MnSflz5qe1UoPIyW3/s1600/nn9.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="452" data-original-width="752" height="192" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiX29DjS2n2sD-z28zyRDOJWFc9ABslomu5h1m65g0RuBVp9YIcprRzTv2J976r2WdahRos4cvSpAILMFqhMAZpGQdSgBVM0HG3TulNea_FD8iVFyvNUJOWSG2MnSflz5qe1UoPIyW3/s320/nn9.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&amp;nbsp;&lt;/span&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgIBYjvg9djb6SFiNy0heQSXyYoqHp1weEhzJeWCmmFYLHarAArgVUHRpsI82p-v-kiHrzNJysXwIMeOM4gCSK1x1trdJhVInDWMHmtVfTCC0TEaT0uORrj3xrKoHqj4XThQUzu7zRl/s1600/nn100.bmp" imageanchor="1" style="margin-left: 1em; margin-right: 1em; text-align: center;"&gt;&lt;img border="0" data-original-height="280" data-original-width="313" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgIBYjvg9djb6SFiNy0heQSXyYoqHp1weEhzJeWCmmFYLHarAArgVUHRpsI82p-v-kiHrzNJysXwIMeOM4gCSK1x1trdJhVInDWMHmtVfTCC0TEaT0uORrj3xrKoHqj4XThQUzu7zRl/s1600/nn100.bmp" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;La somma dei&lt;span style="color: cyan;"&gt; &lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Residuo_(analisi_complessa)" target="_blank"&gt;&lt;span style="color: cyan;"&gt;residui&lt;/span&gt; &lt;/a&gt;al
quadrato&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="EN-US" style="font-size: 14.0pt; line-height: 115%; mso-bidi-font-size: 11.0pt;"&gt;SUM(Y_actual-Y_predicted)^2&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;nel caso della radice quadrata e’
di circa 3800 mentre quella della funzione somma &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;f(x)=a*sqrt(x)+b*(sin(c*x))&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;a,b,c costanti&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;ha un valore di circa 200 cioe’
un fattore x19 di meno.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&amp;nbsp;E’ chiaro quindi che questo algoritmo lavora
in serie cercando di migliorare un learner debole applicandone uno nuovo e cosi
via. Allo stesso modo per un problema di classificazione o di regressione se
M(x) e’ il primo modello avremo:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Y=M(x)+e1&amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp;con
un’accuratezza per esempio pari a 84%&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;dove con e1 abbiamo indicato
l’errore. Invece di procedere col costruire nuovi modelli, quello che si puo’
fare e’ cercare di modellizzare l’errore ottenendo qualche cosa come&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;e1=H(x)+e2&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;e a sua volta&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;e2=G(x)+e3&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Se ci fermiamo qui otteniamo&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Y=M(x)+H(x)+G(x)+e3&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Arrivati qui possiamo assegnare
degli opportuni pesi ai 3 learners M, G e H cercando di ottenere un’accuratezza
migliore del primo learner M, cioe’&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Y=aM(x)+bH(x)+cG(x)+e4&amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; con Accuratezza&amp;gt;84%&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;L’ultimo modello utilizzato e’ il
KNN cioe’ K-Nearest Neighbors model. Si tratta di uno dei modelli piu’ semplici
del machine learning che produce dei buoni risultati in diverse situazioni. Si
tratta di un algoritmo che cerca di predire una nuova istanza conoscendo i
punti che sono separati in diverse classi. L’idea di base e’ quella di usare i
k punti “piu’ vicini” (nearest neighbors) per effettuare la classificazione. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh3UIQqC3VbY1o8MRDOwmpR1_EiSG2R5-CJhgrFFB1sjnhfMteIjLW87fz8kpNvOQyXTNMbkgPDh6Ed1lQlgNBuqydzlBQ3fhRzD8CfyxTaIkzs7mWZK2RnuRFnMsLrxFASVabDj5ci/s1600/nn11.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="431" data-original-width="808" height="213" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh3UIQqC3VbY1o8MRDOwmpR1_EiSG2R5-CJhgrFFB1sjnhfMteIjLW87fz8kpNvOQyXTNMbkgPDh6Ed1lQlgNBuqydzlBQ3fhRzD8CfyxTaIkzs7mWZK2RnuRFnMsLrxFASVabDj5ci/s400/nn11.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Questi algoritmi per poter
lavorare correttamente hanno bisogno di una classe di training e di una metrica
per calcolare la distanza (per esempio la distanza Euclidea) tra i vari records
e il numero di vicini da utilizzare. Il processo di classificazione prima di
tutto calcola la distanza rispetto ai record nel training set, identifica i k
records piu’ vicini e utilizza le labels delle classe dei primi vicini per
determinare la classe del record sconosciuto (per es. scegliendo quella che
compare con maggiore frequenza) nel caso di classificazione oppure prendendo il
valore medio dei primi vicini nel caso di regressione. &amp;nbsp;Qui di seguito un’immagine che mostra la
definizione di primi vicini per diversi valori di k (da 1 a 3). &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhvQk7n3pB_2tkk0MuJJY3Uf6oI8nS0feZE6_RXDfxBN-JDLAQGQEk2dYOwa-q3eDcBO52MUmzfeSFrw4cID53cEU2iaB-st1maDfTlcnuYPbmJ15eA9qNSWb5q-hpubEAzdinFmr2u/s1600/nn12.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="386" data-original-width="835" height="182" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhvQk7n3pB_2tkk0MuJJY3Uf6oI8nS0feZE6_RXDfxBN-JDLAQGQEk2dYOwa-q3eDcBO52MUmzfeSFrw4cID53cEU2iaB-st1maDfTlcnuYPbmJ15eA9qNSWb5q-hpubEAzdinFmr2u/s400/nn12.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-size: 14pt; text-indent: 0cm;"&gt;E’ chiaro che utilizzando valori
diversi di k si otterranno risultati diversi come nel caso della regressione
dove il valore medio dipende da quanti vicini vengono considerati. Bisogna
quindi stabilire il valore ottimale di k. In genere l’errore per il gruppo di
training e di validation ha un andamento come quello mostrato nell’immagine
sottostante. Per piccoli valori di k l’errore sull’insieme di training e’
piccolo mentre quello sul validation set e’ grande. Chiaro segnale di
&lt;/span&gt;&lt;a href="https://it.wikipedia.org/wiki/Overfitting" style="font-size: 14pt; text-indent: 0cm;" target="_blank"&gt;&lt;span style="color: cyan;"&gt;overfitting&lt;/span&gt;&lt;/a&gt;&lt;span style="font-size: 14pt; text-indent: 0cm;"&gt; nel senso che l’algoritmo ha una bassa generalizzazione della
predizione avendo imparato a memoria. Al crescere di k vediamo che sia l’errore
per il training set che per il validation set aumentano indicando che il
modello e' in una condizione di &lt;/span&gt;&lt;a href="https://www.geeksforgeeks.org/underfitting-and-overfitting-in-machine-learning/" style="font-size: 14pt; text-indent: 0cm;" target="_blank"&gt;&lt;span style="color: cyan;"&gt;underfitting&lt;/span&gt;&lt;/a&gt;&lt;span style="font-size: 14pt; text-indent: 0cm;"&gt;. Comunque osservando la curva dell’errore del
validation set (chiamata elbow a causa della sua forma a gomito) vediamo che
essa mostra un minimo intorno a k=9. Questo valore di k e’ il valore ottimale
del modello KNN.&amp;nbsp; &amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjPHkUrfuxcOhQJHT-0pS1lxsfUVlokvOIlGV1X-gtRtEidT98CPNq15w4ZHdiwq9oLu0rufcRbdf7BKGXAwaIIWir-S9LdeYIFJvYpqMac5rHpOwTQDVs22BW-3Z_blXkatpz_Obkf/s1600/nn13.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="541" data-original-width="500" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjPHkUrfuxcOhQJHT-0pS1lxsfUVlokvOIlGV1X-gtRtEidT98CPNq15w4ZHdiwq9oLu0rufcRbdf7BKGXAwaIIWir-S9LdeYIFJvYpqMac5rHpOwTQDVs22BW-3Z_blXkatpz_Obkf/s400/nn13.png" width="368" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; tab-stops: 18.0pt; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Dopo questo excursus sui modelli
utilizzati, possiamo ritornare al nostro esperimento sintetico della caduta dei
gravi. Utilizzando i 4 modelli descritti e presenti nel modulo di “Predictive
modeling” di JMP Pro abbiamo ottenuto i seguenti risultati per la legge oraria
del moto completa dei gravi. Il modello con le migliori prestazioni e’ stata la
rete neurale seguita dal Boosted, dal KNN e per utlimo dal Random Forest.&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiNtoZkXlFfuC49nL91ozjEwaD07UWxPUuufPHrONb4aNWN7_4bibU3tAkSUwj14QxCUx31B1Dui0iKWJ_C7xPs9s1dpdf8m7Z-mkvzxFPF84GQyqlwE29H1E6h5pEU7teJE9laI5G_/s1600/nn14.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="279" data-original-width="537" height="207" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiNtoZkXlFfuC49nL91ozjEwaD07UWxPUuufPHrONb4aNWN7_4bibU3tAkSUwj14QxCUx31B1Dui0iKWJ_C7xPs9s1dpdf8m7Z-mkvzxFPF84GQyqlwE29H1E6h5pEU7teJE9laI5G_/s400/nn14.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Osserviamo come la rete neurale (la stessa struttura di quella mostrata
all’inizio di questo post) sia stata capace di prevedere l’andamento parabolico
della y rispetto al tempo t.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhNeJ26hNcgmQYX2ZIh8iAQMi5IMKKvW43PmvS2JCB6FQp4ZyFiytEk5EMrCX1-2GT8SVb7jDCHFSqqoPMo_e-mPSLShcpONHcTLiA-6E_7MsQkGDLp-f_ElG6Bs4zF0IEnkuAw1iFO/s1600/nn15.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="330" data-original-width="585" height="225" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhNeJ26hNcgmQYX2ZIh8iAQMi5IMKKvW43PmvS2JCB6FQp4ZyFiytEk5EMrCX1-2GT8SVb7jDCHFSqqoPMo_e-mPSLShcpONHcTLiA-6E_7MsQkGDLp-f_ElG6Bs4zF0IEnkuAw1iFO/s400/nn15.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Analizzando la sensibilta’ di ognuno dei parametri in X
possiamo vedere come la rete abbia capito che la massa non ha alcun influenza sulla
caduta di un corpo dando ragione a Newton e non ad Aristotele. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgiTJLCvzBuaS03-wiJzQV6quTrUbNfbLqtH8mhl1QvTRzU9yzYwJ1Fp-MFB5vTn2MuDXS_11kh1iJYYOnT4m3wcTSQ-ctn8Gx0m9byaJxZ0EwHlSRUCwh9HUHJ8n_YSYten0-A3T7o/s1600/nn16.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="299" data-original-width="844" height="224" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgiTJLCvzBuaS03-wiJzQV6quTrUbNfbLqtH8mhl1QvTRzU9yzYwJ1Fp-MFB5vTn2MuDXS_11kh1iJYYOnT4m3wcTSQ-ctn8Gx0m9byaJxZ0EwHlSRUCwh9HUHJ8n_YSYten0-A3T7o/s640/nn16.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: left;"&gt;
&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;Interessante anche l’andamento della y con la g,
l’accelerazione di gravita’ terrestre. Se questa diminuisce, come per esempio
nel caso della luna, allora a parita’ di tempo t la y sara’ maggiore cioe’ il
corpo avra’ percorso un tratto minore.&amp;nbsp; &amp;nbsp;Altra osservazione.&amp;nbsp; &amp;nbsp;Se guardiamo&amp;nbsp; al&amp;nbsp; grafico&amp;nbsp; che&amp;nbsp; mette in relazione&amp;nbsp; la y predetta&amp;nbsp; con quella&amp;nbsp; reale&amp;nbsp; si&amp;nbsp; puo’ vedere
che se anche in termini di R2 i&amp;nbsp; 3 modelli di NN,&amp;nbsp; Boosting e&amp;nbsp; KNN&amp;nbsp; sono molto
simili essi&amp;nbsp; mostrano&amp;nbsp; una&amp;nbsp; varianza&amp;nbsp; intorno&amp;nbsp; alla&amp;nbsp; linea&amp;nbsp; centrale&amp;nbsp; diversa&amp;nbsp; con&amp;nbsp; la
KNN essendo quella peggiore.&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhbPKH7ogYtQgI0rKCsOC0ca-7ZytT2hH_wgTwdk3AUBOpDugOkLdHa_t_PapaDGl6axaeEx4cPyZQkaEyl6FMlmdYM8x2TfvjDa200m1eIf7S3B1naDplOsj1kY0FOVVEftTkP-jaD/s1600/nn17.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="342" data-original-width="894" height="241" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhbPKH7ogYtQgI0rKCsOC0ca-7ZytT2hH_wgTwdk3AUBOpDugOkLdHa_t_PapaDGl6axaeEx4cPyZQkaEyl6FMlmdYM8x2TfvjDa200m1eIf7S3B1naDplOsj1kY0FOVVEftTkP-jaD/s640/nn17.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Il modello della Random Forest e’ quella che merita un
discorso a parte. Infatti e’ quello che mostra le performance peggiori in
termini di R2. Proviamo a fare un grafico con i valori della y reali e quelli
invece predetti dall’algoritmo. Notiamo subito che la retta e’ spezzata in due
parti. Una pendenza piu’ o meno simile per i valori positivi e negativi con
diversa intercetta. Anche considerando il valore assoluto della y questa
anomalia rimane. Questo e’ un andamento che gli altri modelli non mostrano.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgGgmSf7WAmk67sakkKuycM4P-OptJIj8w6hBuCBB-QTtu1YJ92uO0-lo0oTDnIHIT7h8Dg3Vk3jiRjkRrtSXfLSWGymZehBeAUp7zcXAjTYBaca5gRjfV3jekhPfQGCBT3RLD1G6Kz/s1600/nn18.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="289" data-original-width="340" height="272" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgGgmSf7WAmk67sakkKuycM4P-OptJIj8w6hBuCBB-QTtu1YJ92uO0-lo0oTDnIHIT7h8Dg3Vk3jiRjkRrtSXfLSWGymZehBeAUp7zcXAjTYBaca5gRjfV3jekhPfQGCBT3RLD1G6Kz/s320/nn18.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;&lt;br /&gt;&lt;/span&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Passiamo adesso ad un altro fenomeno fisico molto noto,
quello &lt;a href="https://it.wikipedia.org/wiki/Interazione_gravitazionale" target="_blank"&gt;&lt;span style="color: cyan;"&gt;dell'interazione gravitazionale&lt;/span&gt;&lt;/a&gt;. Anche qui grazie a Newton sappiamo che la
legge con cui due masse M1 e M2 si attirano dipende dalla loro distanza al
quadrato secondo la legge:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;F=-G
(M1M2/r^2)&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;dove G e’ la costante gravitazione un numero uguale in
tutti i punti dell’universo ed r la distanza tra le due masse. Come nei casi
precedenti abbiamo generato 5000 records aggiungendo al data set una colonna V
(velocita’) per cercare di “ingannare” il modello. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Esattamente come prima il miglior learner risulta essere
la rete neurale, seguita dal modello Boosted, dal KNN e in ultimo dalle Random
forest con una performance veramente poco convincente.&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgN5bO4o9gzdRqI0qAOYXUgUnKZrHsq5U75kPSr7jZF3ussEGzFCiryQVRPxQ9rSfHJTlVyORmEUwA2htlfTTgAO5Vos_u4Q_yjyrig2jgHLVsglIqTdtfbHenlVuT-Uy-gZjSGoUDi/s1600/nn19.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="280" data-original-width="578" height="191" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgN5bO4o9gzdRqI0qAOYXUgUnKZrHsq5U75kPSr7jZF3ussEGzFCiryQVRPxQ9rSfHJTlVyORmEUwA2htlfTTgAO5Vos_u4Q_yjyrig2jgHLVsglIqTdtfbHenlVuT-Uy-gZjSGoUDi/s400/nn19.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqaW6G8IMx15Ws8_bEONxu7-JsbMqKtt-myJ84NjYBaT_tE3xut5dxzJ4eDW0xVPRWBHCz3AFDqOTy9CTcet5Zyd2C0qbYbZ25bMY9c9sM7mi4j4aRmn-AK1eKT69S3hXLnTlmuBCb/s1600/nn20.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="378" data-original-width="1565" height="152" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqaW6G8IMx15Ws8_bEONxu7-JsbMqKtt-myJ84NjYBaT_tE3xut5dxzJ4eDW0xVPRWBHCz3AFDqOTy9CTcet5Zyd2C0qbYbZ25bMY9c9sM7mi4j4aRmn-AK1eKT69S3hXLnTlmuBCb/s640/nn20.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="IT" style="font-size: 14.0pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-size: 11.0pt;"&gt;Essendo l’R2 veramente molto basso si e’ provato a
cambiare i parametri di default di JMP per migliorare l’R2. Uno di essi si e’
dimostrato essere quello giusto. Passando dal valore di default 2 a 5 siamo
passati da un 47.7% al 91% come mostrato nella figura sottostante.&amp;nbsp; Il parametro in discussione e’ il numero di
predittori che la foresta utilizza &amp;nbsp;ad
ogni split. Avremo quindi una foresta che produce i suoi alberi considerando un
solo predittore ad ogni split. Poi una seconda foresta che ne considerera’ 2 e
cosi via fino a 5.&amp;nbsp;&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjcRCR3NIAjA8vcrshbpIGQTlIvGv2KYKYV-1or0dQcucetDvpGlMo4rGiKm3CnEo76LwoBkjcV2oLJu9a0QFYNvot5iavxO3tYJPYzvNMl_2zuTeBZHd_WnFbbVIvaWDT5RFGDDTYO/s1600/nn21.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="398" data-original-width="863" height="292" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjcRCR3NIAjA8vcrshbpIGQTlIvGv2KYKYV-1or0dQcucetDvpGlMo4rGiKm3CnEo76LwoBkjcV2oLJu9a0QFYNvot5iavxO3tYJPYzvNMl_2zuTeBZHd_WnFbbVIvaWDT5RFGDDTYO/s640/nn21.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;span style="font-size: 14pt; text-align: justify; text-indent: 0cm;"&gt;Ancora una volta i learner sono riusciti a catturare il
corretto andamento della legge fisica come possiamo vedere dall’andamento come
1/r^2 della forza F. E di nuovo i modelli hanno interpretato correttamente
l’impatto nullo della velocita’ sulla forza F come stabilito dalla legge
gravitazionale di Newton.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="margin-left: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisqwDnJIE2Y6N0PBRGDM1DZIK95tdiNOvW1MX5EQ8PAczKZrI979j2gptAAtLmpoevtVk1ZdiAmalLqhErNO0y9K86_SsN7kdh5K6Z55wWYKQ7915SIr1vOcV8v_mOXHEOfSmsip7u/s1600/nn22.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="407" data-original-width="748" height="217" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisqwDnJIE2Y6N0PBRGDM1DZIK95tdiNOvW1MX5EQ8PAczKZrI979j2gptAAtLmpoevtVk1ZdiAmalLqhErNO0y9K86_SsN7kdh5K6Z55wWYKQ7915SIr1vOcV8v_mOXHEOfSmsip7u/s400/nn22.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="margin-left: 0cm; text-align: center; text-indent: 0cm;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;span lang="IT" style="font-size: 14pt; line-height: 115%; text-align: justify; text-indent: 0cm;"&gt;Questa la&lt;/span&gt;&lt;span lang="IT" style="text-align: justify; text-indent: 0cm;"&gt; &lt;/span&gt;&lt;span lang="IT" style="font-size: 14pt; line-height: 115%; text-align: justify; text-indent: 0cm;"&gt;rete neurale utilizzata con due strati nascosti e tre
diverse funzioni di attivazione.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEifm76MH5FCPxYaoNve-vhJIqWl2ai5KgoLSHag-s13XQwylQ4zlDmin201EWe8CGLvwIH8BIMYAKaKgQckcxGZcRqdvJCJEoC6OAOLmmFsgqoxYE-XI8QEgVr50lUwiHuOOl8Ctc_S/s1600/nn23.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="432" data-original-width="439" height="314" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEifm76MH5FCPxYaoNve-vhJIqWl2ai5KgoLSHag-s13XQwylQ4zlDmin201EWe8CGLvwIH8BIMYAKaKgQckcxGZcRqdvJCJEoC6OAOLmmFsgqoxYE-XI8QEgVr50lUwiHuOOl8Ctc_S/s320/nn23.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;span lang="IT"&gt;&amp;nbsp;&lt;/span&gt;&amp;nbsp;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span lang="IT" style="font-family: &amp;quot;calibri&amp;quot; , sans-serif; font-size: 14.0pt; line-height: 115%;"&gt;Analizzare
e comprendere i risultati dei diversi modelli di machine learning ancora
richiede l’intervento umano essendo i risultati non chiari al pari di una legge
matematica con tutta la sua eleganza e bellezza. Ma di sicuro essi possono
aiutarci a capire come si comportano le leggi del nostro Universo semplicemente
guardando nei dati, la ricchezza del futuro, il petrolio che fara’ muovere la
tecnologia e la scienza dei prossimi anni. Pensate per esempio alla
possibilita’ di applicare il machine learning a problemi complessi come quelli
dei &lt;a href="https://it.wikipedia.org/wiki/Problema_dei_tre_corpi" target="_blank"&gt;&lt;span style="color: cyan;"&gt;3 corpi&lt;/span&gt; &lt;/a&gt;o all’&lt;a href="https://it.wikipedia.org/wiki/Ipotesi_di_Riemann" target="_blank"&gt;&lt;span style="color: cyan;"&gt;ipotesi di Riemann&lt;/span&gt;&lt;/a&gt; sugli zeri della funzione zeta per citarne
solo alcuni.&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span lang="IT" style="font-family: &amp;quot;calibri&amp;quot; , sans-serif; font-size: 14.0pt; line-height: 115%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span lang="IT" style="font-family: &amp;quot;calibri&amp;quot; , sans-serif; font-size: 14.0pt; line-height: 115%;"&gt;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
</description><link>http://quantidiscienza.blogspot.com/2020/04/alla-scoperta-delle-leggi-di-fisica-con.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhKKjxnPKpzgTKClcsR3NoEBUpQfJ4PQuSckWmzf7ax3PALOBmr2rmV7_ZRhwFdJpKH6DyYZtgfq51017RwvS7b0-DVHAvKqLmFyfu6eMyoF_feZa8tbuzZdDbOsPl6LbShj1gLcgnz/s72-c/nn102.bmp" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-5339244314850781034</guid><pubDate>Thu, 02 Jan 2020 16:35:00 +0000</pubDate><atom:updated>2021-12-11T08:35:59.336-08:00</atom:updated><title>Le Basiliche Paleocristiane di Cimitile - Un luogo da visitare</title><description>&lt;br /&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Con l'approvazione di mia figlia Gilda, e' con grande piacere che pubblico 2 suoi lavori relativi alle &lt;a href="https://it.wikipedia.org/wiki/Basiliche_paleocristiane_di_Cimitile" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Basiliche paleocristiane di Cimitile&lt;/span&gt;&lt;/a&gt; in provincia di Napoli. Il primo e' uno studio sul degrado di alcuni elementi presenti nelle Basiliche mentre il secondo e' una presentazione sul lavoro di restauro effettuato nel 2004 sugli affreschi nella Cappella dei Santi Martiri.&amp;nbsp; &amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Prima di lasciare spazio ai lavori di mia figlia, voglio riportare le foto di alcuni frammenti di pavimentazione in &lt;a href="https://it.wikipedia.org/wiki/Opus_sectile" target="_blank"&gt;&lt;span style="color: cyan;"&gt;opus sectile&lt;/span&gt;&lt;/a&gt; che mi hanno colpito per la loro bellezza e che ho fotografato nell'abside della&lt;span style="color: cyan;"&gt; &lt;a href="https://www.basilichedicimitile.it/2019/05/22/74/" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Basilica Nova&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;realizzata da Paolino, e subito dopo una possibile spiegazione del perche' al nome di San Felice, patrono di Cimitle sia stata aggiunto l'aggetivo "in Pincis".&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi1cpR8dO3DjdrY5Ju7tiY-TPGVlJF4wPkeiqDCH8zeleYY2QrCAZpiZ84SVpl09uim-ZghX5faGRgrxCAeTyjfLh1VasfpCzuHxP2ecYV1ON5nzWjhBhhg9mB-bYUNN6Os7TgEKukD/s1600/c1.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="383" data-original-width="656" height="371" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi1cpR8dO3DjdrY5Ju7tiY-TPGVlJF4wPkeiqDCH8zeleYY2QrCAZpiZ84SVpl09uim-ZghX5faGRgrxCAeTyjfLh1VasfpCzuHxP2ecYV1ON5nzWjhBhhg9mB-bYUNN6Os7TgEKukD/s640/c1.jpg" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style="text-align: center;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , sans-serif" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div style="text-align: center;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , sans-serif" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div style="text-align: center;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , sans-serif" style="text-align: justify;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;&lt;div style="text-align: left;"&gt;&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 0cm; text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 13.5pt;"&gt;Come detto si tratta di pavimentazione in opus sectile a base marmorea a
motivi complessi.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 0cm; text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 13.5pt;"&gt;Della pavimentazione si conservano i resti di cinque formelle disposte in
senso est-ovest e con perfettamente allineate, circondate lateralmente da
lastre marmoree di reimpiego e da una moderna pavimentazione in cemento. Le tre
formelle centrali, accomunate dallo stesso motivo decorativo, sono costituite
da un quadrato curvilineo aperto in&lt;u&gt;&lt;span style="color: #01ffff;"&gt;&amp;nbsp;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: #01ffff;"&gt;giallo antico&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;/u&gt;&lt;span style="color: cyan;"&gt;&amp;nbsp;&lt;/span&gt;al centro del quale si trovano
cerchi in&amp;nbsp;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: cyan;"&gt;porfido verde&lt;/span&gt;&lt;/a&gt;, listellati in giallo antico
(formelle 2 e 4), o con un quadrato in giallo antico iscritto (formella 3). I
quarti angolari, in pavonazzetto brecciato, listellati alternativamente in
porfido rosso e verde, sono decorati da elementi decorativi bilobati e da
elementi “gigliati” estroflessi, formati da uno scudo in&amp;nbsp;&lt;/span&gt;&lt;span style="color: cyan; font-family: &amp;quot;Times New Roman&amp;quot;,serif; font-size: 13.5pt; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;; mso-fareast-language: IT;"&gt;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: cyan;"&gt;pavonazzetto&lt;/span&gt;&lt;/a&gt;&amp;nbsp;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 13.5pt;"&gt;e da piccole volute in porfido verde e
sormontati da una punta di lancia in&amp;nbsp;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: cyan;"&gt;porfido rosso&lt;/span&gt;&lt;/a&gt;. L’effetto complessivo della
decorazione, ottenuta dall’unione di quattro formelle, è quello di ampie
circonferenze decorate da motivi quadrilobati alternati ad elementi gigliati.
Al centro è inserita una stella di quattro punte in porfido verde decorata da
un dischetto in giallo antico. Le formelle esterne&amp;nbsp; presentano una stella
a quattro punte in giallo antico bordata da listelli alternativamente in
porfido verde e rosso. Al centro delle stelle è inserito un disco in porfido
verde con un quadrato in giallo antico iscritto. Gli spazi angolari di risulta
sono decorati da motivi floreali lobati e cuoriformi bordati da listelli in
porfido verde. All’interno dei petali cuoriformi è inserito un motivo gigliato,
costituito da due piccole volute e da un punta di lancia in porfido rosso.
L’effetto complessivo è quello di una composizione formante ottagoni decorati
da motivi floreali ad otto petali dei quali quattro lobati e quattro
cuoriformi. Attorno alle formelle in sectile, lungo l’emiciclo dell’abside e
nelle conche laterali, sono inserite delle lastre rettangolari di marmi diversi
di reimpiego. Si riconoscono, in particolare, lastre in&amp;nbsp;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: cyan;"&gt;verde antico&lt;/span&gt;&lt;/a&gt;, giallo antico, in marmi bianchi e,
probabilmente, in&amp;nbsp;&lt;a href="https://www.blogger.com/blog/post/edit/5267136560849468780/5339244314850781034"&gt;&lt;span style="color: cyan;"&gt;africano&lt;/span&gt;&lt;/a&gt;. Per quanto riguarda gli aspetti
tecnici, lo spessore delle lastre non è uniforme, ma variante: lastre in
pavonazzetto cm 0.6-1.4, lastre in porfido rosso cm 1.5, lastre in porfido
verde cm 1-2.5, lastre in giallo antico cm 1. I singoli elementi marmorei,
inoltre, risultano dalla connessione, generalmente grossolana, di più lastrine
dello stesso materiale. Per quanto concerne la sintassi del pavimento, è
possibile che le formelle in sectile a motivi complessi fossero utilizzate come
motivo decorativo centrale della trichora, in corrispondenza dell’altare.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;

&lt;p class="MsoNormal" style="line-height: normal; margin-bottom: 0cm; text-align: justify;"&gt;&lt;span style="font-family: &amp;quot;Times New Roman&amp;quot;, serif; font-size: 13.5pt;"&gt;Voglio chiudere questo breve post riportando l'attenzione del lettore ai
pavimenti con disegni analoghi che ho ritrovato ad Ostia, Castellamare di
Stabia e Pompei come e' possibile vedere dalle foto qui riportate.&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/p&gt;&lt;/div&gt;&lt;div class="MsoNormal" style="line-height: normal; margin-bottom: 0cm; text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , sans-serif" style="font-size: 13.5pt;"&gt;&lt;br /&gt;&lt;/span&gt;
&lt;span face="&amp;quot;arial&amp;quot; , sans-serif" style="font-size: 13.5pt;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjEzCIWK9VG3BchSixoWeTrjJiSBCCYpEXuj-dXLkcgm4eXkaP2t7efJeetJ5RzqJ0ttamY9vc_XgzocXuqNYE5Bw7zMLPyT0My18Gx4WX8H7Tg0wEEsON8kOWXtowGWPn19KN9_Y8t/s1600/c2.bmp" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="340" data-original-width="610" height="222" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjEzCIWK9VG3BchSixoWeTrjJiSBCCYpEXuj-dXLkcgm4eXkaP2t7efJeetJ5RzqJ0ttamY9vc_XgzocXuqNYE5Bw7zMLPyT0My18Gx4WX8H7Tg0wEEsON8kOWXtowGWPn19KN9_Y8t/s400/c2.bmp" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjwu05ZMS4uuAZw5g7upwhA2ZPh8MMbY8dusjHKhuUH8u9_xbJyJ1dUu2mp_0WLXfR3mFi2QCK5ereeg7d7QWb9R0NqKZX_mCHJ7eegNqHAmXe-xBvlAC6GHwhLNSabXHG_SV7_OULM/s1600/c3.bmp" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="378" data-original-width="681" height="221" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjwu05ZMS4uuAZw5g7upwhA2ZPh8MMbY8dusjHKhuUH8u9_xbJyJ1dUu2mp_0WLXfR3mFi2QCK5ereeg7d7QWb9R0NqKZX_mCHJ7eegNqHAmXe-xBvlAC6GHwhLNSabXHG_SV7_OULM/s400/c3.bmp" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbW3cfHKzhUBx85xYUbREMT4bH978a-ZOFnKJMp8kJ6B4kjwVH17imPl8zYQ5UskfgEi8xGIu44rFmxS33Gd0Fnu2Xsjx1PcrYMsQ6LieQCpzgXc17ix1EZBSnbaqkS6ZVrJCfrmH6/s1600/c4.bmp" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="383" data-original-width="673" height="227" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbW3cfHKzhUBx85xYUbREMT4bH978a-ZOFnKJMp8kJ6B4kjwVH17imPl8zYQ5UskfgEi8xGIu44rFmxS33Gd0Fnu2Xsjx1PcrYMsQ6LieQCpzgXc17ix1EZBSnbaqkS6ZVrJCfrmH6/s400/c4.bmp" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Passiamo adesso all'aggettivo in Pincis.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;&lt;span lang="IT"&gt;Il Santo intorno alla cui tomba &lt;a href="https://it.wikipedia.org/wiki/Paolino_di_Nola" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Paolino&lt;/span&gt;&lt;/a&gt; costrui il complesso basilicale di
Cimitile, e’ &lt;a href="http://www.parrocchie.it/cimitile/sanfelice/il_santo_patrono.htm" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Felice&lt;/span&gt;&lt;/a&gt;.&amp;nbsp;La&lt;span style="font-size: 12px;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style="line-height: 107%;"&gt;vita del prete Felice&amp;nbsp; è narrata dallo stesso Paolino. Nato a Nola
nel III secolo da un ricco padre di origini Siriane, Felice aveva sofferto le
persecuzioni ed era stato imprigionato, torturato e poi liberato
miracolosamente da un angelo che lo aveva condotto in un luogo deserto (per
questo, pur non essendo stato ucciso è stato venerato da sempre come martire).
Grazie alla pace costantiniana Felice rientro’ nella diocesi di Nola. Qui, pur
essendo stato indicato come successore dal vescovo Massimo, alla morte di
questi rifiutò l'elezione e visse in povertà fino alla fine dei suoi giorni.
Venne sepolto nell’allora &lt;a href="http://rete.comuni-italiani.it/blog/11295" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Coemeterium di Nola&lt;/span&gt;&lt;/a&gt;, l’attuale Cimitile.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="line-height: 107%;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Inizialmente il Santo venne
indicato come San Felice prete e martire come si puo’ constatare dagli stessi
Carmi che San Paolino scrisse per diversi anni in suo onore. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="tab-stops: 10.0cm; text-align: justify;"&gt;
&lt;span style="line-height: 107%;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Eppure
oggi oltre a «&amp;nbsp;prete e martire&amp;nbsp;» al nome di Felice si aggiunge
«&amp;nbsp;in Pincis&amp;nbsp;». Come mai? Di ipotesi negli anni ne sono state fatte
diverse, ma quella che secondo noi e’ la piu’ accreditata e’ la seguente. &amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="tab-stops: 10.0cm; text-align: justify;"&gt;
&lt;span style="line-height: 107%;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;A
Roma gia’ a partire dall’anno 772 dC quando era papa &lt;a href="https://it.wikipedia.org/wiki/Papa_Adriano_I" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Adriano I&lt;/span&gt;&lt;/a&gt; (come da nostra
ricerca su testi antichi), e’ attestata la presenza di una chiesa dedicata a «&amp;nbsp;San
Felicis&amp;nbsp;» alle falde del &lt;a href="https://it.wikipedia.org/wiki/Pincio" target="_blank"&gt;&lt;span style="color: cyan;"&gt;colle Pincio&lt;/span&gt;&lt;/a&gt; cosi chiamato dal nome del Senatore
Pincio che ivi costrui’ un sontuoso palazzo detto poi in Pincis (Domus Pincy
nel’immagine sottostante che riporta il colle Pincio ai tempi della Roma dei
papi).&amp;nbsp; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="tab-stops: 10.0cm; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi9T-0NRrTsByeFjZ2F5LXWC19O9JKNNUgxbgDaK5XM1XEbxeXaROiul35GeqC9BtBYHShIU4lsRyTBXntZaeo861b_TK4LhRditol43wg5Kqwpgv1t6XYMdB0oW67R6_roB8ZFYiJD/s1600/p1.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="641" data-original-width="800" height="256" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi9T-0NRrTsByeFjZ2F5LXWC19O9JKNNUgxbgDaK5XM1XEbxeXaROiul35GeqC9BtBYHShIU4lsRyTBXntZaeo861b_TK4LhRditol43wg5Kqwpgv1t6XYMdB0oW67R6_roB8ZFYiJD/s320/p1.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="tab-stops: 10.0cm; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="tab-stops: 10.0cm; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;/div&gt;
&lt;div class="MsoNormal" style="tab-stops: 10.0cm; text-align: justify;"&gt;
&lt;span style="line-height: 107%;"&gt;&lt;span face="&amp;quot;arial&amp;quot; , &amp;quot;helvetica&amp;quot; , sans-serif"&gt;Di
seguito il frontespizio di uno dei diversi libri pubblicati tra il 1500 e il
1700 che riporta la presenza della chiesa di San Felice in Roma ai tempi dei
papi Adriano I, e &lt;a href="https://it.wikipedia.org/wiki/Papa_Benedetto_III" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Benedetto III&amp;nbsp;&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;span face="&amp;quot;verdana&amp;quot; , sans-serif"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiBL0nlYiVIyv_XnhAyYkGDB5F8_LwPuTM2dWlp3Q6XcTgTbDjCIEJy5YhShIXYnFvR_nSZFGKcr6LneTsGina5SriWwfaIzmpRzevsvkKmpqHblO64h-t2jM6VPo7BWvGjIObEyo-H/s1600/p2.png" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="590" data-original-width="494" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiBL0nlYiVIyv_XnhAyYkGDB5F8_LwPuTM2dWlp3Q6XcTgTbDjCIEJy5YhShIXYnFvR_nSZFGKcr6LneTsGina5SriWwfaIzmpRzevsvkKmpqHblO64h-t2jM6VPo7BWvGjIObEyo-H/s320/p2.png" width="267" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: left;"&gt;
&lt;a href="https://1drv.ms/w/s!Ap3B3HpHZ5VdgcU2vL1W7XYK41ohiw?e=iwefOk" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Analisi del degrado delle Basiliche Paleocristiane di Cimitile&lt;/span&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;a href="https://1drv.ms/p/s!Ap3B3HpHZ5VdhM02p5bkP-DI2fua4Q?e=hgNtad" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Il restauro degli affreschi della Cappella dei SS Martiri nel complesso Basilicale di Cimitile&lt;/span&gt;&lt;/a&gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;div id="UMS_TOOLTIP" style="background: transparent; cursor: pointer; left: -100000px; position: absolute; top: -100000px; z-index: 2147483647;"&gt;
&lt;/div&gt;
</description><link>http://quantidiscienza.blogspot.com/2020/01/le-basiliche-paleocristiane-di-cimitile.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi1cpR8dO3DjdrY5Ju7tiY-TPGVlJF4wPkeiqDCH8zeleYY2QrCAZpiZ84SVpl09uim-ZghX5faGRgrxCAeTyjfLh1VasfpCzuHxP2ecYV1ON5nzWjhBhhg9mB-bYUNN6Os7TgEKukD/s72-c/c1.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6992305179942093069</guid><pubDate>Wed, 18 Sep 2019 17:45:00 +0000</pubDate><atom:updated>2019-09-18T10:45:28.658-07:00</atom:updated><title>Come gli algoritmi stanno cambiando il corso della matematica</title><description>&lt;br /&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;I matematici a lungo si sono chiesti se fosse possibile esprimere il numero
33 e 42 come somma di 3 cubi, cioe’ se l’equazione 33=x&lt;sup&gt;3&lt;/sup&gt;+y&lt;sup&gt;3&lt;/sup&gt;+x&lt;sup&gt;3&lt;/sup&gt;
e &amp;nbsp;42=x&lt;sup&gt;3&lt;/sup&gt;+y&lt;sup&gt;3&lt;/sup&gt;+z&lt;sup&gt;3&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/sup&gt;avesse
&amp;nbsp;una soluzione. Si sa che 29 puo’ essere
scritto come 3&lt;sup&gt;3&lt;/sup&gt;+1&lt;sup&gt;3&lt;/sup&gt;+1&lt;sup&gt;3&lt;/sup&gt;, per esempio, mentre 32
non e’ esprimibile come somma di 3 interi ognuno elevato alla terza potenza; ma
dopo circa 60 anni nulla si sa per il 33 e 42.&amp;nbsp;&amp;nbsp;
Negli ultimi mesi,&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="http://www.bristol.ac.uk/maths/people/andrew-r-booker/overview.html"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="color: cyan;"&gt;Andrew
Booker&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;un matematico dell’Universita’ di Bristol
ha finalmente risolto l’enigma grazie all’utilizzo di potenti supercomputer. Ha
scoperto che: &amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpFirst" style="line-height: 24.0pt; margin-bottom: 18.75pt; mso-add-space: auto; mso-list: l0 level1 lfo1;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="mso-list: Ignore;"&gt;1.&lt;span style="font: 7.0pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;33=(8,866,128,975,287,528)³ +
(–8,778,405,442,862,239)³ + (–2,736,111,468,807,040)³ &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoListParagraphCxSpLast" style="line-height: 24.0pt; margin-bottom: 18.75pt; mso-add-space: auto; mso-list: l0 level1 lfo1;"&gt;
&lt;!--[if !supportLists]--&gt;&lt;span style="color: white;"&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="mso-list: Ignore;"&gt;2.&lt;span style="font: 7.0pt &amp;quot;Times New Roman&amp;quot;;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;!--[endif]--&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;42=(-80,538,738,812,075,974)&lt;sup&gt;3&lt;/sup&gt;
+ (80,435,758,145,817,515)&lt;sup&gt;3&lt;/sup&gt; + (12,602,123,297,335,631)&lt;sup&gt;3&lt;/sup&gt; &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Si tratta di interi con un elevato numero di cifre (16 e 17). Pensate che
questi numeri hanno un ordine di grandezza 7/8 volte maggiore della distanza
Terra-Sole espressa in Km. Da qui si evince la necessita’ dell’impiego di
supercomputer per portare a termine la ricerca di tali mostri numerici. Questa
notizia si e’ subito diffusa sulla rete e c’e’ stata una grande euforia da
parte degli ambienti di Teoria dei numeri. Ma perche’? &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;Di sicuro una parte e’ giustificata dalla
difficolta’ nel trovare la soluzione di queste equazioni. E’ dal 1955 che i
matematici hanno provato a trovare le soluzioni intere che soddisfano
l’equazione:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;k = &lt;i&gt;x&lt;/i&gt;³ + &lt;i&gt;y&lt;/i&gt;³
+ &lt;i&gt;z&lt;/i&gt;³&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;con k, x, y e z numeri interi. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;In alcuni casi le soluzioni sono facili, come per k=29; altre volte si sa
che la soluzione non esiste, come per tutti i numeri k che lasciano un resto di
4 o 5 quando divisi per 9, come per il numero 32. In genere pero’ le soluzioni
non sono cosi triviali, come per il caso di 33 e 42 dove i 3 interi sembrano
quelli di un biglietto della lotteria senza alcuna struttura prevedibile. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Al momento, per i matematici il solo modo per scoprire queste soluzioni e’
l’utilizzo della forza bruta dei computer per provare le differenti
combinazioni di cubi di interi e sperare nella vittoria. &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;Con la soluzione trovata da Booker non ci sono
altri interi k al di sotto di 100 per cui non si conosce la soluzione
dell’equazione cubica.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;Questo &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;risultato e’ arrivato non solo grazie
all’utilizzo di un supercomputer molto veloce ma anche grazie ad un nuovo modo
di effettuare la ricerca delle soluzioni (nuovo algoritmo). &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;E per k maggiore di 100 cosa succede? Ci sono al momento 11 interi che
ancora resistono tra 100 e 1000 e una infinita’ di essi oltre 1000.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;Purtroppo non c’e’ alcuna indicazione
teorica, nessun pattern che possa permettere ai matematici di avere un’idea di
dove cercare. Il classico ago in un pagliaio.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;
&lt;/span&gt;Ma allora, perche’ impegnare del tempo nella ricerca di questi numeri? &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;Quello che e’ interessante, secondo Booker, e’ che ogni nuova soluzione
puo’ aiutare a decidere cosa e’ vero circa il problema della somma dei 3 cubi. &lt;/span&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;L’equazione di
questo problema&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;i&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;k&lt;/span&gt;&lt;/i&gt;&lt;span lang="EN-US" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = &lt;i&gt;x&lt;/i&gt;³ + &lt;i&gt;y&lt;/i&gt;³
+ &lt;i&gt;z&lt;/i&gt;³&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;e’ quella che I teorici chiamano&lt;/span&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="https://it.wikipedia.org/wiki/Equazione_diofantea"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="color: cyan;"&gt;un’equazione
Diofantea&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;una specie di struttura algebrica, le cui
proprieta’ hanno affascinato i matematici per millenni. Queste equazioni sono
delle equazioni polinomiali le cui variabili sconosciute hanno dei valori
interi. Esse compaiono in diversi problemi, anche piuttosto semplici della vita
quotidiana. Esistono anche i sistemi di equazioni diofantee che rappresentano
una naturale estensione delle equazioni. Ad esempio, &amp;nbsp;si immagini che un negoziante debba acquistare
un certo numero di maglioni a collo basso da 40 € ed un certo numero di
maglioni a collo alto da 60 €, avendo a disposizione 560 €. Si desidera sapere
quanti maglioni di un tipo e quanti dell’altro riesce ad acquistare,
nell’ipotesi di voler spendere l’intera cifra a disposizione. Indicando con y
il numero di maglioni a collo basso acquistati, ovviamente intero, essendo
improbabile che il negoziante voglia acquistare mezzo maglione, e con x quello
dei maglioni a collo alto, deve essere &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;40y + 60x = 560
→ 2y + 3x = 28 . &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Si tratta di un’equazione in due incognite con coefficienti interi di cui
si ricercano le soluzioni intere.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiLIO7I0vGyclZ2NIhTdBTvbQmyG-bDpFt5jRsOWCe_pzwfWWHNAyUjCGQKzd0XDmLemcgaKuGzUbGUWX3KfCyLSrpZm8CNOuCqAXr6gp8VFB3HqAo9sD-IauPE-hNqi0HCg__kfefV/s1600/i1.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;span style="color: white;"&gt;&lt;img border="0" data-original-height="52" data-original-width="322" height="48" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiLIO7I0vGyclZ2NIhTdBTvbQmyG-bDpFt5jRsOWCe_pzwfWWHNAyUjCGQKzd0XDmLemcgaKuGzUbGUWX3KfCyLSrpZm8CNOuCqAXr6gp8VFB3HqAo9sD-IauPE-hNqi0HCg__kfefV/s320/i1.png" width="320" /&gt;&lt;/span&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt; text-indent: 0cm;"&gt;&lt;span style="color: white;"&gt;Qualche elementare considerazione numerica fornisce i risultati presentati
nella tabella precedente. Dunque, il negoziante ha alcune possibilità,
rappresentate dai quattro punti evidenziati in figura, e deciderà di approvvigionarsi
di un tipo oppure dell’altro tipo di maglione, a seconda delle scorte di
magazzino che possiede. È opportuno sottolineare che, se non vi fosse stato il
vincolo delle soluzioni intere, il problema avrebbe ammesso infinite soluzioni,
rappresentate da tutti i punti che si trovano sulla retta di seguito disegnata.&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-indent: 0cm;"&gt;
&lt;span lang="EN-US" style="mso-no-proof: yes;"&gt;&lt;!--[if gte vml 1]&gt;&lt;v:shape id="Picture_x0020_2"
 o:spid="_x0000_i1026" type="#_x0000_t75" style='width:319.5pt;height:315.75pt;
 visibility:visible;mso-wrap-style:square'&gt;
 &lt;v:imagedata src="file:///C:/Users/acer/AppData/Local/Temp/msohtmlclip1/01/clip_image003.png"
  o:title=""/&gt;
&lt;/v:shape&gt;&lt;![endif]--&gt;&lt;!--[if !vml]--&gt;&lt;!--[endif]--&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkPIBq25NB7EHQM6gsBaeodqk05lkyTO4ptzus05s7wM9AkHVJc-eUO6ZXDts7GjISbuAf-eWdgMztpnSLvkcJUnNZUlTT0V3JIzM3aPCgLGCyYRz593qBZe4u_KMFgxGW7eEmM6xN/s1600/i2.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="421" data-original-width="426" height="395" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhkPIBq25NB7EHQM6gsBaeodqk05lkyTO4ptzus05s7wM9AkHVJc-eUO6ZXDts7GjISbuAf-eWdgMztpnSLvkcJUnNZUlTT0V3JIzM3aPCgLGCyYRz593qBZe4u_KMFgxGW7eEmM6xN/s400/i2.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; text-indent: 0cm;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt; text-indent: 0cm;"&gt;&lt;span style="color: white;"&gt;Se il negoziante dell’esempio appena sviluppato avesse avuto a disposizione
solamente di 550 €, decidendo sempre di spendere l’intera somma a disposizione,
come sarebbe cambiata la soluzione? Ebbene, sembra incredibile, ma non esiste
alcuna combinazioni di numeri interi che soddisfa l’equazione&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;40&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 60&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 550 → 4&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 6&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 55.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;È facile convincersi di quanto affermato, osservando che il primo membro è
sempre un numero pari, mentre il secondo è dispari.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Le proprieta’ fondamentali delle equazioni Diofantee, ancora impegnano i
matematici di tutto il mondo. Per esempio, non esiste nessun metodo affidabile
che ci possa dire se una equazione Diofantea abbia o no una soluzione. Secondo
Booker, il problema della somma dei 3 cubi e’ una tra le piu’ semplici delle
equazioni Diofantee. E’ esattamente alla frontiera di cosa puo’ ancora essere
maneggiato anche se con difficolta’.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;Per questa ragione, gli esperti di Teoria dei
Numeri sono desiderosi di capire tutto quello che c’e’ da capire sulla somma
dei 3 cubi.&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Un risultato sicuramente piu’ eclatante, sarebbe quello di provare la
congettura che&lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp; &lt;/span&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;i&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;k&lt;/span&gt;&lt;/i&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = &lt;i&gt;x&lt;/i&gt;³ + &lt;i&gt;y&lt;/i&gt;³ + &lt;i&gt;z&lt;/i&gt;³ &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;ha un’infinita’ di soluzioni per ogni numero intero k, ad eccezione di
quelli che hanno come resto 4 o 5 quando divisi per 9. Gli strumenti concepiti
per tale dimostrazione potrebbero aiutare a forzare la logica del problema o
essere applicati ad altre equazioni Diofantee. I risultati di Booker, offrono
un supporto per questa congettura, dando ai matematici una maggiore confidenza
sulla ricerca della dimostrazione. In realta’, ogni qualvolta i matematici
hanno fatto una ricerca estendendo l’intervallo numerico, hanno trovato nuove
soluzioni rimuovendo cosi possibili controesempi alla congettura. &lt;/span&gt;&lt;span style="color: #222222;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Ma chi era&lt;/span&gt;&lt;u style="color: #222222;"&gt; &lt;/u&gt;&lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="https://it.wikipedia.org/wiki/Diofanto_di_Alessandria"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="color: cyan;"&gt;Diofanto&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;? &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Vissuto nel III secolo dopo Cristo, è considerato l’iniziatore del
calcolo algebrico. Scrisse un trattato sui&lt;/span&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt; &lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="https://it.wikipedia.org/wiki/Numero_poligonale"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: cyan;"&gt;numeri
poligonali&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: cyan; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;e sulle frazioni, ma la sua opera
principale sono gli Arithmetica, un trattato in tredici volumi dei quali
soltanto sei sono giunti fino a noi. La sua fama è principalmente legata a due
argomenti: le equazioni indeterminate ed il simbolismo matematico. Ben poco si
sa della sua vita e quel poco è stato trasmesso da&lt;/span&gt;&lt;span style="color: #222222;"&gt; &lt;/span&gt;&lt;span style="color: cyan;"&gt;&lt;a href="https://en.wikipedia.org/wiki/Herbert_Turnbull" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Herbert Westren Turnbull&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;(31
agosto 1885 – 4 maggio 1961), un storico inglese della Matematica che ha
rinvenuto e tradotto l’epigramma greco, noto come Epitaffio di Diofanto. Si tratta
di un problema aritmetico proposto sotto forma di epigramma e fa parte di una
raccolta di quarantasei indovinelli, che il grammatico latino &lt;/span&gt;&lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="https://it.wikipedia.org/wiki/Metrodoro_di_Lampsaco_(epicureo)"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;span style="color: cyan;"&gt;Metrodoro&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;, &lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;durante il VI secolo dopo Cristo, incluse nell’Antologia Greca. Tutti i
quesiti corrispondono ad equazioni di primo grado ad un’incognita. Ecco il
testo dell’indovinello. Questa tomba rinchiude Diofanto e, con grande
meraviglia, dice matematicamente quanto ha vissuto. La sua giovinezza durò un
sesto della sua vita; poi la sua barba iniziò a crescere dopo un dodicesimo; si
sposò dopo un settimo e gli nacque un figlio dopo cinque anni. Il figlio visse
la metà degli anni del padre e il padre morì quattro anni dopo il figlio.
Quanti anni visse Diofanto?&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;Detta &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; l’età di
Diofanto, il problema si traduce nell’equazione &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;1 6 &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 1 12 &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 1 7 &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 5 + 1 2 &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 4 = &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; → &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 84 . &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt;Se l’epitaffio corrisponde a verità, Diofanto morì all’età di
ottantaquattro anni.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt;Un altro indovinello di tipo diofanteo è stato proposto, qualche anno fa,
quale test di ingresso agli studi universitari tecnico-scientifici. Ecco il
testo. Fra tre anni Matteo avrà il doppio dell’età che Sara aveva tre anni fa,
mentre ora il quadruplo degli anni di lui è pari al quintuplo degli anni di
lei. Se è possibile determinarlo, qual è l’età di Matteo e di Sara? Si indichi
con &lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; l’età di Matteo
e con &lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; quella di Sara.
Per determinare queste due incognite intere, è sufficiente impostare un sistema
lineare di equazioni, utilizzando le due condizioni imposte dal testo
dell’indovinello. Precisamente, l’affermazione contenuta nel testo fra tre anni
Matteo avrà il doppio dell’età che Sara aveva tre anni fa, in termini
analitici, si trasforma nell’equazione &lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 3 = 2(&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; − 3) → &lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; − 2&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = −9. Similmente, l’affermazione ora il quadruplo degli anni di lui è pari
al quintuplo degli anni di lei, diventa 4&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; − 5&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 0. Mettendole
insieme, risulta il sistema di due equazioni lineari [&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; − 2&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = −9 , 4&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; − 5&lt;/span&gt;&lt;span style="color: white; font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt; = 0] , la cui soluzione costituisce
l’obiettivo dell’esempio. Prima però di risolverlo, è opportuno verificare che
esso ammetta un’unica soluzione, per cui è necessario verificare che il&lt;/span&gt;&lt;span style="color: cyan;"&gt; &lt;/span&gt;&lt;/span&gt;&lt;span lang="EN-US"&gt;&lt;a href="https://it.wikipedia.org/wiki/Determinante"&gt;&lt;u&gt;&lt;span lang="IT" style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: cyan;"&gt;determinante&lt;/span&gt;&lt;/span&gt;&lt;/u&gt;&lt;/a&gt;&lt;/span&gt;&lt;span style="color: white; font-family: freight-sans-pro; font-size: 13.5pt;"&gt; | 1 −2 4 −5| = 3 ≠ 0 sia diverso da zero. Si ottiene allora che&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 15, &lt;span style="mso-spacerun: yes;"&gt;&amp;nbsp;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 12, &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: 24.0pt; margin-bottom: 18.75pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm; text-align: justify; text-indent: 0cm;"&gt;
&lt;span style="color: white;"&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;cioè Matteo ha quindici anni e Sara ne ha dodici. La figura che segue
illustra in maniera grafica l’intersezione tra le due rette &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; =( &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; + 9)/2 (blu), &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119910;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; = 4/5&lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119909;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt; (rossa), cioè la soluzione grafica
dell’indovinello: l’asse delle ascisse rappresenta l’età di Matteo, quello
delle ordinate indica invece l’età di Sara, e il punto &lt;/span&gt;&lt;span style="font-family: &amp;quot;Cambria Math&amp;quot;, serif; font-size: 13.5pt;"&gt;&#119875;&lt;/span&gt;&lt;/span&gt;&lt;span style="font-family: freight-sans-pro; font-size: 13.5pt;"&gt;&lt;span style="color: white;"&gt; è la soluzione del problema.&lt;/span&gt;&lt;span style="color: #222222;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpChC3M0xHuLD7uG2fSSTQiCw0JjoH1XqGiNQx9ja_4YbCjxitroend4TLAraB-69INJHTQur6F9kK2TLw4RtXRnDGrpxGjB1uJ_Z3FFhna5JeVicWdbwgPCAuLXo3KOuDL-swji2E/s1600/i3.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="345" data-original-width="591" height="371" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpChC3M0xHuLD7uG2fSSTQiCw0JjoH1XqGiNQx9ja_4YbCjxitroend4TLAraB-69INJHTQur6F9kK2TLw4RtXRnDGrpxGjB1uJ_Z3FFhna5JeVicWdbwgPCAuLXo3KOuDL-swji2E/s640/i3.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;span lang="EN-US" style="mso-no-proof: yes;"&gt;&lt;!--[if gte vml 1]&gt;&lt;v:shape
 id="Picture_x0020_3" o:spid="_x0000_i1025" type="#_x0000_t75" style='width:443.25pt;
 height:258.75pt;visibility:visible;mso-wrap-style:square'&gt;
 &lt;v:imagedata src="file:///C:/Users/acer/AppData/Local/Temp/msohtmlclip1/01/clip_image004.png"
  o:title=""/&gt;
&lt;/v:shape&gt;&lt;![endif]--&gt;&lt;!--[if !vml]--&gt;&lt;!--[endif]--&gt;&lt;/span&gt;&lt;span style="color: #222222; font-family: freight-sans-pro; font-size: 13.5pt; line-height: 115%; mso-ansi-language: IT; mso-bidi-font-family: Arial; mso-fareast-font-family: &amp;quot;Times New Roman&amp;quot;;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;br /&gt;</description><link>http://quantidiscienza.blogspot.com/2019/09/come-gli-algoritmi-stanno-cambiando-il.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiLIO7I0vGyclZ2NIhTdBTvbQmyG-bDpFt5jRsOWCe_pzwfWWHNAyUjCGQKzd0XDmLemcgaKuGzUbGUWX3KfCyLSrpZm8CNOuCqAXr6gp8VFB3HqAo9sD-IauPE-hNqi0HCg__kfefV/s72-c/i1.png" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-5628849450825385805</guid><pubDate>Wed, 14 Aug 2019 11:47:00 +0000</pubDate><atom:updated>2019-08-14T10:40:38.202-07:00</atom:updated><title>Primi additivi e moltiplicativi</title><description>&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;In passato ho dedicato parte del mio tempo a scoprire nuove
sequenze matematiche. Una sequenza e’ una stringa ordinata finita o infinita di
numeri.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Come vedete parlo di scoperta e non di invenzione. Questo
perche’ sono convinto che la matematica esista indipendentemente dall’uomo. La
matematica pervade il nostro universo ed e’ alla base delle equazioni fisiche
che lo regolano. E queste esistevano gia’ molto prima che comparisse l’uomo visto
che erano a lavoro gia’ al momento del Big bang senza che nessun uomo le
pensasse o le elaborasse. La matematica quindi esiste per se stessa e non
perche’ creata dalla mente dell’uomo. So che esitono matematici e scienziati
che la pensano diversamente ma questo e’ il mio personalissimo pensiero. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Ok, ma come si fa a capire se una sequenza scoperta e’
veramente nuova, interessante ed utile da un punto di vista matematico?
Semplicemente digitando i primi termini della sequenza sul sito di N. J. A. Sloane
“&lt;a href="https://oeis.org/?language=italian" target="_blank"&gt;&lt;span style="color: cyan;"&gt;The on-line encyclopedia of integer sequences&lt;/span&gt;&lt;/a&gt;”. Se la sequenza c’e’ allora non siete stati voi a
scoprirla per primi. Negli anni passati di sequenze ne ho scoperte circa un
trecento (tutte inserite nell’Enciclopedia di Sloane) &amp;nbsp;e oggi voglio parlarvi di alcune di esse a cui
sono particolarmente affezionato. Inizio col chiedervi cosa lega, &amp;nbsp;secondo voi, &amp;nbsp;questi numeri:&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;tt&gt;&lt;span style="line-height: 107%;"&gt;&lt;span style="font-family: &amp;quot;times&amp;quot; , &amp;quot;times new roman&amp;quot; , serif;"&gt;2,
3, 5, 7, 11, 23, 29, 41, 43, 47, 61, 67, 83, 89, 101, 113&lt;/span&gt;&lt;span style="font-size: 10pt;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/span&gt;&lt;/tt&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Da un rapido sguardo sembra che tutti i termini ad eccezione
del primo siano dispari. Inoltre nessun numero ha 5 come ultima cifra. Questo esclude, quindi i numeri divisibili per 5. Ma anche i multipli di 3 vanno esclusi
essendo i&amp;nbsp; numeri presenti nella sequenza
non divisibili per 3. Sembra che tutto punti ai numeri primi, cioe’ ai numeri
divisibili per 1 e per se stessi solo. Eppure guardando attentamente manca il
numero primo 13, 17, 19 per citarne solo alcuni. Quale e’ la proprieta’ condivisa
da questa stringa di numeri che al momento ci sfugge? Semplicemente questa:
numeri primi la cui somma delle cifre e’ ancora un numero primo. Per esempio 43
fa parte della sequenza in quanto 43 e’ un primo e lo e’ anche la somma delle
sue cifre 4+3=7. Al contrario 13 non fa parte della sequenza in quanto 13 e’ un
numero primo ma non lo e’ la somma delle sue cifre che da’ 4. A questo&lt;span style="color: cyan;"&gt; &lt;span style="color: cyan;"&gt;&lt;a href="https://www.youtube.com/watch?v=u86NhfJtFfA" target="_blank"&gt;&lt;span style="color: cyan;"&gt;link&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;&lt;/span&gt;un video youtube
che parla dei primi additivi. Questo come appare la sequenza sul sito di
Sloane. &lt;a href="http://oeis.org/A046704" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Link&lt;/span&gt;&lt;/a&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjazcg2p8284iIHbSEIWyFqhrWpa_JCkXJXbAVbqHfABSeKmvqKkDa_77BpIKNEzBWKKUdS1zu3UhkFJnqlfGTaHLwEEUaGMeFUR8NXSQMpCHYalYWeUl9o5przsEu7GUIqIuZpvnAL/s1600/img1.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="626" data-original-width="800" height="499" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjazcg2p8284iIHbSEIWyFqhrWpa_JCkXJXbAVbqHfABSeKmvqKkDa_77BpIKNEzBWKKUdS1zu3UhkFJnqlfGTaHLwEEUaGMeFUR8NXSQMpCHYalYWeUl9o5przsEu7GUIqIuZpvnAL/s640/img1.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;/div&gt;
&lt;div class="MsoNormal"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Per chi non lo ricordasse, i numeri primi sono gli atomi
della matematica. Cosi’ come tutto quello che ci circonda e’ fatto di atomi,
cosi i numeri naturali sono il prodotto univoco di numeri primi. Il terorema
fondamentale dell’aritmertica, infatti stabilisce che ogni numero naturale
maggiore di 1 o e’ un numero primo o si puo’ esprimere come prodotto di numeri
primi. Tale rappresentazione e’ unica, se si prescinde dall’ordine in cui
compaiono i fattori. Facciamo un esempio. Il numero intero 10 e’ dato dal
prodotto dei due numeri primi 2 e 5. Il numero 15 dal prodotto di 3 e 5. 20 dal
prodotto 2*2*5 e cosi via. Questo significa che e’ possibile ottenere tutti i
numeri che conosciamo a partire da un suo sottoinsieme: i numeri primi. I
numeri naturali sono infiniti. Qualsiasi numero venga in mente per quanto
grande che sia, puo’ essere sempre superato dallo stesso numero piu’ 1. Da qui
si capisce facilmente che i numeri naturali sono infiniti. Cosa possiamo dire invece
per i numeri primi? Si ritiene che la risposta sia stata data dal matematico
greco Eulero nei suoi Elementi (Libro IX proposizione 20) che stabili’ in modo
rigoroso che il numero dei primi e’ infinito. E cosa succede per i primi
additivi? Sono meno dei numeri primi e questo e’ ovvio essendo un loro
sottoinsieme. Ma il loro numero e’ finito o infinito? E quanti primi additivi
ci sono se cambiamo la base passando per esempio da base 10 a base 2, 3, 12 ecc.? Nel 2009 Drmota, Maduit e Rivat hanno dimostrato che il numero di primi minori
di n con somma delle cifre in base b uguale a k tende, se b-1 e k non hanno
divisori comuni, a: &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_V8VPVSMTM6-hrraXI3f8tIdy2VEejgRQxO_3QzVPCERvK6r20XnnMib_3U3SWo9K0Wn0Au8RH5RKh1rv7j14q2VnvJWUJ9EFW7VwEKi_yHPSEkWzJ_8F70SO8QT32MBt5w7qCQWi/s1600/img6.bmp" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="178" data-original-width="438" height="130" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg_V8VPVSMTM6-hrraXI3f8tIdy2VEejgRQxO_3QzVPCERvK6r20XnnMib_3U3SWo9K0Wn0Au8RH5RKh1rv7j14q2VnvJWUJ9EFW7VwEKi_yHPSEkWzJ_8F70SO8QT32MBt5w7qCQWi/s320/img6.bmp" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;dove &lt;/span&gt;&lt;span style="font-size: 12.0pt; line-height: 107%; mso-bidi-font-family: Calibri; mso-bidi-theme-font: minor-latin;"&gt;Π&lt;/span&gt;&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;(n) indica il numero di primi fino a n
e &lt;/span&gt;&lt;span style="font-size: 12.0pt; line-height: 107%; mso-bidi-font-family: Calibri; mso-bidi-theme-font: minor-latin;"&gt;ϕ&lt;/span&gt;&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;(b-1) e’ la funzione di Eulero, cioe’ il numero di interi
positivi minori di b-1 che non hanno divisori in comune con b-1. Questo
significa che per numeri n, molto grandi e’ possibile trovare un numero molto
grande di primi (tendente all’infinito) &amp;nbsp;la cui somma delle cifre k e’ essa stessa un
numero primo. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Nel 2012 Glyn Harman (&lt;a href="https://cs.uwaterloo.ca/journals/JIS/VOL15/Harman/harman2.html" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Link&lt;/span&gt;&lt;/a&gt;) ha dimostrato che, se e’ vera una congettura
sulla distribuzione dei numeri primi in piccoli intervalli, la somma dei
reciproci dei primi additivi minori di n in base 10 tende a: &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;3/2(ln(ln(ln(n)))&amp;nbsp;&amp;nbsp; &amp;nbsp;per n tendente all’infinito&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Qui l’andamento della somma dei reciproci dei primi additivi.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiTSVpRbEZ9PizyRoxUmbNfoqEDd2C07bbNwG_y8UKoVCshm-TF52c8YUMj_arpvy4hUURVp0d7VIusEMMwV5ixF_A-6zR9THGyHD9c6iL0tAww-bJyvDx2GeWvECMnGhHJqIqpzSXC/s1600/img3.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="452" data-original-width="752" height="384" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiTSVpRbEZ9PizyRoxUmbNfoqEDd2C07bbNwG_y8UKoVCshm-TF52c8YUMj_arpvy4hUURVp0d7VIusEMMwV5ixF_A-6zR9THGyHD9c6iL0tAww-bJyvDx2GeWvECMnGhHJqIqpzSXC/s640/img3.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="center" class="MsoNormal" style="text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Quindi il numero di primi additivi e’ infinito. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;La congettura stabilisce che esista una funzione f(x) che
tende a zero al crescere di x, tale che il numero di primi nell’intervallo [x,
x+sqrt(x)f(x)] tenda a (sqrt(x)f(x))/ln(x). Sebbene assolutamente plausibile
questa congettura e’ piu’ forte della stessa &lt;a href="https://it.wikipedia.org/wiki/Ipotesi_di_Riemann" target="_blank"&gt;&lt;span style="color: cyan;"&gt;congettura di Riemann&lt;/span&gt;&lt;/a&gt;.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Dalla sequenza dei primi additivi a quella dei primi la cui
somma delle cifre e’ un numero pari o un&amp;nbsp;
numero dispari il salto e’ breve. &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;2,11,13,17,19,31,37,53,59,71,73,79,97,101,103,...&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;3,5,7,23,29,41,43,47,61,67,83,89,113,131,137,...&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Queste due sequenze in media hanno lo stesso numero di elementi?
Nessuno ha saputo rispondere fino a che nel 1968, il matematico russo Alexander
Gelfond ipotizzo’ di si. Ma si trattava di una congettura e non di una
dimostrazione. Per ottenere quest’ultima si e’ dovuto aspettare il 2010 quando
alcuni ricercatori dell’Istituto di Matematica di Luminy (Francia) hanno
pubblicato un&amp;nbsp; articolo negli Annals of Mathematics
dal titolo &lt;a href="http://annals.math.princeton.edu/wp-content/uploads/annals-v171-n3-p04-p.pdf" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Sur un probleme de Gelfond: la somme des chiffres des nombres premiere.&lt;/span&gt;&lt;/a&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;/span&gt;&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Il metodo impiegato ha le sua fondamenta
nella matematica combinatoria, la teoria analitica dei numeri e l’analisi
armonica. Di sicuro questa scoperta permettera’ di rispondere ad altre
questioni relative alle sequenze dei numeri primi ancora aperte. Questioni che oltre all’interesse puramente teorico sono legate alla costruzione di
sequenze di numeri &lt;span style="color: cyan;"&gt;&lt;a href="https://it.wikipedia.org/wiki/Numeri_pseudo-casuali" target="_blank"&gt;&lt;span style="color: cyan;"&gt;pseudo-randomici&lt;/span&gt;&lt;/a&gt; &lt;/span&gt;ed hanno importanti applicazioni nella &lt;a href="https://it.wikipedia.org/wiki/Crittografia" target="_blank"&gt;&lt;span style="color: cyan;"&gt;crittografia&lt;/span&gt;&lt;/a&gt;.
&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Dopo i primi additivi il passaggio a quelli che ho chiamato
primi moltiplicativi e’ stato semplice. La sequenza e’ costituita da quei
numeri primi il cui prodotto delle cifre e’ anch’esso un numero primo. Per
esempio 113 fa parte della sequenza in quanto 1*1*3=3 che e’ primo (&lt;a href="http://oeis.org/A046703" target="_blank"&gt;&lt;span style="color: cyan;"&gt;link&lt;/span&gt;&lt;/a&gt;). &lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div style="background: white; margin-bottom: 7.5pt; margin-left: 0cm; margin-right: 0cm; margin-top: 0cm;"&gt;
&amp;nbsp;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh28aBakvwRKNw0WXN013J8pDiMcQSM_QMA36BEIo6pfMzKYomEnt7TlzM05QHT0x6D_hev_1oWOdfc63v4RwGaGg9-qUN3usYsKLGb2KLpCY04bBkTF3uCI1CU-4KR9FEj2v0PejdN/s1600/img4.png" imageanchor="1" style="background-color: transparent; margin-left: 1em; margin-right: 1em; text-align: center;"&gt;&lt;img border="0" data-original-height="455" data-original-width="762" height="382" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh28aBakvwRKNw0WXN013J8pDiMcQSM_QMA36BEIo6pfMzKYomEnt7TlzM05QHT0x6D_hev_1oWOdfc63v4RwGaGg9-qUN3usYsKLGb2KLpCY04bBkTF3uCI1CU-4KR9FEj2v0PejdN/s640/img4.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&amp;nbsp;&lt;span style="font-size: 12pt;"&gt;Osserviamo che il prodotto di un qualsiasi numero di cifre in
base 10 (0,1,2,3,4….9) escludendo lo 0 e’ un numero composto (prodotto di piu’
fattori) a meno che non abbiamo una cifra prima e tanti 1.&amp;nbsp; &amp;nbsp;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;1*3*4*7=84 &amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; ovviamente non e’ primo essendo il prodotto
dei fattori&amp;nbsp; 3*2*2*7&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="line-height: normal; margin-bottom: .0001pt; margin-bottom: 0cm; tab-stops: 45.8pt 91.6pt 137.4pt 183.2pt 229.0pt 274.8pt 320.6pt 366.4pt 412.2pt 458.0pt 503.8pt 549.6pt 595.4pt 641.2pt 687.0pt 732.8pt;"&gt;
&lt;span style="font-size: 12.0pt;"&gt;1*1*1*1*1*1*3*1=3&lt;/span&gt;&lt;span style="font-family: &amp;quot;courier new&amp;quot;; font-size: 10pt;"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/span&gt;&lt;span style="font-size: 12.0pt;"&gt;e’ un numero primo&lt;/span&gt;&lt;span style="font-family: &amp;quot;courier new&amp;quot;; font-size: 10pt;"&gt;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Questa propieta’ e’ stata evidenziata nel 2014 da Jens Kruse
Andersen un amante dei numeri primi e autore di un sito dal titolo &lt;a href="http://primerecords.dk/" target="_blank"&gt;&lt;span style="color: cyan;"&gt;Prime records&lt;/span&gt;&lt;/a&gt;.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;Al momento non conosciamo molto su questi numeri, come anche
su quelli ottenuti semplicemente dall’intersezione dei primi &amp;nbsp;additivi e moltiplicativi che riporto qui di
seguito (&lt;a href="http://oeis.org/A046713" target="_blank"&gt;&lt;span style="color: cyan;"&gt;link&lt;/span&gt;&lt;/a&gt;).&amp;nbsp;&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisQ_hJ7eC0nukTzoQG-61M6rY4OzjEvVYp3FiWp4iNPIIVyA7vTdTq77P0wM34AMFDUSCpbKG5k_7e7VDpgGxM_hI_yIJ7vYXBQasNhe5C2TvyCsnAyUP2yhVHQ1hR_hQ1KAx7UtKW/s1600/img5.bmp" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="244" data-original-width="758" height="206" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisQ_hJ7eC0nukTzoQG-61M6rY4OzjEvVYp3FiWp4iNPIIVyA7vTdTq77P0wM34AMFDUSCpbKG5k_7e7VDpgGxM_hI_yIJ7vYXBQasNhe5C2TvyCsnAyUP2yhVHQ1hR_hQ1KAx7UtKW/s640/img5.bmp" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&lt;br /&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&amp;nbsp;&amp;nbsp;&lt;/span&gt;&lt;span style="font-size: 12pt;"&gt;Chiunque in questi giorni di afa voglia divertirsi con questi
numeri lo puo’ fare. E chissa’ che non possa scoprire qualche importante proprieta’
da meritarsi un posto nell’Enciclopedia di N. J. A. Sloane.&lt;/span&gt;&lt;/div&gt;
&lt;div class="MsoNormal" style="text-align: justify;"&gt;
&lt;span style="font-size: 12.0pt; line-height: 107%;"&gt;&amp;nbsp;In bocca al lupo.&lt;o:p&gt;&lt;/o:p&gt;&lt;/span&gt;&lt;/div&gt;
&lt;br /&gt;</description><link>http://quantidiscienza.blogspot.com/2019/08/primiadditivi-e-moltiplicativi-in.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjazcg2p8284iIHbSEIWyFqhrWpa_JCkXJXbAVbqHfABSeKmvqKkDa_77BpIKNEzBWKKUdS1zu3UhkFJnqlfGTaHLwEEUaGMeFUR8NXSQMpCHYalYWeUl9o5przsEu7GUIqIuZpvnAL/s72-c/img1.png" width="72"/><thr:total>0</thr:total><enclosure length="1005714" type="application/pdf" url="http://annals.math.princeton.edu/wp-content/uploads/annals-v171-n3-p04-p.pdf"/><itunes:explicit>no</itunes:explicit><itunes:subtitle>In passato ho dedicato parte del mio tempo a scoprire nuove sequenze matematiche. Una sequenza e’ una stringa ordinata finita o infinita di numeri. Come vedete parlo di scoperta e non di invenzione. Questo perche’ sono convinto che la matematica esista indipendentemente dall’uomo. La matematica pervade il nostro universo ed e’ alla base delle equazioni fisiche che lo regolano. E queste esistevano gia’ molto prima che comparisse l’uomo visto che erano a lavoro gia’ al momento del Big bang senza che nessun uomo le pensasse o le elaborasse. La matematica quindi esiste per se stessa e non perche’ creata dalla mente dell’uomo. So che esitono matematici e scienziati che la pensano diversamente ma questo e’ il mio personalissimo pensiero. Ok, ma come si fa a capire se una sequenza scoperta e’ veramente nuova, interessante ed utile da un punto di vista matematico? Semplicemente digitando i primi termini della sequenza sul sito di N. J. A. Sloane “The on-line encyclopedia of integer sequences”. Se la sequenza c’e’ allora non siete stati voi a scoprirla per primi. Negli anni passati di sequenze ne ho scoperte circa un trecento (tutte inserite nell’Enciclopedia di Sloane) &amp;nbsp;e oggi voglio parlarvi di alcune di esse a cui sono particolarmente affezionato. Inizio col chiedervi cosa lega, &amp;nbsp;secondo voi, &amp;nbsp;questi numeri: 2, 3, 5, 7, 11, 23, 29, 41, 43, 47, 61, 67, 83, 89, 101, 113 Da un rapido sguardo sembra che tutti i termini ad eccezione del primo siano dispari. Inoltre nessun numero ha 5 come ultima cifra. Questo esclude, quindi i numeri divisibili per 5. Ma anche i multipli di 3 vanno esclusi essendo i&amp;nbsp; numeri presenti nella sequenza non divisibili per 3. Sembra che tutto punti ai numeri primi, cioe’ ai numeri divisibili per 1 e per se stessi solo. Eppure guardando attentamente manca il numero primo 13, 17, 19 per citarne solo alcuni. Quale e’ la proprieta’ condivisa da questa stringa di numeri che al momento ci sfugge? Semplicemente questa: numeri primi la cui somma delle cifre e’ ancora un numero primo. Per esempio 43 fa parte della sequenza in quanto 43 e’ un primo e lo e’ anche la somma delle sue cifre 4+3=7. Al contrario 13 non fa parte della sequenza in quanto 13 e’ un numero primo ma non lo e’ la somma delle sue cifre che da’ 4. A questo link un video youtube che parla dei primi additivi. Questo come appare la sequenza sul sito di Sloane. Link Per chi non lo ricordasse, i numeri primi sono gli atomi della matematica. Cosi’ come tutto quello che ci circonda e’ fatto di atomi, cosi i numeri naturali sono il prodotto univoco di numeri primi. Il terorema fondamentale dell’aritmertica, infatti stabilisce che ogni numero naturale maggiore di 1 o e’ un numero primo o si puo’ esprimere come prodotto di numeri primi. Tale rappresentazione e’ unica, se si prescinde dall’ordine in cui compaiono i fattori. Facciamo un esempio. Il numero intero 10 e’ dato dal prodotto dei due numeri primi 2 e 5. Il numero 15 dal prodotto di 3 e 5. 20 dal prodotto 2*2*5 e cosi via. Questo significa che e’ possibile ottenere tutti i numeri che conosciamo a partire da un suo sottoinsieme: i numeri primi. I numeri naturali sono infiniti. Qualsiasi numero venga in mente per quanto grande che sia, puo’ essere sempre superato dallo stesso numero piu’ 1. Da qui si capisce facilmente che i numeri naturali sono infiniti. Cosa possiamo dire invece per i numeri primi? Si ritiene che la risposta sia stata data dal matematico greco Eulero nei suoi Elementi (Libro IX proposizione 20) che stabili’ in modo rigoroso che il numero dei primi e’ infinito. E cosa succede per i primi additivi? Sono meno dei numeri primi e questo e’ ovvio essendo un loro sottoinsieme. Ma il loro numero e’ finito o infinito? E quanti primi additivi ci sono se cambiamo la base passando per esempio da base 10 a base 2, 3, 12 ecc.? Nel 2009 Drmota, Maduit e Rivat hanno dimostrato che il numero di primi minori di n con somma delle cifre in base b uguale a k tende, se b-1 e k non hanno divisori comuni, a: dove Π(n) indica il numero di primi fino a n e ϕ(b-1) e’ la funzione di Eulero, cioe’ il numero di interi positivi minori di b-1 che non hanno divisori in comune con b-1. Questo significa che per numeri n, molto grandi e’ possibile trovare un numero molto grande di primi (tendente all’infinito) &amp;nbsp;la cui somma delle cifre k e’ essa stessa un numero primo. Nel 2012 Glyn Harman (Link) ha dimostrato che, se e’ vera una congettura sulla distribuzione dei numeri primi in piccoli intervalli, la somma dei reciproci dei primi additivi minori di n in base 10 tende a: 3/2(ln(ln(ln(n)))&amp;nbsp;&amp;nbsp; &amp;nbsp;per n tendente all’infinito Qui l’andamento della somma dei reciproci dei primi additivi. Quindi il numero di primi additivi e’ infinito. La congettura stabilisce che esista una funzione f(x) che tende a zero al crescere di x, tale che il numero di primi nell’intervallo [x, x+sqrt(x)f(x)] tenda a (sqrt(x)f(x))/ln(x). Sebbene assolutamente plausibile questa congettura e’ piu’ forte della stessa congettura di Riemann. Dalla sequenza dei primi additivi a quella dei primi la cui somma delle cifre e’ un numero pari o un&amp;nbsp; numero dispari il salto e’ breve. 2,11,13,17,19,31,37,53,59,71,73,79,97,101,103,... 3,5,7,23,29,41,43,47,61,67,83,89,113,131,137,... Queste due sequenze in media hanno lo stesso numero di elementi? Nessuno ha saputo rispondere fino a che nel 1968, il matematico russo Alexander Gelfond ipotizzo’ di si. Ma si trattava di una congettura e non di una dimostrazione. Per ottenere quest’ultima si e’ dovuto aspettare il 2010 quando alcuni ricercatori dell’Istituto di Matematica di Luminy (Francia) hanno pubblicato un&amp;nbsp; articolo negli Annals of Mathematics dal titolo Sur un probleme de Gelfond: la somme des chiffres des nombres premiere. Il metodo impiegato ha le sua fondamenta nella matematica combinatoria, la teoria analitica dei numeri e l’analisi armonica. Di sicuro questa scoperta permettera’ di rispondere ad altre questioni relative alle sequenze dei numeri primi ancora aperte. Questioni che oltre all’interesse puramente teorico sono legate alla costruzione di sequenze di numeri pseudo-randomici ed hanno importanti applicazioni nella crittografia. &amp;nbsp; Dopo i primi additivi il passaggio a quelli che ho chiamato primi moltiplicativi e’ stato semplice. La sequenza e’ costituita da quei numeri primi il cui prodotto delle cifre e’ anch’esso un numero primo. Per esempio 113 fa parte della sequenza in quanto 1*1*3=3 che e’ primo (link). &amp;nbsp; &amp;nbsp;Osserviamo che il prodotto di un qualsiasi numero di cifre in base 10 (0,1,2,3,4….9) escludendo lo 0 e’ un numero composto (prodotto di piu’ fattori) a meno che non abbiamo una cifra prima e tanti 1.&amp;nbsp; &amp;nbsp; 1*3*4*7=84 &amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; ovviamente non e’ primo essendo il prodotto dei fattori&amp;nbsp; 3*2*2*7 1*1*1*1*1*1*3*1=3&amp;nbsp;&amp;nbsp;&amp;nbsp; e’ un numero primo Questa propieta’ e’ stata evidenziata nel 2014 da Jens Kruse Andersen un amante dei numeri primi e autore di un sito dal titolo Prime records. Al momento non conosciamo molto su questi numeri, come anche su quelli ottenuti semplicemente dall’intersezione dei primi &amp;nbsp;additivi e moltiplicativi che riporto qui di seguito (link).&amp;nbsp; &amp;nbsp;&amp;nbsp;Chiunque in questi giorni di afa voglia divertirsi con questi numeri lo puo’ fare. E chissa’ che non possa scoprire qualche importante proprieta’ da meritarsi un posto nell’Enciclopedia di N. J. A. Sloane. &amp;nbsp;In bocca al lupo.</itunes:subtitle><itunes:author>noreply@blogger.com (Felice)</itunes:author><itunes:summary>In passato ho dedicato parte del mio tempo a scoprire nuove sequenze matematiche. Una sequenza e’ una stringa ordinata finita o infinita di numeri. Come vedete parlo di scoperta e non di invenzione. Questo perche’ sono convinto che la matematica esista indipendentemente dall’uomo. La matematica pervade il nostro universo ed e’ alla base delle equazioni fisiche che lo regolano. E queste esistevano gia’ molto prima che comparisse l’uomo visto che erano a lavoro gia’ al momento del Big bang senza che nessun uomo le pensasse o le elaborasse. La matematica quindi esiste per se stessa e non perche’ creata dalla mente dell’uomo. So che esitono matematici e scienziati che la pensano diversamente ma questo e’ il mio personalissimo pensiero. Ok, ma come si fa a capire se una sequenza scoperta e’ veramente nuova, interessante ed utile da un punto di vista matematico? Semplicemente digitando i primi termini della sequenza sul sito di N. J. A. Sloane “The on-line encyclopedia of integer sequences”. Se la sequenza c’e’ allora non siete stati voi a scoprirla per primi. Negli anni passati di sequenze ne ho scoperte circa un trecento (tutte inserite nell’Enciclopedia di Sloane) &amp;nbsp;e oggi voglio parlarvi di alcune di esse a cui sono particolarmente affezionato. Inizio col chiedervi cosa lega, &amp;nbsp;secondo voi, &amp;nbsp;questi numeri: 2, 3, 5, 7, 11, 23, 29, 41, 43, 47, 61, 67, 83, 89, 101, 113 Da un rapido sguardo sembra che tutti i termini ad eccezione del primo siano dispari. Inoltre nessun numero ha 5 come ultima cifra. Questo esclude, quindi i numeri divisibili per 5. Ma anche i multipli di 3 vanno esclusi essendo i&amp;nbsp; numeri presenti nella sequenza non divisibili per 3. Sembra che tutto punti ai numeri primi, cioe’ ai numeri divisibili per 1 e per se stessi solo. Eppure guardando attentamente manca il numero primo 13, 17, 19 per citarne solo alcuni. Quale e’ la proprieta’ condivisa da questa stringa di numeri che al momento ci sfugge? Semplicemente questa: numeri primi la cui somma delle cifre e’ ancora un numero primo. Per esempio 43 fa parte della sequenza in quanto 43 e’ un primo e lo e’ anche la somma delle sue cifre 4+3=7. Al contrario 13 non fa parte della sequenza in quanto 13 e’ un numero primo ma non lo e’ la somma delle sue cifre che da’ 4. A questo link un video youtube che parla dei primi additivi. Questo come appare la sequenza sul sito di Sloane. Link Per chi non lo ricordasse, i numeri primi sono gli atomi della matematica. Cosi’ come tutto quello che ci circonda e’ fatto di atomi, cosi i numeri naturali sono il prodotto univoco di numeri primi. Il terorema fondamentale dell’aritmertica, infatti stabilisce che ogni numero naturale maggiore di 1 o e’ un numero primo o si puo’ esprimere come prodotto di numeri primi. Tale rappresentazione e’ unica, se si prescinde dall’ordine in cui compaiono i fattori. Facciamo un esempio. Il numero intero 10 e’ dato dal prodotto dei due numeri primi 2 e 5. Il numero 15 dal prodotto di 3 e 5. 20 dal prodotto 2*2*5 e cosi via. Questo significa che e’ possibile ottenere tutti i numeri che conosciamo a partire da un suo sottoinsieme: i numeri primi. I numeri naturali sono infiniti. Qualsiasi numero venga in mente per quanto grande che sia, puo’ essere sempre superato dallo stesso numero piu’ 1. Da qui si capisce facilmente che i numeri naturali sono infiniti. Cosa possiamo dire invece per i numeri primi? Si ritiene che la risposta sia stata data dal matematico greco Eulero nei suoi Elementi (Libro IX proposizione 20) che stabili’ in modo rigoroso che il numero dei primi e’ infinito. E cosa succede per i primi additivi? Sono meno dei numeri primi e questo e’ ovvio essendo un loro sottoinsieme. Ma il loro numero e’ finito o infinito? E quanti primi additivi ci sono se cambiamo la base passando per esempio da base 10 a base 2, 3, 12 ecc.? Nel 2009 Drmota, Maduit e Rivat hanno dimostrato che il numero di primi minori di n con somma delle cifre in base b uguale a k tende, se b-1 e k non hanno divisori comuni, a: dove Π(n) indica il numero di primi fino a n e ϕ(b-1) e’ la funzione di Eulero, cioe’ il numero di interi positivi minori di b-1 che non hanno divisori in comune con b-1. Questo significa che per numeri n, molto grandi e’ possibile trovare un numero molto grande di primi (tendente all’infinito) &amp;nbsp;la cui somma delle cifre k e’ essa stessa un numero primo. Nel 2012 Glyn Harman (Link) ha dimostrato che, se e’ vera una congettura sulla distribuzione dei numeri primi in piccoli intervalli, la somma dei reciproci dei primi additivi minori di n in base 10 tende a: 3/2(ln(ln(ln(n)))&amp;nbsp;&amp;nbsp; &amp;nbsp;per n tendente all’infinito Qui l’andamento della somma dei reciproci dei primi additivi. Quindi il numero di primi additivi e’ infinito. La congettura stabilisce che esista una funzione f(x) che tende a zero al crescere di x, tale che il numero di primi nell’intervallo [x, x+sqrt(x)f(x)] tenda a (sqrt(x)f(x))/ln(x). Sebbene assolutamente plausibile questa congettura e’ piu’ forte della stessa congettura di Riemann. Dalla sequenza dei primi additivi a quella dei primi la cui somma delle cifre e’ un numero pari o un&amp;nbsp; numero dispari il salto e’ breve. 2,11,13,17,19,31,37,53,59,71,73,79,97,101,103,... 3,5,7,23,29,41,43,47,61,67,83,89,113,131,137,... Queste due sequenze in media hanno lo stesso numero di elementi? Nessuno ha saputo rispondere fino a che nel 1968, il matematico russo Alexander Gelfond ipotizzo’ di si. Ma si trattava di una congettura e non di una dimostrazione. Per ottenere quest’ultima si e’ dovuto aspettare il 2010 quando alcuni ricercatori dell’Istituto di Matematica di Luminy (Francia) hanno pubblicato un&amp;nbsp; articolo negli Annals of Mathematics dal titolo Sur un probleme de Gelfond: la somme des chiffres des nombres premiere. Il metodo impiegato ha le sua fondamenta nella matematica combinatoria, la teoria analitica dei numeri e l’analisi armonica. Di sicuro questa scoperta permettera’ di rispondere ad altre questioni relative alle sequenze dei numeri primi ancora aperte. Questioni che oltre all’interesse puramente teorico sono legate alla costruzione di sequenze di numeri pseudo-randomici ed hanno importanti applicazioni nella crittografia. &amp;nbsp; Dopo i primi additivi il passaggio a quelli che ho chiamato primi moltiplicativi e’ stato semplice. La sequenza e’ costituita da quei numeri primi il cui prodotto delle cifre e’ anch’esso un numero primo. Per esempio 113 fa parte della sequenza in quanto 1*1*3=3 che e’ primo (link). &amp;nbsp; &amp;nbsp;Osserviamo che il prodotto di un qualsiasi numero di cifre in base 10 (0,1,2,3,4….9) escludendo lo 0 e’ un numero composto (prodotto di piu’ fattori) a meno che non abbiamo una cifra prima e tanti 1.&amp;nbsp; &amp;nbsp; 1*3*4*7=84 &amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; &amp;nbsp; ovviamente non e’ primo essendo il prodotto dei fattori&amp;nbsp; 3*2*2*7 1*1*1*1*1*1*3*1=3&amp;nbsp;&amp;nbsp;&amp;nbsp; e’ un numero primo Questa propieta’ e’ stata evidenziata nel 2014 da Jens Kruse Andersen un amante dei numeri primi e autore di un sito dal titolo Prime records. Al momento non conosciamo molto su questi numeri, come anche su quelli ottenuti semplicemente dall’intersezione dei primi &amp;nbsp;additivi e moltiplicativi che riporto qui di seguito (link).&amp;nbsp; &amp;nbsp;&amp;nbsp;Chiunque in questi giorni di afa voglia divertirsi con questi numeri lo puo’ fare. E chissa’ che non possa scoprire qualche importante proprieta’ da meritarsi un posto nell’Enciclopedia di N. J. A. Sloane. &amp;nbsp;In bocca al lupo.</itunes:summary></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3939516758008355800</guid><pubDate>Fri, 10 May 2019 15:50:00 +0000</pubDate><atom:updated>2019-05-10T09:11:40.275-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">causazione</category><category domain="http://www.blogger.com/atom/ns#">correlazione</category><category domain="http://www.blogger.com/atom/ns#">correlazione spuria</category><category domain="http://www.blogger.com/atom/ns#">lurking variable</category><category domain="http://www.blogger.com/atom/ns#">paradosso di simpson</category><category domain="http://www.blogger.com/atom/ns#">statistica</category><category domain="http://www.blogger.com/atom/ns#">variabile omessa</category><title>Paradossi della statistica</title><description>&lt;div align="justify"&gt;
E’ possibile che la panna acida possa avere un impatto sulle cadute da motocicletta? O che il numero di persone morte per caduta dalla propria sedia a rotelle sia legato al costo delle patatine?  O anche che il numero di film interpretati&amp;nbsp; da &lt;a href="https://en.wikipedia.org/wiki/Nicolas_Cage" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Cages&lt;/span&gt;&lt;/a&gt; sia proporzionale al numero di persone morte per annegamento in piscina? E mai possibile credere alla cosiddetta maledizione di Ramsey, che stabilisce che ogni volta che il centrocampista gallese dell’Arsenal, &lt;a href="https://en.wikipedia.org/wiki/Aaron_Ramsey" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Aaron Ramsey&lt;/span&gt;&lt;/a&gt; segna un gol, qualcuno di famoso nel mondo muore? &lt;/div&gt;
&lt;div align="justify"&gt;
Ovviamente no anche se sembra essere cosi: grafici divertenti rivelano come la statistica possa creare delle false relazioni (date un occhiata &lt;a href="https://tylervigen.com/spurious-correlations" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;qui&lt;/span&gt;&lt;/a&gt;). Gli scienziati quotidianamente sono impegnati a cercare possibili correlazioni all’interno di grandi moli di dati per verificare ed eventualmente dimostrare certe teorie. Ma se due insieme di dati sono correlati tra loro da un punto di vista statistico non significa necessariamente che essi realmente siano strettamenti legati tra loro. Trovare una correlazione tra due insiemi non sempre significa causazione.&amp;nbsp;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiKn4C5rid60GW6BH9dDWo7nTySqDQ6CrzMMR_0Nrp6esLVj6Bxa9bP4eLNwShQ49tlO1MdkJu0ny0ewpSk7y8WDnX_smV3MhUTulhzgUVl7Hj6V5ywwfqXLjJ2JqbX5sxlxNLf7P_A/s1600/i1.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="281" data-original-width="634" height="176" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiKn4C5rid60GW6BH9dDWo7nTySqDQ6CrzMMR_0Nrp6esLVj6Bxa9bP4eLNwShQ49tlO1MdkJu0ny0ewpSk7y8WDnX_smV3MhUTulhzgUVl7Hj6V5ywwfqXLjJ2JqbX5sxlxNLf7P_A/s400/i1.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgtlfNGKfnPZes25k7OXxCCg0QaLlRERDAtCjHs1NRl1BJ0BXM8CbbIBKIgb-j3n5ZJwCjCYybEiXsEuABV82gJ_5vJUo6cq8U8fD_vHbdhfB7f3pxmNNbg8NqF803fxR_OZdNsloj8/s1600/i2.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="267" data-original-width="634" height="167" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgtlfNGKfnPZes25k7OXxCCg0QaLlRERDAtCjHs1NRl1BJ0BXM8CbbIBKIgb-j3n5ZJwCjCYybEiXsEuABV82gJ_5vJUo6cq8U8fD_vHbdhfB7f3pxmNNbg8NqF803fxR_OZdNsloj8/s400/i2.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgi_BFnFcRpzrzr0Y0LDOICYIrkD0IohIDg2jXxfdmybrw6XiUjBjT_TOyJswunsz_GkSCRRr_4atRA2vnOQkOhV_wzSfsj1UspGPZkmCgNajjnJGBsq2RFSACOBq3673OPSJUly5lE/s1600/i3.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="261" data-original-width="634" height="163" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgi_BFnFcRpzrzr0Y0LDOICYIrkD0IohIDg2jXxfdmybrw6XiUjBjT_TOyJswunsz_GkSCRRr_4atRA2vnOQkOhV_wzSfsj1UspGPZkmCgNajjnJGBsq2RFSACOBq3673OPSJUly5lE/s400/i3.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Questi grafici sono degli esempi di correlazioni spurie. Queste correlazioni in genere vengono trovate dai computer. Date due qualsiasi variabili essi calcolano velocemente grazie ai loro algoritmi interni un coefficiente statistico chiamato “&lt;a href="https://it.wikipedia.org/wiki/Coefficiente_di_determinazione" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;erre quadro R2&lt;/span&gt;&lt;/a&gt;&lt;sup&gt;&lt;/sup&gt;” la cui vicinanza ad uno indica la bonta’ della correlazione. Ma la correlazione statistica in se non dice quasi nulla. C’e’ bisogno della conferma da parte dell’analista. Quello che esso deve fare e’ semplice: guardare i grafici che hanno una buona correlazione statistica, formulare un’ipotesi ed eventualmente rigettarla in base alla sua esperienza personale e background culturale. In genere se X e Y mostrano una correlazione quello che si fa e’ far variare la X e vedere cosa succede alla Y anche se cio’ non e’ sempre possibile. In un mondo sempre piu’ dominato dal &lt;a href="https://en.wikipedia.org/wiki/Machine_learning" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;machine learning&lt;/span&gt;&lt;/a&gt; e dalla &lt;a href="https://it.wikipedia.org/wiki/Scienza_dei_dati" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;scienza dei dati&lt;/span&gt;&lt;/a&gt; questo diventa il vero problema: l’incapacita’ di stabilire se una correlazione e’ casuale o causale. Questo non lo puo’ fare un computer ma solo un umano. Tutti gli scienziati del mondo stanno lavorando a questo problema e al momento non esiste alcuna soluzione. Trovare i meccanismi causali e’ il principale scopo di molte ricerche scientifiche in quanto ogni volta che troviamo un meccanismo causale riusciamo a fare un passo avanti nella conoscenza del mondo che ci circonda.  A volte capita di vedere delle correlazioni che non riusciamo a spiegare e questo determina uno stimolo per gli scienziati a cercare una potenziale causa. Un buon esempio di correlazione che porta a delle conclusioni importanti e’ quello della connessione tra il tumore ai polmoni e il fumo. Agli inizi del 1990 si osservo’ un aumento di casi di tumore ai polmoni e nessuno sapeva il perche’. Nel 1929 il fisico &lt;a href="https://en.wikipedia.org/wiki/Fritz_Lickint" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Fritz Lickint&lt;/span&gt;&lt;/a&gt; pubblico’ un articolo in cui mostrava che i pazienti con cancro ai polmoni per lo piu’ erano stati dei fumatori. Questo articolo diede inizio a tutta una ricerca grazie alla quale gli scienziati riconobbero la pericolosita’ del fumo. Senza il grafico di correlazione tutto questo non sarebbe potuto accadere. Le correlazioni tra due variabili possono essere delle mere coincidenze, o il risultato di una connessione causale sottostante. Ogni volta che vediamo una correlazione abbiamo l’opportunita’ di capire di cosa si tratti. &lt;/div&gt;
&lt;div align="justify"&gt;
A volte le correlazioni tra due enti possono apparire spurie a causa delle cosiddette variabili omesse o &lt;a href="https://www.statisticshowto.datasciencecentral.com/lurking-variable/" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;lurking variables&lt;/span&gt;&lt;/a&gt;. Sono proprio le variabili omesse a confondere le acque in quanto si muovono con le due variabili considerate ma non vengono osservate. Per esempio se guardiamo alla correlazione tra anni di istruzione e salario futuro si rischia di sopravvalutare l’effetto causale dell’istruzione sul salario se non si tiene conto per esempio della variabile abilita’. La ragione e’ che l’istruzione assorbe l’effetto dell’abilita’. Individui piu’ abili studiano per piu’ anni e guadagnano di piu’. Questo fa si ch uno pensa che il guadagno sia tutto dovuto all’istruzione senza pensare pero ‘ all’abilita’ della persona. &lt;/div&gt;
&lt;div align="justify"&gt;
In generale, quindi un grafico da solo non serve a nulla. Da un punto di vista statistico le variabili omesse sono I serial killer di chi vuole dimostrare qualche cosa con un grafico.  Altro esempio famoso di lurking variables e’ quello delle cicogne del paese austriaco di &lt;a href="https://en.wikipedia.org/wiki/Oldenburg" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Oldenburg&lt;/span&gt;&lt;/a&gt;. Riportando sulle ascisse di un grafico XY il numero di nidi di cicogne e in ordinate la popolazione del paese si osserva una correlazione positiva tra queste due variabili, correlazione ovviamente inaspettata. E’ possibile ipotizzare quindi che ci sia in giro qualche variabile omessa come il numero di cacciatori nelle campagne, il numero di comignoli delle nuove case, un migliore habitat nelle zone di riproduzione delle cicogne o chissa’ cos’altro. &lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgqFUpBwvjUS4842QsO6nj1OELLYJcV9ef6nnQtUAfqJllJf4buR8FQcIcOpHzOHAdsoB7AcJbir89u1EvPSCqYVUxOtrkMMb40XkEbOiSTCZruY1cAgPW5M5OGi5fNSy470OTriOk8/s1600/i4.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="239" data-original-width="334" height="228" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgqFUpBwvjUS4842QsO6nj1OELLYJcV9ef6nnQtUAfqJllJf4buR8FQcIcOpHzOHAdsoB7AcJbir89u1EvPSCqYVUxOtrkMMb40XkEbOiSTCZruY1cAgPW5M5OGi5fNSy470OTriOk8/s320/i4.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Passiamo a un tema connesso che va sotto il nome di &lt;a href="https://it.wikipedia.org/wiki/Paradosso_di_Simpson" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;paradosso di Simpson&lt;/span&gt;&lt;/a&gt;, cioe’ l’apparire di contraddizioni tra l’analisi di dati aggregati e dati disaggregati. Vediamo un esempio. Nel 1973 &lt;a href="https://www.berkeley.edu/" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;l’universita’ di Berkeley&lt;/span&gt;&lt;/a&gt; fu uno dei primi atenei ad essere denunciato per discriminazione di genere.  Per l'ammissione al semestre autunnale di quell'anno furono esaminate 12.763 domande di iscrizione (8442 di ragazzi e 4321 di ragazze) e le ammissioni, suddivise per genere, furono quelle riportate nella tabella seguente.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjUHBjjThicZYcE2VKRobpoeSbG02uGKWMUyO5IS19i4vR108O9d9DG5Wa4mdqQYwnfH7TJ8lYEwrgW2iAZWxzO1fykLMUzXeDBaUKjeLf5mzYqmdYU33PcXbFgG4lwZAvpbE363KgI/s1600/i5.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="126" data-original-width="560" height="72" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjUHBjjThicZYcE2VKRobpoeSbG02uGKWMUyO5IS19i4vR108O9d9DG5Wa4mdqQYwnfH7TJ8lYEwrgW2iAZWxzO1fykLMUzXeDBaUKjeLf5mzYqmdYU33PcXbFgG4lwZAvpbE363KgI/s320/i5.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Per l'università fu naturale disaggregare i dati per capire quali dipartimenti avevano contribuito a questa discrepanza. Quelli che seguono sono i dati dei sei principali dipartimenti.&amp;nbsp;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi09lmC3UCaVY8K7eVwJDF5dOxblY3XxSuYA1laonP5ji_iTcPgfzV8tWcegN8zR1Y_N2yxi4v2-_TNj61tAd8t6xbx0sSS5DxM3zTSq4ELvIqCpSpb3JW_Otjjt7rStL_0BQCOvUsw/s1600/i6.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="312" data-original-width="651" height="153" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi09lmC3UCaVY8K7eVwJDF5dOxblY3XxSuYA1laonP5ji_iTcPgfzV8tWcegN8zR1Y_N2yxi4v2-_TNj61tAd8t6xbx0sSS5DxM3zTSq4ELvIqCpSpb3JW_Otjjt7rStL_0BQCOvUsw/s320/i6.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Qui la differenza di genere è ancora più marcata: risultano ammessi circa il 45% dei maschi e il 30% delle femmine. Eppure in 4 dipartimenti la percentuale di ragazze ammesse è maggiore, mentre nei rimanenti due il vantaggio dei maschi è contenuto. In altre parole, il dato complessivo dei sei dipartimenti mostra una discriminazione verso le femmine, mentre nel dato disaggregato non appare alcuna discriminazione o addirittura si può pensare ad una discriminazione contro i maschi. La spiegazione è nel fatto che i dati precedenti non tengono conto delle scelte dei dipartimenti da parte delle candidate/dei candidati. Le ragazze tendevano ad iscriversi ai dipartimenti piu’ selettivi, nei quali la percentuale di ammissioni era inferiore, mentre i maschi si iscrivevano spesso a dipartimenti in cui era più facile essere ammessi. Un altro esempio in cui la presenza di variabili nascoste porta ad una forma di confondimento e’ il seguente. Durante una riunione di facoltà, un gruppo di insegnanti decise di aver bisogno di capire per gli studenti quale poteva essere la durata ottimale dello studio al fine di ottenere risultati sempre piu’ soddisfacenti. Raccolsero cosi le ore di studio dei diversi studenti e li confrontarono&amp;nbsp; con i punteggi dei loro test. I risultati furono sbalorditivi. Per la confusione di tutti, meno uno studente studiava, più in alto tendeva ad arrivare nei test.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDwvSWZCMa2A1Ge9LALjyM137okBhAp15Pj3mdopGfLisqbRpvSvgSfKau7JI0aEGIk7wGz3eFfCPgQ84skH4hmb_jL7Nufzdzq4M66GyOsnm0jteWC1-wElI36EH3ZSUiGDe2iiOa/s1600/i7.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="392" data-original-width="602" height="208" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDwvSWZCMa2A1Ge9LALjyM137okBhAp15Pj3mdopGfLisqbRpvSvgSfKau7JI0aEGIk7wGz3eFfCPgQ84skH4hmb_jL7Nufzdzq4M66GyOsnm0jteWC1-wElI36EH3ZSUiGDe2iiOa/s320/i7.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
In effetti, il coefficiente associato a questa correlazione e’ di -0.79, una relazione fortemente negativa. Gli insegnanti avrebbero dovuto incoraggiare i loro studenti a studiare di meno? In che modo i dati avrebbero potuto sostenere una simile richiesta? Sicuramente mancava qualcosa.&lt;/div&gt;
&lt;div align="justify"&gt;
Dopo aver discusso i risultati, gli insegnanti convennero di consultare lo statistico della scuola che suggerì loro di analizzare i dati di ciascun corso individualmente. Qui la situazione per educazione fisica.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-D7tdJnnR41JhMvk-TDu2JMa_Z5qoBB-SXqDrN13ezZffDbhti2-8RMXavnmrE_Em13U8R766cYcyKTQEo3yAR6P5OxzcRHETesfVrPkucxDs_lbkSy7_5_pDCt4ZqzU_aXAcv0tD/s1600/i8.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="392" data-original-width="602" height="208" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-D7tdJnnR41JhMvk-TDu2JMa_Z5qoBB-SXqDrN13ezZffDbhti2-8RMXavnmrE_Em13U8R766cYcyKTQEo3yAR6P5OxzcRHETesfVrPkucxDs_lbkSy7_5_pDCt4ZqzU_aXAcv0tD/s320/i8.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;/div&gt;
&lt;div align="justify"&gt;
Una correlazione di 0,63! Ecco il paradosso di Simpson. Un fenomeno statistico in cui una relazione apparentemente forte si inverte o scompare quando viene introdotta una terza variabile confondente. Codificando a colori ogni corso separatamente per distinguerli l'uno dall'altro appare questo grafico.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQMKzBniT_g5bRq_TkT2QxpGF_i6Btb_m3qFNd8VmJIU1LPzO9ZBQmXoWXykxI7Uwwp_H_9yQv34Xs1VLmijLOAKDqDrzi7TMVXHwk8zpo647aWtGLizYbobgc77k7Js64sL9GnQzP/s1600/i9.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="392" data-original-width="602" height="260" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQMKzBniT_g5bRq_TkT2QxpGF_i6Btb_m3qFNd8VmJIU1LPzO9ZBQmXoWXykxI7Uwwp_H_9yQv34Xs1VLmijLOAKDqDrzi7TMVXHwk8zpo647aWtGLizYbobgc77k7Js64sL9GnQzP/s400/i9.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
In questo modo gli insegnanti finalmente capirono che più ore uno studente studiava, più il voto tendeva ad essere alto come ci si aspetta. L’Inclusione del corso di studio nell'analisi statistica aveva completamente invertito la relazione iniziale dando un senso cosi a dei dati che inizialmente sembravano segnalare una correlazione spuria. Il paradosso di Simpson e’ molto importante in statistica medica quando si deve indagare l’efficacia di nuovi farmaci o&amp;nbsp; l’impatto di un fattore esterno tipo il fumo delle sigarette sulla salute. &lt;/div&gt;
&lt;div align="justify"&gt;
Volendo quantificare l’impatto del fumo sulla salute delle persone, possiamo prendere 2 gruppi (fumatori e non fumatori) e stabilire il numero di decessi in percentuale. Supponiamo che le persone dei due gruppi vengano divisi per fascie di eta’ come mostrato nella tabella seguente.&amp;nbsp;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiaZczNG2qi322gpsj9LD8UcK3xgUwoW2aq2IzoMKGL_IkR0zxBr9KlonkGmsolPQvi0Qk65m9NNjRBvDR9YUfnI2UgxuANnZPBNosXyuzcO3rOAuhXo2Y0QmmY7xikOojbMUqmrh4c/s1600/i10.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="357" data-original-width="838" height="170" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiaZczNG2qi322gpsj9LD8UcK3xgUwoW2aq2IzoMKGL_IkR0zxBr9KlonkGmsolPQvi0Qk65m9NNjRBvDR9YUfnI2UgxuANnZPBNosXyuzcO3rOAuhXo2Y0QmmY7xikOojbMUqmrh4c/s400/i10.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Calcoliamo il numero di decessi percentuale per i fumatori e non fumatori usando la media ponderata. Per i fumatori abbiamo:&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
% decessi fumatori= (3.6*(55+62)+2.4(124+157)+…..)/(117+281+….+77)=36.63%&lt;/div&gt;
&lt;div align="justify"&gt;
% decessi non fumatori=(1.6*(55+62)+3.1(124+157)+…..)/(117+281+….+77)=25.84%&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Fumare allunga la vita? E’ mai possibile? No. L’anomalia sta nel non aver considerata una variabile nascosta importante: l’eta delle persone. Se guardiamo, infatti alle singole fasce ci accorgiamo che su 7 gruppi solo una volta la percentuale di decessi per non fumatori e’ maggiore di quella dei fumatori. Per il restante 85% dei casi invece e’ vero il contrario come ci si aspetta. &lt;/div&gt;
&lt;div align="justify"&gt;
Un altro esempio dal mondo medico. Due cure (X e Y) per il trattamento dei calcoli renali sono state sperimentate su due gruppi di 350 pazienti, con il risultato che la percentuale di successi è stata del 78% per la cura X e dell’83% per la cura Y. Se però si separano i risultati rispetto alla gravità della malattia, la conclusione cambia: si scopre che per i casi gravi la percentuale di successi è stata del 73% per la cura X e del 69% per la cura Y; mentre per i casi non gravi la percentuale di successi è stata del 93% per la cura X e dell’87% per la cura Y.&lt;/div&gt;
&lt;div align="justify"&gt;
In altre parole, i pazienti sono stati suddivisi in due gruppi (calcoli piccoli e calcoli grandi); per ciascuno dei due gruppi sembra migliore la cura X, ma se non suddividiamo i pazienti allora, nel gruppo complessivo, sembra migliore la cura Y. Per capire cosa è successo controlliamo innanzitutto i numeri.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhVyYOvmIRO8ZdY8Hm8WeCOQad9czHMiN601DAe8Lf3KoZo05L-bts3_ZUo5-i29G4lZV9bTY-s51cbhnx_mmIq7wCSxKioCzaeuok22JOvgkAnpHTaaowSlNgetqKTc7zEI2f-xzt3/s1600/i11.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="138" data-original-width="812" height="66" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhVyYOvmIRO8ZdY8Hm8WeCOQad9czHMiN601DAe8Lf3KoZo05L-bts3_ZUo5-i29G4lZV9bTY-s51cbhnx_mmIq7wCSxKioCzaeuok22JOvgkAnpHTaaowSlNgetqKTc7zEI2f-xzt3/s400/i11.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div align="justify"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh6Dg2zt4z18o1oOjEt6xv95ZKEZJWOWrqA0-_WiyZzU9zIz9T0hpAowx1A1AiwNgwpxfDZtA13ZbpezKdtukLJKtToVRQ_L17nqYfsx1u9dHGLCNC7OizsmvhWXxI3TCCYUM5HGHsA/s1600/i12.png" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"&gt;&lt;br /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
che mostrano un fatto aritmetico non molto intuitivo:&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh6Dg2zt4z18o1oOjEt6xv95ZKEZJWOWrqA0-_WiyZzU9zIz9T0hpAowx1A1AiwNgwpxfDZtA13ZbpezKdtukLJKtToVRQ_L17nqYfsx1u9dHGLCNC7OizsmvhWXxI3TCCYUM5HGHsA/s1600/i12.png" imageanchor="1" style="-webkit-text-stroke-width: 0px; background-color: transparent; color: #0066cc; font-family: Times New Roman; font-size: 16px; font-style: normal; font-variant: normal; font-weight: 400; letter-spacing: normal; margin-left: 1em; margin-right: 1em; orphans: 2; text-align: center; text-decoration: underline; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px;"&gt;&lt;img border="0" data-original-height="68" data-original-width="607" height="35" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh6Dg2zt4z18o1oOjEt6xv95ZKEZJWOWrqA0-_WiyZzU9zIz9T0hpAowx1A1AiwNgwpxfDZtA13ZbpezKdtukLJKtToVRQ_L17nqYfsx1u9dHGLCNC7OizsmvhWXxI3TCCYUM5HGHsA/s320/i12.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;b&gt;&lt;/b&gt;&lt;i&gt;&lt;/i&gt;&lt;u&gt;&lt;/u&gt;&lt;sub&gt;&lt;/sub&gt;&lt;sup&gt;&lt;/sup&gt;&lt;strike&gt;&lt;/strike&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Abbiamo quindi otto numeri positivi a, b, r, s, A, B, R, S tali che&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjvgcWbiOqBDCUVPvoNbMSBA__7b81jUpV2L_9laotv6pZYqCj-VO2_gUqspfF2Kuxli69zOdmWOnis07mv4bwquWhmGViYyEarDznxmlkQ2z7cFOTwd4wWCgnhG96JmpXZOTAijY1G/s1600/i13.png" imageanchor="1" style="-webkit-text-stroke-width: 0px; background-color: transparent; color: #0066cc; font-family: Times New Roman; font-size: 16px; font-style: normal; font-variant: normal; font-weight: 400; letter-spacing: normal; margin-left: 1em; margin-right: 1em; orphans: 2; text-align: center; text-decoration: underline; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px;"&gt;&lt;img border="0" data-original-height="71" data-original-width="489" height="46" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjvgcWbiOqBDCUVPvoNbMSBA__7b81jUpV2L_9laotv6pZYqCj-VO2_gUqspfF2Kuxli69zOdmWOnis07mv4bwquWhmGViYyEarDznxmlkQ2z7cFOTwd4wWCgnhG96JmpXZOTAijY1G/s320/i13.png" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;b&gt;&lt;/b&gt;&lt;i&gt;&lt;/i&gt;&lt;u&gt;&lt;/u&gt;&lt;sub&gt;&lt;/sub&gt;&lt;sup&gt;&lt;/sup&gt;&lt;strike&gt;&lt;/strike&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
È utile visualizzare questo fatto nel modo seguente. Possiamo, ad esempio, vedere la frazione / come il coefficiente angolare della retta che collega l'origine con il punto (, ) nel piano cartesiano. Analogamente / è il coefficiente angolare della retta che collega l'origine con il punto (, ). Infine ( + )/( + ) è il coefficiente angolare della retta che collega l'origine con il punto ( + ,  + ), cioè con la somma dei vettori (, ) e (, ), ottenuta attraverso la regola del parallelogrammo.&lt;/div&gt;
&lt;div align="justify"&gt;
Ora osserviamo che la diseguaglianza A/B&amp;gt;a/b significa che la semiretta che parte dall’origine e passa per il punto (b,a) sta sotto quella che passa per (B,A) e analogamente per gli altri punti. La seconda figura mostra un esempio in cui le tre diseguaglianze A/B&amp;gt;a/b, R/S&amp;gt;r/s, (A+R)/(B+S)&amp;lt;(a+r)/(b+s) sono soddisfatte.&amp;nbsp;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJo3PmWoubG9egkdyDCHHnDhIzVIz-JwrV5hAjf7okGPizV05g9BZ8UJMoKziJilrfMkpxY_kyCsnN4z1ZG1N4zhCArkp7L2OyQzjGbQdkc1tWwo_u_dnQuK2dORwOJTnWdDjZCdH7/s1600/i14.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="268" data-original-width="871" height="120" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhJo3PmWoubG9egkdyDCHHnDhIzVIz-JwrV5hAjf7okGPizV05g9BZ8UJMoKziJilrfMkpxY_kyCsnN4z1ZG1N4zhCArkp7L2OyQzjGbQdkc1tWwo_u_dnQuK2dORwOJTnWdDjZCdH7/s400/i14.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Tornando all’esempio delle cure, non è difficile spiegare cosa è successo. Le consistenze dei quattro gruppi rispetto alla gravità della malattia erano molto diverse: inoltre i medici tendevano a somministrare la cura X (migliore) ai casi più gravi (calcoli grandi) e la cura Y (meno efficace) ai casi meno gravi (calcoli piccoli). Il risultato complessivo è quindi sostanzialmente determinato dai gruppi 2 e 3 nella tabella.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi8taNReDFoXpF8mHT67gkHFD6jXn0ldH5V_eynmMjK8GzntYu_SvqUSbYvuYg4U7dzOT0wYAUibHBpLvke4UJTYArpsNbNHfN_ovJW5vnQjvZCo2jy33pER2KuKIjLQGeUw0ppJmPY/s1600/i15.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="146" data-original-width="870" height="66" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi8taNReDFoXpF8mHT67gkHFD6jXn0ldH5V_eynmMjK8GzntYu_SvqUSbYvuYg4U7dzOT0wYAUibHBpLvke4UJTYArpsNbNHfN_ovJW5vnQjvZCo2jy33pER2KuKIjLQGeUw0ppJmPY/s400/i15.png" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Somministrando la cura X prevalentemente a malati gravi (e la cura Y prevalentemente a malati non gravi), come è stato fatto nello studio in considerazione, si ottiene che l'efficacia globale della cura X è inferiore, e questo potrebbe portare alla discutibile conclusione che la cura X è meno efficace. Concludendo, una correlazione non ci dice assolutamente nulla sui rapporti causali sottostanti. Chi in assenza di esperimenti cerca di dimostrare qualche cosa con un grafico non conosce la statistica o e’ in cattiva fede.&lt;/div&gt;
</description><link>http://quantidiscienza.blogspot.com/2019/05/paradossi-della-statistica.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiKn4C5rid60GW6BH9dDWo7nTySqDQ6CrzMMR_0Nrp6esLVj6Bxa9bP4eLNwShQ49tlO1MdkJu0ny0ewpSk7y8WDnX_smV3MhUTulhzgUVl7Hj6V5ywwfqXLjJ2JqbX5sxlxNLf7P_A/s72-c/i1.png" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3366196543089185853</guid><pubDate>Fri, 12 Apr 2019 11:04:00 +0000</pubDate><atom:updated>2019-04-12T04:04:47.939-07:00</atom:updated><title>All’ombra del mastodontico mostro …..</title><description>&lt;br /&gt;
&lt;br /&gt;
&lt;div align="justify"&gt;
Dopo la scoperta delle &lt;a href="https://it.wikipedia.org/wiki/Onda_gravitazionale"&gt;&lt;span style="color: #80ffff;"&gt;onde gravitazionali&lt;/span&gt;&lt;/a&gt;, un’altra previsione della &lt;a href="https://it.wikipedia.org/wiki/Relativit%C3%A0_generale"&gt;&lt;span style="color: #80ffff;"&gt;relativita’ generale&lt;/span&gt;&lt;/a&gt; di Einstein ha avuto la sua conferma. La notizia ha fatto la sua comparsa sui media di tutto il mondo ieri, 10 Aprile 2019. La notizia si e’ subito sparsa a macchia d’olio lungo la rete del web e i social, spesso con post poco attendibili e informazioni inesatte. Di cosa si tratta? Ancora una volta gli scienziati ci hanno sorpreso e meravigliato. Questa volta abbiamo visto quello che per definizione non e’ possibile vedere. Si e’ proprio cosi. Si tratta della prima prova diretta visiva di una &lt;a href="https://it.wikipedia.org/wiki/Buco_nero"&gt;&lt;span style="color: #80ffff;"&gt;buco nero&lt;/span&gt;&lt;/a&gt; super-massiccio. L’immagine e’ il risultato di una collaborazione internazionale al lavoro da molti anni (Event Horizon Telescope Collaboration, in breve &lt;a href="https://eventhorizontelescope.org/"&gt;&lt;span style="color: #80ffff;"&gt;EHT&lt;/span&gt;&lt;/a&gt;). L’annuncio e’ arrivato  con la pubblicazione di 6 articoli in un special issue del The Astrophysical Journal Letters (&lt;a href="https://iopscience.iop.org/issue/2041-8205/875/1"&gt;&lt;span style="color: #80ffff;"&gt;Link&lt;/span&gt;&lt;/a&gt;). Poiche’ ognuno di noi conosce i buchi neri per aver sentito o letto qualche cosa almeno una volta nella vita,  si fa fatica a capire la portata della scoperta; diciamo che fino a ieri avevamo solo un’evidenza teorica, qualche immagine simulata al computer o una rappresentazione artistica di un buco nero. Nniente di piu’. Adesso invece non e’ piu’ cosi. Finalmente abbiamo una sua foto anche se alcune precisazioni sono necessarie. Ma procediamo con ordine. &lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi42kD3NkXSwC4Xc81yeqd6BAA7zns8cmznF-yTCtK0bCBPglhyaNdsu-Knu8ARDo3imA1xQ_C9mvdENJcHJQMjQyju_8dVzEJOukmDKrxLtaan4fvTsoxXPLsOZdD5-8WxYpdX7Laf/s1600/Immagine1.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="229" data-original-width="391" height="232" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi42kD3NkXSwC4Xc81yeqd6BAA7zns8cmznF-yTCtK0bCBPglhyaNdsu-Knu8ARDo3imA1xQ_C9mvdENJcHJQMjQyju_8dVzEJOukmDKrxLtaan4fvTsoxXPLsOZdD5-8WxYpdX7Laf/s400/Immagine1.jpg" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjqBDrHE2ZU9D8li3X8s3QAgk_sKIKx9zNyxdDuAEecYWKz4H2Kr3qgTJTaD6qhHZeFeYwaAuW8RS4n1fnEGGxhyHc0jNfk1FWiq88-d6AkeY-7hEk_HX8kWbz_N_2lyiRDg7r4kkqM/s1600/Immagine2.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="112" data-original-width="396" height="112" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjqBDrHE2ZU9D8li3X8s3QAgk_sKIKx9zNyxdDuAEecYWKz4H2Kr3qgTJTaD6qhHZeFeYwaAuW8RS4n1fnEGGxhyHc0jNfk1FWiq88-d6AkeY-7hEk_HX8kWbz_N_2lyiRDg7r4kkqM/s400/Immagine2.jpg" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
La foto che ha fatto il giro del mondo in pratica e’ la prima immagine radio del buco nero super-massiccio (circa 6.5 miliardi di volte la massa del nostro Sole) al centro della galassia &lt;a href="https://en.wikipedia.org/wiki/Messier_87"&gt;&lt;span style="color: #80ffff;"&gt;M87&lt;/span&gt;&lt;/a&gt; anche conosciuta come Virgo A (una supergigante ellettica – vedi foto sotto) , a 55 milioni di anni luce dalla Terra. &lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;br /&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMWZusipsMRNhualHSHe4lJvoWZtrCmc11NvNlxRbgrzisuSbJKCChfboABpsDt-meaCaD8kkPax7Pz9hsY5eE1-xXaQRy9tsPkS_YLTMb2DTgIknR76XZTpfGAnxH1gVWxj3QJUZW/s1600/Immagine3.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="202" data-original-width="257" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMWZusipsMRNhualHSHe4lJvoWZtrCmc11NvNlxRbgrzisuSbJKCChfboABpsDt-meaCaD8kkPax7Pz9hsY5eE1-xXaQRy9tsPkS_YLTMb2DTgIknR76XZTpfGAnxH1gVWxj3QJUZW/s1600/Immagine3.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
L’immagine catturata dal team di ricercatori internazionali in effetti non e’ esattamente il buco nero; un buco nero e’ nero proprio perche’ la luce non puo’ scappare via essendo attratta dalla sua fortissima forza gravitazionale e quindi di per se un buco nero e’ invisibile. In realta’ l’immagine mostrata e’ quella che gli astronomi chiamano l’ombra proiettata del buco nero, con un anello luminoso formato dalla curvatura della radiazione che passa nelle vicinanze del buco nero dove lo &lt;a href="https://it.wikipedia.org/wiki/Spaziotempo"&gt;&lt;span style="color: #80ffff;"&gt;spazio-tempo&lt;/span&gt;&lt;/a&gt; e’ fortemente deformato. Vediamo meglio cosa succede. &lt;/div&gt;
&lt;div align="justify"&gt;
Un osservatore quando vede un oggetto luminoso nel cielo, in pratica sta ricevendo dei treni di fotoni (quanti del campo elettromagnetico) che colpiscono i suoi occhi. Dalla relativita’ di Einstein, sappiamo che qualsiasi massa perturba la tela dello spazio tempo e quindi e’ in grado di deviare anche i fotoni che a un certo punto non seguono piu’ la loro traiettoria rettilinea ma curvano. &lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj3gSVVPHlobbvcW8YFba5FY7VLjOMmy0YedamBy8q1lKr26ts2RJNhthLWpU0ESuQWd55wvDRwd092E8ZZOOW2-GRrnNBVt2lduTEHkgpnWHopyhOSt7CGdDw0-CteoQ4zj-27YjdH/s1600/Immagine5.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="202" data-original-width="255" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj3gSVVPHlobbvcW8YFba5FY7VLjOMmy0YedamBy8q1lKr26ts2RJNhthLWpU0ESuQWd55wvDRwd092E8ZZOOW2-GRrnNBVt2lduTEHkgpnWHopyhOSt7CGdDw0-CteoQ4zj-27YjdH/s1600/Immagine5.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Quando un buco nero e’ circondato da materiale luminoso (grazie all’accelerazione del forte campo gravitazionale il materiale nelle sue vicinanze diventa un &lt;a href="https://it.wikipedia.org/wiki/Plasma_(fisica)"&gt;&lt;span style="color: #80ffff;"&gt;plasma&lt;/span&gt;&lt;/a&gt; che emette &lt;a href="https://it.wikipedia.org/wiki/Radiazione_elettromagnetica"&gt;&lt;span style="color: #80ffff;"&gt;onde elettromagnetiche&lt;/span&gt;&lt;/a&gt;) si riesce a vedere la sua sagoma se il materiale circostante a’ abbastanza trasparente da far passare i fotoni (vedi immagine sotto a sinistra dove i raggi in giallo sono i fotoni deviati e quelli neri catturati dal buco nero centrale nel piano equatoriale z=0). Questa ombra del buco nero e’ significativamente piu’ grande della reale dimensione dell’&lt;a href="https://it.wikipedia.org/wiki/Orizzonte_degli_eventi"&gt;&lt;span style="color: #80ffff;"&gt;orizzonte degli eventi&lt;/span&gt;&lt;/a&gt; del buco nero. Questo perche’ l’ombra proiettata che osserviamo e’ l’ombra generata dalla zona di cattura dei fotoni e non l’orizzonte degli eventi stesso. Quest’ultimo e’ sempre interno alla sfera di cattura dei fotoni; confrontare il disco dell’immagine superiore a sinistra, cioe’ l’orizzonte degli eventi, con quello dell’immagine inferiore che invece rappresenta la zona di cattura della sfera di fotoni. &lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;table border="0" cellpadding="2" cellspacing="0"&gt;&lt;tbody&gt;
&lt;tr&gt;&lt;td valign="top"&gt;&lt;/td&gt;&lt;td valign="top"&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/tbody&gt;&lt;/table&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgXtNROmowi8qj8EWhx_xtjml2C2IY5l77tYxKdn-iAkDhtnnwkhB59spSFXpD5t5JfBSeMwpnnLe992gUc7Gm4tDgxYLnoSiPz6JczqQIy_8t-4mr9JqJW_3wlG5Sh-DyMxV_wqkiZ/s1600/Immagine11.png" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="735" data-original-width="895" height="523" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgXtNROmowi8qj8EWhx_xtjml2C2IY5l77tYxKdn-iAkDhtnnwkhB59spSFXpD5t5JfBSeMwpnnLe992gUc7Gm4tDgxYLnoSiPz6JczqQIy_8t-4mr9JqJW_3wlG5Sh-DyMxV_wqkiZ/s640/Immagine11.png" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Nell’immagine di sinistra si e’ ipotizzato che il buco nero sia immobile. Nella realta’ esso ruota su stesso e quindi a causa dell’&lt;a href="https://it.wikipedia.org/wiki/Effetto_di_trascinamento"&gt;&lt;span style="color: #80ffff;"&gt;effetto di trascinamento&lt;/span&gt;&lt;/a&gt; (secondo la relativita’ un oggetto ruotante trascina lo spazio tempo intorno a se) l’ombra proiettata diventa distorta come mostrato nell’immagine sopra a destra. Questo si spiega semplicemente considerando la velocita’ di rotazione del materiale intorno al buco nero che sulla sua destra (la sinistra dell’osservatore) e’ diretta verso di noi e sulla sinistra in allontanamento da noi. L’immagine di seguito e’ la mappa delle velocita’ stellari della parte centrale di M87 rispetto ad un osservatore terrestre. In blu viene rappresentato il moto in direzione della Terra mentre in rosso quello in allontanamento dalla Terra. In giallo e verde le altre direzioni tra queste due estreme. Laddove abbiamo le regioni blu, avremo un anello piu’ luminoso rispetto a quelle rosse. Ecco spiegata l’asimmetria di luminosita’ nell’immagine del buco nero.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjVOEz20WMo5ARMz4PRQT80S5zEaGoMUSWDdPgSOZDOv4BfCE7HD2jJCDNfFgZPfGLj_rw4FxQCcPJDqungKpBkDiujYrrc5NMLgnnc0YkO2Ld15oYIjr2Lu4yFsHVv4Ysy1Q0d38Aq/s1600/Immagine9.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="199" data-original-width="201" height="316" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjVOEz20WMo5ARMz4PRQT80S5zEaGoMUSWDdPgSOZDOv4BfCE7HD2jJCDNfFgZPfGLj_rw4FxQCcPJDqungKpBkDiujYrrc5NMLgnnc0YkO2Ld15oYIjr2Lu4yFsHVv4Ysy1Q0d38Aq/s320/Immagine9.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Cosa hanno utilizzato gli astronomi per ottenere questa immagine? Un telescopio chiamato &lt;a href="https://en.wikipedia.org/wiki/Event_horizon"&gt;&lt;span style="color: #80ffff;"&gt;Event Horizon&lt;/span&gt;&lt;/a&gt;. In effetti non si tratta di un singolo telescopio, ma di una matrice di 8 radio-telescopi posizionati in diversi continenti e disegnati proprio per catturare l’immagine diretta di un buco nero. Qui di seguito la posizione degli otto radio-telescopi: Arizona, Hawai, Messico, Cile, Spagna e Polo Sud. La scelta delle onde radio rispetto al visibile ha il vantaggio che la luce del Sole, le nuovole e la pioggia non influenzano le osservazioni degli oggetti celesti.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSMsJ8ewXP5lXtj-y8NzXB612WquBiwJpACzXqWrK0exDc-is1UF79kQ6Ea0EHzkK21tKoq4Cy8Ui3cW-0IxuVId-vfvI96maVyovpIUb1lRQfuO_JmLSAeSouYFIzBSmGTEYfJzYJ/s1600/Immagine10.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="297" data-original-width="301" height="394" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiSMsJ8ewXP5lXtj-y8NzXB612WquBiwJpACzXqWrK0exDc-is1UF79kQ6Ea0EHzkK21tKoq4Cy8Ui3cW-0IxuVId-vfvI96maVyovpIUb1lRQfuO_JmLSAeSouYFIzBSmGTEYfJzYJ/s400/Immagine10.jpg" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Come per la scoperta delle onde gravitazionali, anche in questo caso e’ stata usata la tecnica dell’&lt;a href="https://it.wikipedia.org/wiki/Interferometria"&gt;&lt;span style="color: #80ffff;"&gt;interferometria&lt;/span&gt;&lt;/a&gt; per migliorare la risoluzione angolare dello strumento. Quest’ultima e’ l’abilita’ di un telescopio nel distinguere due oggetti molto vicini tra loro. In fisica sappiamo che la risoluzione R e’ approssimativamente data dal rapporto tra la lunghezza d’onda lambda e la dimensione del telescopio D. Piu’ e’ grande il diametro di un telescopio e piu’ R e’ piccola (migliore risoluzione angolare). Questa e’ la ragione per cui gli astronomi sono alla continua rincorsa di telescopi sempre piu’ grandi. Semplicemente per avere una vista sempre piu’ fine. Giusto per fare un confronto, la risoluzione di un occhio umano e’ di circa 60 arco-secondi di grado per la luce visibile e quella del telescopio Hubble con i suoi 2,4 metri di diametro e’ di circa 0.05 arcsec di gradi. &lt;/div&gt;
&lt;div align="justify"&gt;
Ma cosa e’ un arcsec? Se consideriamo un cerchio esso puo’ essere diviso in gradi. Ogni grado puo’ essere diviso in 60 arcminuti e ogni minuto in 60 arcsecondi, cioe’ un grado corrisponde a 3600 sec di arco (arcsec).&lt;/div&gt;
&lt;div align="justify"&gt;
Anche se la risoluzione del &lt;a href="https://it.wikipedia.org/wiki/Telescopio_spaziale_Hubble"&gt;&lt;span style="color: #80ffff;"&gt;telescopio Hubble&lt;/span&gt;&lt;/a&gt; e’ impressionante, non e’ sufficiente per vedere l’orizzonte degli eventi di un buco nero. Per fotografare il buco nero al centro di M87 e’ stata necessaria una risoluzione di soli 22 micro arcsec di grado cioe 0.000022 arcsec di grado. Questo significa che la luna che ha una dimensione angolare di 0.5 gradi e’ qualche cosa come 82 milioni di volte piu’ grande della dimensione angolare del buco nero di M87. Per arrivare a questa risoluzione da capogiro si e’ pensato di far lavorare all’unisono gli 8 telescopi sparsi nel mondo con un D nella formula di R pari alla massima distanza tra qualsiasi coppia di telescopi nella matrice. E’ come se avessimo costruito un unico telescopio con un diametro enorme. Con questa risoluzione sarebbe possibile leggere un giornale posizionato sulla superficie lunare. Senza la necessaria risoluzione il buco sarebbe apparso come un semplice puntino come accade nel caso di due sorgenti luminose molto vicine in caso di basso potere risolutivo. Vedremmo una sola sorgente.&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div class="separator" style="clear: both; text-align: center;"&gt;
&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEheiMd90rrtIgYR_Fv5aLEq_IuSQVzlCiZ8BMS-SKdI-1pfxWU_wygz6A95f9Jjqw3dWOV6ymin8ZPMkh3PhaWdAbnX1dxQ1kXkOeSTJFASe6AtzWCNFGyYMFz3Pnjx8a21itsxem6t/s1600/Immagine8.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="290" data-original-width="194" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEheiMd90rrtIgYR_Fv5aLEq_IuSQVzlCiZ8BMS-SKdI-1pfxWU_wygz6A95f9Jjqw3dWOV6ymin8ZPMkh3PhaWdAbnX1dxQ1kXkOeSTJFASe6AtzWCNFGyYMFz3Pnjx8a21itsxem6t/s1600/Immagine8.jpg" /&gt;&lt;/a&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
&lt;br /&gt;&lt;/div&gt;
&lt;div align="justify"&gt;
Ma se si tratta di &lt;a href="https://it.wikipedia.org/wiki/Radiotelescopio"&gt;&lt;span style="color: #80ffff;"&gt;radio-telescopi&lt;/span&gt;&lt;/a&gt; come hanno fatto gli scienziati a costruire l’immagine pubblicata all’inizio di questo post? In effetti non si tratta di un immagine nell’intervallo del visibile ma di un’immagine radio. Tra queste due radiazioni non c’e’ molta differenza a parte la &lt;a href="https://it.wikipedia.org/wiki/Lunghezza_d%27onda"&gt;&lt;span style="color: #80ffff;"&gt;lunghezza d’onda&lt;/span&gt;&lt;/a&gt;. Molto grande per le onde radio rispetto al visibile. Per il resto sono entrambe onde elettromagnetiche che si propagano alla velocita’ della luce grazie alla variazione combinata di campi elettrici e magnetici. Avendo una lunghezza d’onda diversa questi due tipi di onde interagiscono in modo diverso con la materia. Le onde radio per esempio, attraversano i muri mentre quelle della luce visibile no. Se la luce colpisce un certo oggetto, noi lo possiamo vedere grazie alla luce riflessa che arriva ai nostri occhi. Un’alternativa e’ quella di utilizzare una macchina fotografica o una camera e registrare la luce per poi rivedere l’oggetto in qualsiasi momento su un PC o sulla TV. L’immagine del buco nero pero’ come detto e’ un’immagine radio e quindi ogni pixel e’ la rappresentazione di una particolare onda radio. Quando per esempio vediamo il colore arancio, questo e’ un falso colore che sta a rappresentare le onde radio di circa 1 mm. La stessa cosa succede se vogliamo “vedere” un immagine negli infrarossi o ultravioletto. Dobbiamo convertire queste lunghezze d’onda in qualche cosa da poter vedere. In questo senso l’immagine del buco nero non e’ una normale fotografia ne’ qualche cosa che si puo’ vedere con un telescopio ottico. Pur tuttavia rimane inalterato il fascino e la bellezza con cui il buco nero si e’ presentato a noi, puntini infinitesimi sulla superficie di un piccolo pianetino in fuga nell’Universo.&lt;/div&gt;
</description><link>http://quantidiscienza.blogspot.com/2019/04/allombra-del-mastodontico-mostro.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi42kD3NkXSwC4Xc81yeqd6BAA7zns8cmznF-yTCtK0bCBPglhyaNdsu-Knu8ARDo3imA1xQ_C9mvdENJcHJQMjQyju_8dVzEJOukmDKrxLtaan4fvTsoxXPLsOZdD5-8WxYpdX7Laf/s72-c/Immagine1.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-2979013939699545109</guid><pubDate>Tue, 22 Jan 2019 14:57:00 +0000</pubDate><atom:updated>2019-01-22T10:47:51.214-08:00</atom:updated><title>Archeocarpologia</title><description>&lt;div align="justify"&gt;
Oggi con grande piacere, dopo aver otternuto il permesso, pubblico la tesi di mia figlia Gilda che tratta di&amp;nbsp; un argomento scientifico ( e quindi in linea con i temi del blog) poco noto alla maggior parte delle persone. Si tratta dell’archeocarpologia e cioè dello studio dei resti di semi, frutti e annessi fiorali. Insieme all’archeopalinologia (studio dei pollini, spore) e all’Archeoxilo-antracologia (studio dei legni e dei carboni) costituisce la disciplina dell’archeobotanica che si occupa dello studio dei reperti vegetali sia microscopici che macroscopici provenienti da siti archeologici a partire dal paleolitico fino all’eta’ moderna. Il suo scopo è quello di trovare le relazioni esistenti fra l’uomo e l’ambiente vegetale e l’evolversi e il modificarsi nel tempo di tale interazione. Negli ultimi anni il contributo delle analisi archeobotaniche si è rivelato di fondamentale importanza in quanto non solo fornisce utili elementi per ricostruire l’evoluzione del paesaggio di un determinato sito, ma contribuisce anche a conoscere le attività dell’uomo nel corso del tempo, scoprendo ad esempio quali piante coltivava e raccoglieva, quali utilizzava e per quale scopo, oppure quali prodotti raccoglieva/trasformava (ceduazione dei boschi, vinificazione, trebbiatura, ecc.), o ancora, se vi erano boschi oppure zone umide o canali, ecc. fino ad acquisire importanti informazioni relative al substrato, al clima, all’orografia e alla topografia del territorio. Dopo questa breve&amp;nbsp; introduzione ritorniamo alla tesi dal titolo:&amp;nbsp; “&lt;em&gt;Analisi carpologica del materiale  rinvenuto in un pozzo adiacente  al Santuario romano di Ercole in  Alba Fucens&lt;/em&gt;”. Lo studio è stato effettuato sotto la direzione della Professoressa &lt;a href="https://uniroma1.academia.edu/LauraSadori" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Sadori&lt;/span&gt;&lt;/a&gt; della Sapienza di Roma e ha avuto come oggetto lo studio dei resti carpologici rinvenuti durante gli scavi del 2011-2013, effettuati dalla Soprintendenza dell’Abruzzo sotto la direzione della dottoressa &lt;a href="http://www.sabap-abruzzo.beniculturali.it/dott-ssa-emanuela-ceccaroni/" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Ceccaroni&lt;/span&gt;&lt;/a&gt;, relatrice esterna della Tesi. Le conclusioni dello studio sono state molto interessanti per diversi motivi. Si e’ trattata della prima indagine archeocarpologica effettuata ad &lt;a href="https://en.wikipedia.org/wiki/Alba_Fucens" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Alba Fucens&lt;/span&gt;&lt;/a&gt;, colonia romana risalente a circa il 300 aC e oggi ubicata a pochi chilometri da Avezzano.&amp;nbsp; E’ stata stabilita una significativa presenza di sambuco nero rispetto a siti analoghi di epoca romana. Questo sembra essere in linea con quanto stabilito dall’antropologa &lt;a href="http://www.spoltorenotizie.it/la-meglio-spoltore/limpressionante-curriculum-vitae-della-professoressa-maria-concetta-nicolai.html" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Nicola&lt;/span&gt;&lt;/a&gt;&lt;span style="color: #80ffff;"&gt;i, &lt;span style="color: white;"&gt;che in base ai suoi studi glottologici fa risalire il suffisso sabus, dei nomi Sabini, Sanniti e Sabelli (popoli dell’antico Abruzzo), a quello di sambus (sambuco) cioè popoli coltivatori del sambuco. Il ritrovamento di resti di uva, pesche, noci, nocciole, fico, ciliegio e more fa capire che la dieta di questi popoli di circa 2000 anni fa non era poi tanto diversa da quella che ancora sopravvive negli stessi luoghi oggi. Per le noci e le pesche, in particolare, si è stabilito&amp;nbsp; che già a quell’epoca&amp;nbsp; venissero coltivate, come anche probabilmente la vite. Un ultimo ritrovamento, degno di nota, è stato quello di una pianta spontanea (lisca natante) ritenuta con molto probabilità oggi assente in Italia e mai esistita in Abruzzo, secondo quanto riportato dal sito &lt;a href="https://www.actaplantarum.org/flora/flora.php?m=0&amp;amp;s=" target="_blank"&gt;&lt;span style="color: #80ffff;"&gt;Acta Plantarum&lt;/span&gt;&lt;/a&gt;. A questo punto vi lascio alla lettura dello studio&amp;nbsp; sperando che vi possa piacere.&lt;/span&gt;&lt;/span&gt;&lt;/div&gt;
&lt;div align="left"&gt;
&lt;/div&gt;
&lt;span style="color: #80ffff; font-size: medium;"&gt;&lt;a href="https://drive.google.com/file/d/1a8GcV0VbrJs--bDdlD8OeZskrO9Y3MZz/view?usp=drivesdk" target="_blank"&gt;Link tesi&lt;/a&gt;&lt;/span&gt;&lt;span style="color: #80ffff;"&gt;&lt;/span&gt;</description><link>http://quantidiscienza.blogspot.com/2019/01/archeocarpologia.html</link><author>noreply@blogger.com (Felice)</author><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-5775422094357130674</guid><pubDate>Tue, 11 Dec 2018 19:53:00 +0000</pubDate><atom:updated>2022-09-30T10:01:57.163-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">complessita'</category><category domain="http://www.blogger.com/atom/ns#">distribuzione di pareto</category><category domain="http://www.blogger.com/atom/ns#">economia</category><category domain="http://www.blogger.com/atom/ns#">fat tail</category><category domain="http://www.blogger.com/atom/ns#">legge di pareto</category><category domain="http://www.blogger.com/atom/ns#">legge di potenza</category><category domain="http://www.blogger.com/atom/ns#">management</category><category domain="http://www.blogger.com/atom/ns#">matematica</category><category domain="http://www.blogger.com/atom/ns#">netlogo</category><category domain="http://www.blogger.com/atom/ns#">talento</category><title>Se tu sei cosi brillante perche’ non sei anche ricco? Questione di fortuna.</title><description>&lt;p&gt;&lt;b&gt;&lt;br&gt;&lt;/b&gt;&lt;p align="justify"&gt;Le persone di maggiore successo non sono sempre quelle piu’ talentuose, ma solo quelle piu’ fortunate. Questo il risultato di un modello di ricchezza sviluppato da 3 fisici italiani dell’Universita’ di Catania e pubblicato su &lt;a href="https://arxiv.org/" target="_blank"&gt;&lt;font color="#80ffff"&gt;Arxiv&lt;/font&gt;&lt;/a&gt; (&lt;a href="https://arxiv.org/abs/1811.05206"&gt;&lt;font color="#80ffff"&gt;Link1&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/1802.07068"&gt;&lt;font color="#80ffff"&gt;Link2&lt;/font&gt;&lt;/a&gt;). La distribuzione della ricchezza come noto, segue un pattern ben definito chiamato la regola 80:20 (o &lt;a href="https://it.wikipedia.org/wiki/Principio_di_Pareto" target="_blank"&gt;&lt;font color="#80ffff"&gt;principio di Pareto&lt;/font&gt;&lt;/a&gt;), l’80% della ricchezza e’ posseduta dal 20% delle persone. In uno studio pubblicato l’anno scorso addirittura e’ riportato che solo 8 persone posseggono la ricchezza totale di quella dei 3.8 miliardi di persone piu’ povere al mondo. Questo sembra accadere in tutte le societa’ e a tutte le scale. Si tratta di un noto pattern chiamato &lt;a href="https://it.wikipedia.org/wiki/Legge_di_potenza" target="_blank"&gt;&lt;font color="#80ffff"&gt;legge di potenza&lt;/font&gt;&lt;/a&gt; che appare in un ampio intervallo di fenomeni sociali. Ma la distribuzione della ricchezza e’ quella che genera&amp;nbsp; piu’ controversie a causa dei problemi che solleva sull’equita’ e sul merito. Perche’ mai solo una piccola parte di persone nel mondo dovrebbe possedere tanta ricchezza? La risposta tipica a questa domanda e’ che noi viviamo in una societa’ meritocratica dove le persone vengono premiate in base al loro talento, intelligenza, sforzi, ostinita’. Nel tempo, questo si traduce nella distribuzione di ricchezza che osserviamo nella realta’.&amp;nbsp; C’e’ un problema pero’ con questa idea: mentre la distribuzione della ricchezza segue una legge di potenza &lt;a href="https://it.wikipedia.org/wiki/Distribuzione_paretiana" target="_blank"&gt;(&lt;font color="#80ffff"&gt;distribuzione di Pareto&lt;/font&gt;&lt;/a&gt;), la distribuzione dell’intelligenza e delle abilita’ in genere segue una &lt;a href="https://it.wikipedia.org/wiki/Distribuzione_normale" target="_blank"&gt;&lt;font color="#80ffff"&gt;distribuzione normale&lt;/font&gt;&lt;/a&gt; che e’ simmetrica rispetto al valore medio. Per esempio, l’intelligenza che viene misurata tramite il test IQ, ha un valore medio di 100 e si distribuisce in modo simmetrico rispetto a questo valore. Nessuno ha mai ottenuto 1000 o 10000. Lo stesso e’ vero per lo sforzo che puo’ essere misurato in ore lavorate. Qualche persona lavora piu’ ore della media e qualche altra di meno, ma nessuno lavora milioni di ore piu’ di altri. &lt;b&gt;&lt;/b&gt;&lt;/p&gt;&lt;p align="justify"&gt;Eppure quando si tratta dei premi che si possono ricevere per il lavoro, alcune persone ottengono ricompense milioni di volte piu’ remunerative di altri. Per di piu’, diversi studi hanno mostrato che in genere le persone piu’ ricche non sono quelle piu’ talentuose. Quali fattori, allora determinano il modo in cui gli individui diventano ricchi? E’ possibile che il caso giochi un ruolo maggiore di quello che ognuno di noi si aspetta? E come possono questi fattori, qualunque essi siano, essere sfruttati per rendere il mondo un posto migliore e più giusto dove vivere? &lt;p align="justify"&gt;Una risposta viene proprio grazie al lavoro di &lt;a href="http://www2.dfa.unict.it/home/pluchino/" target="_blank"&gt;&lt;font color="#80ffff"&gt;A. Pluchino&lt;/font&gt;&lt;/a&gt; e 2 suoi colleghi dell’Universita’ di Catania. Questo team ha creato un modello al computer utilizzando &lt;a href="https://ccl.northwestern.edu/netlogo/" target="_blank"&gt;&lt;font color="#80ffff"&gt;NetLogo&lt;/font&gt;&lt;/a&gt; un ambiente di programmazione a &lt;a href="https://it.wikipedia.org/wiki/Sistema_multiagente" target="_blank"&gt;&lt;font color="#80ffff"&gt;multi-agenti&lt;/font&gt;&lt;/a&gt;&lt;font color="#80ffff"&gt;.&lt;/font&gt; Grazie ad esso hanno potuto analizzare il ruolo del caso in un processo in cui un gruppo di persone con un certo talento esplora le opportunita’ della vita. I risultati sono veramente illuminanti. Le loro simulazioni riproducono accuratamente la distribuzione della ricchezza nel mondo reale. Ma gli individui piu’ ricchi non sono quelli piu’ talentuosi (sebbene essi abbiano comunque un certo livello di talento). Essi sono semplicemente i piu’ fortunati. E questo ha un’implicazione significativa sul modo in cui le societa’ possono ottimizzare i ritorni degli investimenti che si fanno, dal mercato alla scienza. Il modello sviluppato e’ abbastanza semplice. Esso consiste di N persone, ognuna con un certo livello di talento (abilita’, intelligenza, destrezza e cosi via). Questo talento e’ distribuito secondo una &lt;a href="https://it.wikipedia.org/wiki/Funzione_gaussiana" target="_blank"&gt;&lt;font color="#80ffff"&gt;Gaussiana&lt;/font&gt;&lt;/a&gt; intorno ad un valore medio e una certa &lt;a href="https://www.okpedia.it/deviazione-standard-scarto-quadratico-medio" target="_blank"&gt;&lt;font color="#80ffff"&gt;deviazione standard&lt;/font&gt;&lt;/a&gt;. Alcune persone, quindi sono piu’ talentuose della media ma nessuna lo e’ per piu’ ordini di grandezza. &lt;p align="justify"&gt;&lt;a href="http://lh3.googleusercontent.com/-0u47u2n4N28/XBAVuVpbeBI/AAAAAAAAIAY/mHLYnjZz8io3xJaeiQp6aHFlY7ChDNCKgCHMYCw/s1600-h/clip_image001%255B3%255D"&gt;&lt;img width="409" height="252" title="clip_image001" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image001" src="http://lh3.googleusercontent.com/-PXP-d4Ct-Xs/XBAVvbpLlHI/AAAAAAAAIAc/DAHE7SpcQM4mGMEKNh-8Nxq19gK0oE0VwCHMYCw/clip_image001_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Questa e’ la stessa distribuzione che ritroviamo per caratteristiche umane come l’altezza e il peso. Alcune persone sono piu’ alte o piu’ basse della media, ma nessuno ha le dimensioni di un moscerino o di un elefante. Alla fine siamo abbastanza simili tra noi. Il modello costruito, ha seguito ogni individuo per 40 anni di vita lavorativa (dai 20 ai 60 anni). Durante questo tempo, gli individui possono aver sperimentato degli eventi fortuiti che hanno potuto sfruttare per aumentare la loro ricchezza se abbastanza talentuosi. Allo stesso modo, possono anche subire degli eventi sfortunati che possono ridurre la loro ricchezza. Questi eventi sono completamente casuali. Alla fine dei 40 anni, il team ha fatto un ranking degli individui in base alla ricchezza accumulata e studiato le caratteristiche di questa distribuzione. Hanno poi ripetuto la simulazione molte volte per verificare la robustezza dei risultati.&lt;p align="justify"&gt;&lt;a href="http://lh3.googleusercontent.com/-j46ITCZyp0g/XBAVv_yOD8I/AAAAAAAAIAg/ycb3y7pemHk3qpU6s2FD7qWAeD5v0ypQACHMYCw/s1600-h/clip_image003%255B3%255D"&gt;&lt;img width="305" height="303" title="clip_image003" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image003" src="http://lh3.googleusercontent.com/-h7vQxBAzcqw/XBAVw9kHVDI/AAAAAAAAIAk/ZPe8KYoQEAsocPPiq6O72Iy639U5bs9LwCHMYCw/clip_image003_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="center"&gt;&lt;font size="2"&gt;In questa figura un esempio di configurazione iniziale di una simulazione. Ci sono 1000 individui (agenti) con diversi gradi di talento e distribuiti in modo casuale all’interno di un mondo quadrato fatto di 201x201 striscie con condizioni al contorno periodiche. Durante ogni simulazione che copre diverse dozzine di anni queste persone vengono esposte ad un certo numero di eventi fortunati (cerchi di colore verde) e sfortunati (cerchi di colore rosso) che si muovono attraverso il mondo quadrato con traiettorie del tutto casuali.&lt;/font&gt; &lt;p align="justify"&gt;&lt;br&gt;&lt;p align="justify"&gt;La distribuzione della ricchezza che emerge dalle simulazioni e’ esattamente quella vista nel mondo reale. La legge 80:20 viene rispettata, in quanto l’80% della popolazione possiede il 20% del capitale totale, mentre il rimanente 20% possiede l’80% di questo capitale. Questo risultato non sarebbe sorprendente o sleale se il 20% delle persone piu’ ricche fosse anche quello piu’ talentuoso. Ma questo non e’ quello che emerge dallo studio.&lt;p align="justify"&gt;&lt;a href="http://lh3.googleusercontent.com/-1SUMyPmvnTE/XBAVxY5iewI/AAAAAAAAIAo/dQ1zh4tWnBsc_jpGLfDKdHk3TV8bjemzQCHMYCw/s1600-h/clip_image005%255B3%255D"&gt;&lt;img width="478" height="387" title="clip_image005" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image005" src="http://lh3.googleusercontent.com/-AImwMWvemk4/XBAVyFo_AsI/AAAAAAAAIAs/Lzun3mb2HWw8Dx4QaLiPn6WdPE6bREMvgCHMYCw/clip_image005_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Gli individui piu’ ricchi, in genere non sono quelli piu’ talentuosi o prossimi a essi. Il massimo successo non coincide con il massimo talento e viceversa. &lt;p align="justify"&gt;&lt;a href="http://lh3.googleusercontent.com/-6umIx8qF630/XBAVyqNG0yI/AAAAAAAAIAw/pnfEzPO84N4bFwZaRZpS3FOkJEa2bIy2wCHMYCw/s1600-h/clip_image007%255B3%255D"&gt;&lt;img width="480" height="388" title="clip_image007" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image007" src="http://lh3.googleusercontent.com/-UBpdvE4zVyU/XBAVzblLM1I/AAAAAAAAIA0/mtcU3C3w79ICXhmH-0FM5RtoqIV7wvaKACHMYCw/clip_image007_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Quindi se non e’ il talento, quali altri fattori causano questa distribuzione di ricchezza fortemente scodata? La simulazione chiaramente individua nella pura fortuna tale fattore. Facendo una classifica degli individui secondo il numero di eventi favorevoli e sfavorevoli subiti nei 40 anni di lavoro, e’ evidente che gli individui con maggiore successo sono anche i piu’ fortunati. E quelli che hanno avuto meno successo sono proprio quelli piu’ sfortunati (maggiore numero di eventi negativi). &lt;p align="justify"&gt;&lt;a href="http://lh3.googleusercontent.com/-bM6bZTO6Ujo/XBAVz1CJYnI/AAAAAAAAIA4/vuatixNyCNoDV1qxiEVIdw4XedvZcm-jQCHMYCw/s1600-h/clip_image009%255B3%255D"&gt;&lt;img width="624" height="274" title="clip_image009" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image009" src="https://lh3.googleusercontent.com/-H6qQTtvGTM4/XBAV0a0eTlI/AAAAAAAAIA8/V9uYBIw1qxcrMkQzHXze6a0PT8Sf0TzcwCHMYCw/clip_image009_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Questo risultato ha delle implicazioni molto profonde per la societa’. Quale e’ la strategia piu’ efficace per esplorare il ruolo della fortuna nel successo di una persona? Il team ha verificato questo aspetto usando il metodo con cui vengono stabiliti i fondi per la ricerca scientifica. Le agenzie di finanziamento di tutto il mondo sono interessate a massimizzare il loro ritorno sull'investimento nel mondo scientifico. Recentemente &lt;a href="https://erc.europa.eu/" target="_blank"&gt;&lt;font color="#80ffff"&gt;l’European Reserch Council&lt;/font&gt;&lt;/a&gt; ha investito 1.7 miliardi di dollari in un programma per studiare la &lt;a href="https://it.wikipedia.org/wiki/Serendipit%C3%A0" target="_blank"&gt;&lt;font color="#80ffff"&gt;serendipita’&lt;/font&gt;&lt;/a&gt;, cioe’ il ruolo della fortuna nelle scoperte scientifiche, e come essa puo’ essere sfruttata per migliorare  i risultati del finanziamento. E questo studio di Pluchino e il suo team&amp;nbsp; ben si presta a dare una risposta a questa domanda. In esso vengono esplorati diversi modelli di finanziamento per capire quale di essi produce il miglior ritorno quando si tiene in considerazione la fortuna. In particolare sono stati studiati 3 modelli in cui il fondo e’ distribuito equamente a tutti gli scienziati, distribuito a caso ad un numero limitato di scienziati o dato preferenzialmente a quelli che hanno avuto piu’ successo in passato. Quale e’ la migliore strategia? La risposta e’ controintuitiva ed il primo modello. Si avete capito bene quella che assegna il fondo in modo equo a tutti gli scienziati. E subito dopo la seconda e terza strategia vincente e’ quella che prevede di assegnare a caso il fondo al 10 o 20% degli scienziati. In questi casi, i ricercatori riescono ad ottenere un vantaggio dalle scoperte per serendipita’ che avvengono nel tempo.  Col senno di poi e’ ovvio che se uno scienziato ha fatto una scoperta nel passato non significa che ha una probabilita’ maggiore di farne un’altra nel futuro. Un simile approccio potrebbe essere applicato anche negli investimenti di altro tipo di aziende, come una piccola o grande impresa, startup tecnologiche o anche per la creazione casuale di eventi fortunati. E’ chiaro che c’e’ bisogno di ulteriori indagini e studio su questo argomento prima di poter dare un giudizio definitivo. I primi risultati sono di sicuro rivoluzionari e in controtendenza, con una prospettiva di applicazione del tutto nuova e molto interessante. Non ci resta che aspettare ulteriori dettagli…. </description><link>http://quantidiscienza.blogspot.com/2018/12/se-tu-sei-cosi-brillante-perche-non-sei.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="http://lh3.googleusercontent.com/-PXP-d4Ct-Xs/XBAVvbpLlHI/AAAAAAAAIAc/DAHE7SpcQM4mGMEKNh-8Nxq19gK0oE0VwCHMYCw/s72-c/clip_image001_thumb?imgmax=800" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-1771534260264293737</guid><pubDate>Sun, 02 Dec 2018 20:02:00 +0000</pubDate><atom:updated>2018-12-02T12:02:53.832-08:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">cosmologia</category><category domain="http://www.blogger.com/atom/ns#">costante di hubble</category><category domain="http://www.blogger.com/atom/ns#">curvatura</category><category domain="http://www.blogger.com/atom/ns#">energia oscura</category><category domain="http://www.blogger.com/atom/ns#">forma universo</category><category domain="http://www.blogger.com/atom/ns#">materia oscura</category><category domain="http://www.blogger.com/atom/ns#">radiazione cosmica di fondo</category><category domain="http://www.blogger.com/atom/ns#">universo</category><title>L’Universo dopo la missione Planck</title><description>&lt;p align="justify"&gt;&lt;br&gt;&lt;p align="justify"&gt;Sono ormai 50 anni da quando abbiamo scoperto un fondo di microonde che arriva sulla terra proveniente da tutte le regioni del cielo. Queste radiazioni non provengono dal sole, da galassie o altre stelle ma sono la luce residua del &lt;a href="https://en.wikipedia.org/wiki/Big_Bang" target="_blank"&gt;&lt;font color="#80ffff"&gt;Big Bang&lt;/font&gt;&lt;/a&gt; che oggi chiamiamo &lt;a href="https://it.wikipedia.org/wiki/Radiazione_cosmica_di_fondo" target="_blank"&gt;&lt;font color="#80ffff"&gt;radiazione cosmica di fondo&lt;/font&gt;&lt;/a&gt; detta anche semplicemente radiazione di fondo e indicata con l’acronimo inglese CMB. Le missioni satellitari realizzate negli anni passati hanno avute tutte lo scopo di studiare le caratteristiche principali di tale radiazione e verificarne l’accordo con le previsioni teoriche. L’ultima di queste missioni ha visto impegnato il &lt;a href="http://www.satelliteplanck.it/" target="_blank"&gt;&lt;font color="#80ffff"&gt;satellite Planck&lt;/font&gt;&lt;/a&gt; dell’agenzia spaziale europea, lanciato nel 2009. Grazie ad esso la nostra visione dell’Universo e’ cambiata radicalmente. Vediamo perche’. L’immagine seguente mostra come la temperatura associata all’energia di questa radiazione fossile, 380000 anni dopo il  Big Bang, non e’ uniforme in tutte le direzioni dello spazio in quanto  mostra delle piccole variazioni dell’ordine delle centinaia di microkelvin (il colore blu indica temperature piu’ basse e quello rosso temperature piu’ alte). &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-k_JVNdHPdxs/XAQ6Q0pyRxI/AAAAAAAAH-U/2kUu8maNc0spVUzdU_xzlNSsodeOjiwswCHMYCw/s1600-h/clip_image002%255B4%255D"&gt;&lt;img width="546" height="276" title="clip_image002" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image002" src="https://lh3.googleusercontent.com/-fiSN-IWdbPo/XAQ6RjoMs5I/AAAAAAAAH-Y/hBqKHVKqczgeeU5BbHaRbxgcWpx9Wp-fgCHMYCw/clip_image002_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Per analizzare l'origine della radiazione cosmica di fondo è necessario tornare al periodo conosciuto come era della ricombinazione. Nell'Universo le condizioni cominciano a permettere la formazione di atomi di idrogeno, fenomeno detto appunto ricombinazione. L'energia di ionizzazione dell'idrogeno vale 13,6 eV, e dunque basta questa energia per staccare l'elettrone dal nucleo, ma a quel tempo la maggior parte dei fotoni possiede ancora un'energia maggiore di quel valore. Quindi ogni volta che un fotone interagisce con un atomo appena formatosi, quest'ultimo perde il proprio elettrone. Il fotone viene deflesso e questa interazione è descritta dal fenomeno chiamato &lt;a href="https://it.wikipedia.org/wiki/Scattering_Thomson" target="_blank"&gt;&lt;font color="#80ffff"&gt;scattering Thomson&lt;/font&gt;&lt;/a&gt; (figura seguente), responsabile dell'aspetto opaco dell'Universo di allora.&lt;p align="justify"&gt;&lt;img width="371" height="232" style="margin-right: auto; margin-left: auto; float: none; display: block;" alt="Related image" src="https://upload.wikimedia.org/wikipedia/commons/4/46/Thomson-scattering.png"&gt;&lt;p align="justify"&gt; Per questo motivo il cammino libero percorso dai fotoni tra una collisione e l'altra è estremamente breve e impedisce appunto la formazione di atomi stabili. Con il passare del tempo però l'Universo si espande, la temperatura cala e di conseguenza anche l'energia dei fotoni diminuisce, facendo decrescere sempre più il numero di essi in grado di ionizzare gli atomi di idrogeno. Al termine di questo processo si hanno gli elettroni nel loro stato fondamentale e i fotoni ormai non più in grado di interagire con essi. Cessa dunque il fenomeno di scattering e l'Universo passa da uno stato opaco ad uno trasparente. Si parla quindi di disaccoppiamento tra materia e radiazione, perché da questo momento in poi i fotoni sono liberi di propagarsi in moto perenne nell'Universo, senza essere più deflessi, costituendo ciò che oggi è conosciuta appunto come radiazione cosmica di fondo. Importante notare come ricombinazione e disaccoppiamento sono fenomeni distinti e non avvengono contemporaneamente. A partire dal 1983 sono stati condotti diversi esperimenti per ottenere più informazioni, tra cui soprattutto l'effettiva temperatura dei fotoni della radiazione cosmica di fondo. Sono tre le missioni spaziali più famose a questo riguardo: &lt;a href="https://it.wikipedia.org/wiki/Cosmic_Background_Explorer" target="_blank"&gt;&lt;font color="#80ffff"&gt;COBE&lt;/font&gt;&lt;/a&gt;, acronimo di Cosmic Background Explorer, del 1992, &lt;a href="https://it.wikipedia.org/wiki/WMAP" target="_blank"&gt;&lt;font color="#80ffff"&gt;WMAP&lt;/font&gt;&lt;/a&gt;, ovvero Wilkinson Microwave Anisotropy Probe, del 2001 e Planck, lanciato nel 2009. Quest'ultima nasce con gli obiettivi di misurare con grande precisione il CMB, osservare strutture dell'Universo come alcuni ammassi di galassie, studiare l'effetto chiamato lente gravitazionale e stimare i parametri osservativi. Questi obiettivi, uniti alla tecnologia utilizzata nella realizzazione dell'esperimento, rendono questa missione la più importante delle tre. Grazie ai dati raccolti, soprattutto da Planck, si sono fatti importanti passi avanti in questo campo. Oggi si sa infatti che la radiazione cosmica di fondo corrisponde esattamente alla radiazione emessa da un &lt;a href="https://it.wikipedia.org/wiki/Corpo_nero" target="_blank"&gt;&lt;font color="#80ffff"&gt;corpo nero&lt;/font&gt;&lt;/a&gt;, a una temperatura&lt;p align="center"&gt;T&lt;sub&gt;0&lt;/sub&gt; = 2.725+/- 0.001 K&lt;p align="justify"&gt;a cui corrisponde un’energia media di questi fotoni di solo 1.126*10&lt;sup&gt;-22 &lt;/sup&gt;Joule. Un corpo nero è, fisicamente parlando, un radiatore ideale, ovvero un ggetto che assorbe ogni tipo di radiazione elettromagnetica da cui viene colpito, senza riflettere energia. Il principio di conservazione dell'energia tuttavia non permette di assorbire semplicemente energia e quindi un corpo nero riemette tutta l'energia che ha ricevuto sotto forma di radiazione. Le missioni COBE e WMAP hanno confermato le ipotesi che erano state fatte sul CMB. È stato infatti dimostrato come lo spettro della radiazione cosmica di fondo corrisponda esattamente a quello di un corpo nero. &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-tXbmzYxrEsc/XAQ6SFWV9vI/AAAAAAAAH-c/uQaJxGMB9sMthfGJ232dmLru28LI4oLBwCHMYCw/s1600-h/clip_image004%255B3%255D"&gt;&lt;img width="279" height="434" title="clip_image004" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image004" src="https://lh3.googleusercontent.com/-jq8DImtEyOE/XAQ6S_KpqRI/AAAAAAAAH-g/uJN4zNKsmwUdX3u_ubFl4wr1xLAq-Ws9gCHMYCw/clip_image004_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Il satellite Planck ha misurato le fluttuazioni in temperatura con una risoluzione che nessun altro satellite prima aveva fatto: circa 5 microkelvin rispetto ai 70 di COBE. Quest’alta risoluzione insieme alla capacita’ di misurare la &lt;a href="https://it.wikipedia.org/wiki/Polarizzazione" target="_blank"&gt;&lt;font color="#80ffff"&gt;polarizzazione&lt;/font&gt;&lt;/a&gt; di questa luce ci ha permesso di capire, misurare ed eliminare gli effetti della polvere (vedi immagine seguente) presente nella nostra galassia meglio di quanto fatto prima. Per ottenere le informazioni cosmologiche contenute in questo fondo e’ necessario conoscere tutti gli effetti che possono contaminare tale segnale.&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-d6QUPNfHz2o/XAQ6TrZj1eI/AAAAAAAAH-k/OU_1XH1ePewaN5HaTLWbNWUQDLXBpenTgCHMYCw/s1600-h/clip_image006%255B4%255D"&gt;&lt;img width="483" height="250" title="clip_image006" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image006" src="https://lh3.googleusercontent.com/-l5SPpi_EpF0/XAQ6UFjDs3I/AAAAAAAAH-o/81RKn-0hj5UEl_e5I2Hn9vxvziJDdkEwwCHMYCw/clip_image006_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Una volta che il segnale e’ stato ripulito esso puo’ essere analizzato per estrarre tutta l’informazione possibile. Questo significa usare le fluttuazioni in temperatura su larga, intermedia e piccola scala per cercare di capire: &lt;p align="justify"&gt;· quanta materia normale, &lt;a href="https://it.wikipedia.org/wiki/Materia_oscura" target="_blank"&gt;&lt;font color="#80ffff"&gt;oscura&lt;/font&gt;&lt;/a&gt; ed &lt;a href="https://it.wikipedia.org/wiki/Energia_oscura" target="_blank"&gt;&lt;font color="#80ffff"&gt;energia oscura&lt;/font&gt;&lt;/a&gt; ci sono nell’universo&lt;p align="justify"&gt;· la loro distribuzione iniziale&lt;p align="justify"&gt;· la &lt;a href="https://it.wikipedia.org/wiki/Forma_dell%27universo" target="_blank"&gt;&lt;font color="#80ffff"&gt;forma e curvatura&lt;/font&gt;&lt;/a&gt; dell’universo (vedi immagine seguente)&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-ypQFVUxlZnA/XAQ6U0Ub33I/AAAAAAAAH-s/3fMfJIkUYp8OK4ABbKNlJCNR1IpwFTQsQCHMYCw/s1600-h/clip_image008%255B3%255D"&gt;&lt;img width="600" height="586" title="clip_image008" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image008" src="https://lh3.googleusercontent.com/-ZGhJdwZ3mx4/XAQ6VXDQijI/AAAAAAAAH-w/ff9xcDfYtbolKSlLxlpHPfUJIS8uhxBoACHMYCw/clip_image008_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;E’ possibile anche analizzare le diverse varieta’ di luce polarizzata di questa radiazione e ottenere altre informazioni molto utili per gli scienziati.  Grazie a Planck adesso conosciamo alcuni dei parametri cosmologici con una maggiore precisione, come per esempio la &lt;a href="https://it.wikipedia.org/wiki/Legge_di_Hubble#Il_valore_della_costante_di_Hubble" target="_blank"&gt;&lt;font color="#80ffff"&gt;costante di Hubble&lt;/font&gt;&lt;/a&gt; che oggi sappiamo essere un numero tra 67 e 68 Km/s/Mpc. &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-dD_DWSGSiSg/XAQ6V6KsEyI/AAAAAAAAH-0/vcLcKhLaMDUUZZG5iyf9rzDMPJue7EMegCHMYCw/s1600-h/clip_image010%255B4%255D"&gt;&lt;img width="406" height="298" title="clip_image010" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image010" src="https://lh3.googleusercontent.com/-K_uSh0hfgyg/XAQ6WcjOXJI/AAAAAAAAH-4/TQIechyiM34PTKSgfStCe8-sFXIGihIcACHMYCw/clip_image010_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;L’universo ha piu’ materia e si sta espandendo piu’ lentamente di quanto pensavamo prima. Prima dei risultati del satellite Planck, si pensava che l’universo fosse costituito per il 26% di materia e 74% di energia oscura con un tasso di espansione intorno a 70 Km/s/Mpc. Adesso invece la quantita’ di materia nell’universo corrisponde a circa il 31.5% (il cui 4.9% e’ materia normale e il rimanente materia oscura) mentre il 68.5% e’ energia oscura con una costante di Hubble di circa 67.4 Km/s/Mpc. Quest’ultima e’ in contrasto con altre misure che invece indicano un rate di 73 Km/s/Mpc. Questo punto e’ probabilmente una delle poche controversie ancora oggi rimanenti sul modello di universo. Grazie al satellite Planck sappiamo che ci sono solo 3 tipi di &lt;a href="https://en.wikipedia.org/wiki/Neutrino" target="_blank"&gt;&lt;font color="#80ffff"&gt;neutrino&lt;/font&gt;&lt;/a&gt; e la massa di ognuno di essi e’ non piu’ di 0.04 eV/c&lt;sup&gt;2&lt;/sup&gt;&lt;sub&gt;, &lt;/sub&gt;circa 10 milioni di volte meno massiccia di un elettrone. Un’altra indicazione e’ quella che l’universo e’ realmente piatto e la sua curvatura e’ non piu’ di 1 parte su 1000. A partire dall’intensita’ di questa radiazione di fondo e’ possibile utilizzare la &lt;a href="https://it.wikipedia.org/wiki/Trasformata_di_Fourier" target="_blank"&gt;&lt;font color="#80ffff"&gt;trasformata di Fourier&lt;/font&gt;&lt;/a&gt; per ottenere lo spettro continuo delle fluttuazioni di temperatura. Per descrivere la distribuzione spaziale dell’intensita’ e quindi della temperatura si puo’ sfruttare il fatto che queste sono distribuite su una superficie sferica e quindi e’ possibile utilizzare una decomposizione in &lt;a href="https://it.wikipedia.org/wiki/Armoniche_sferiche" target="_blank"&gt;&lt;font color="#80ffff"&gt;armoniche sferiche&lt;/font&gt;&lt;/a&gt;:&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-g9CJj8U0M80/XAQ6W14alLI/AAAAAAAAH-8/4fTnyr-M6fs10VQh9d56pqwLfgc8fhgFQCHMYCw/s1600-h/clip_image011%255B4%255D"&gt;&lt;img width="404" height="74" title="clip_image011" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image011" src="https://lh3.googleusercontent.com/-4bYMDYUI0q4/XAQ6XTvaRVI/AAAAAAAAH_A/8Ru98QpeoLIsBsEarcOh8sSZ4m4UkSavwCHMYCw/clip_image011_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;dove Y&lt;sub&gt;l,m &lt;/sub&gt; e’ la funzione armonica sferica di grado l ed ordine m. Di seguito lo spettro ottenuto da Planck. &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-ugrPc8AX-UA/XAQ6YCcACxI/AAAAAAAAH_E/lhsq25-vmn0wVQf71VHIAT_uAZnzFZZRQCHMYCw/s1600-h/clip_image013%255B3%255D"&gt;&lt;img width="463" height="426" title="clip_image013" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image013" src="https://lh3.googleusercontent.com/-VzZBlFDcg3I/XAQ6YuQsblI/AAAAAAAAH_I/mzzv1KkqprICICocBoh-iGAcbZgOsMjvQCHMYCw/clip_image013_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Esso tra le altre cose ha fornito anche una conferma della teoria dell’inflazione cosmica. Quest’ultima prevede che le fluttuazioni dell’universo al suo  inizio dovrebbero essere pio’ o meno le stesse a tutte le scale con una piccolissima maggiore fluttuazione alle scale piu’ grandi. In accordo con i dati forniti da Planck questo significa che una delle quantita’ cosmologiche chiamata indice spettrale ed indicata con n&lt;sub&gt;s&lt;/sub&gt; e’ prossima ad 1 (Planck da’ 0.965+/-0.05%) come ci si aspetta dalla &lt;a href="https://it.wikipedia.org/wiki/Inflazione_(cosmologia)" target="_blank"&gt;&lt;font color="#80ffff"&gt;teoria dell’inflazione&lt;/font&gt;&lt;/a&gt;. C’e’ anche un’altra questione a cui le misure di Planck possono dare un contributo. L’energia oscura che e’ estremamente sensibile alla radiazione di fondo e ai dati provenienti dall’universo ultra-distante (come le supernove di tipo Ia) e’ o no una costante cosmologica? Nel caso in cui lo fosse allora la sua equazione di stato indicata col parametro w dovrebbe essere esattamente pari a -1. Cosa dice Planck? Si e’ trovato un valore di -1.03 con una incertezza di solo 0.03. &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-YLpHHPUOHcU/XAQ6Zbk4e_I/AAAAAAAAH_M/HnQzd7vQxP4glBxU5kXutwsH57fF7u5uQCHMYCw/s1600-h/clip_image015%255B4%255D"&gt;&lt;img width="480" height="287" title="clip_image015" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image015" src="https://lh3.googleusercontent.com/-Xzcmx3s8kyc/XAQ6Z9Ig2lI/AAAAAAAAH_Q/4v8GehQT-N0Lbk8iHs3BbQkwcasWp0uPQCHMYCw/clip_image015_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Dopo la missione Planck, anche altre quantita’ hanno mostrato delle differenze anche se molto piccole. L’universo e’ diventato leggermente piu’ vecchio. Siamo a 13.8 miliardi di anni verso i precedenti 13.7 miliardi di anni. La distanza del confine osservabile dell’universo e’ un po’ piu’ piccola di quanto pensavamo: 46.1 invece di 46.5 miliardi di anni luce. &lt;p align="justify"&gt;In definitiva possiamo dire che in base ai risultati del satellite Planck: &lt;p&gt;· il modello dell’inflazione e’ confermato&lt;p&gt;· esistono tre specie di neutrini&lt;p&gt;· l’universo si sta espandendo piu’ lentamente di quanto pensavamo prima e non c’e’ alcuna evidenza di una sua curvatura&lt;p&gt;· c’e’ un po’ piu’ materia oscura e materia standard di quanto pensavamo prima a scapito di un po’ meno di energia oscura.&lt;p&gt;· non c’e’ alcuna evidenza a favore dei modelli &lt;a href="https://it.wikipedia.org/wiki/Big_Rip" target="_blank"&gt;&lt;font color="#80ffff"&gt;Big Rip&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Big_Crunch" target="_blank"&gt;&lt;font color="#80ffff"&gt;Big crunch&lt;/font&gt;&lt;/a&gt; dell’universo&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-e1qg80TP_G4/XAQ6ajlR4SI/AAAAAAAAH_U/1nkrtLSjmHkUQDKv_gVbEt41VoXITgECQCHMYCw/s1600-h/clip_image017%255B4%255D"&gt;&lt;img width="461" height="318" title="clip_image017" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image017" src="https://lh3.googleusercontent.com/-DumsOHjfG2g/XAQ6bLc0TAI/AAAAAAAAH_Y/dPQEGaxV474pNyVG8ddQVlhxfbcTjdjmgCHMYCw/clip_image017_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Grazie alla missione Planck oggi abbiamo uno spettacolare accordo tra la radiazione di fondo (CMB) e le previsioni teoriche dell’universo contenente 5% di materia normale, 27% di materia oscura e 68% di energia oscura. Ci puo’ essere la possibilita’ di variazioni del 1-2% per questi valori, ma un universo senza materia oscura e senza energia oscura con i dati in nostro possesso non e’ pensabile. Entrambe sono reali e necessarie (vedi linea blu del grafico precedente per capire il buon accordo tra i dati teorici che prevedono la materia e l’energia oscura e i dati sperimentali rappresentati dai punti in rosso ottenuti da Planck). &lt;p align="justify"&gt;Per approfondire:&lt;p&gt;&lt;a href="https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82"&gt;&lt;font color="#80ffff"&gt;https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82&lt;/font&gt;&lt;/a&gt;</description><link>http://quantidiscienza.blogspot.com/2018/12/luniverso-dopo-la-missione-planck.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://lh3.googleusercontent.com/-fiSN-IWdbPo/XAQ6RjoMs5I/AAAAAAAAH-Y/hBqKHVKqczgeeU5BbHaRbxgcWpx9Wp-fgCHMYCw/s72-c/clip_image002_thumb%255B1%255D?imgmax=800" width="72"/><thr:total>1</thr:total><enclosure length="19844229" type="application/pdf" url="https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82"/><itunes:explicit>no</itunes:explicit><itunes:subtitle>Sono ormai 50 anni da quando abbiamo scoperto un fondo di microonde che arriva sulla terra proveniente da tutte le regioni del cielo. Queste radiazioni non provengono dal sole, da galassie o altre stelle ma sono la luce residua del Big Bang che oggi chiamiamo radiazione cosmica di fondo detta anche semplicemente radiazione di fondo e indicata con l’acronimo inglese CMB. Le missioni satellitari realizzate negli anni passati hanno avute tutte lo scopo di studiare le caratteristiche principali di tale radiazione e verificarne l’accordo con le previsioni teoriche. L’ultima di queste missioni ha visto impegnato il satellite Planck dell’agenzia spaziale europea, lanciato nel 2009. Grazie ad esso la nostra visione dell’Universo e’ cambiata radicalmente. Vediamo perche’. L’immagine seguente mostra come la temperatura associata all’energia di questa radiazione fossile, 380000 anni dopo il Big Bang, non e’ uniforme in tutte le direzioni dello spazio in quanto mostra delle piccole variazioni dell’ordine delle centinaia di microkelvin (il colore blu indica temperature piu’ basse e quello rosso temperature piu’ alte). Per analizzare l'origine della radiazione cosmica di fondo è necessario tornare al periodo conosciuto come era della ricombinazione. Nell'Universo le condizioni cominciano a permettere la formazione di atomi di idrogeno, fenomeno detto appunto ricombinazione. L'energia di ionizzazione dell'idrogeno vale 13,6 eV, e dunque basta questa energia per staccare l'elettrone dal nucleo, ma a quel tempo la maggior parte dei fotoni possiede ancora un'energia maggiore di quel valore. Quindi ogni volta che un fotone interagisce con un atomo appena formatosi, quest'ultimo perde il proprio elettrone. Il fotone viene deflesso e questa interazione è descritta dal fenomeno chiamato scattering Thomson (figura seguente), responsabile dell'aspetto opaco dell'Universo di allora. Per questo motivo il cammino libero percorso dai fotoni tra una collisione e l'altra è estremamente breve e impedisce appunto la formazione di atomi stabili. Con il passare del tempo però l'Universo si espande, la temperatura cala e di conseguenza anche l'energia dei fotoni diminuisce, facendo decrescere sempre più il numero di essi in grado di ionizzare gli atomi di idrogeno. Al termine di questo processo si hanno gli elettroni nel loro stato fondamentale e i fotoni ormai non più in grado di interagire con essi. Cessa dunque il fenomeno di scattering e l'Universo passa da uno stato opaco ad uno trasparente. Si parla quindi di disaccoppiamento tra materia e radiazione, perché da questo momento in poi i fotoni sono liberi di propagarsi in moto perenne nell'Universo, senza essere più deflessi, costituendo ciò che oggi è conosciuta appunto come radiazione cosmica di fondo. Importante notare come ricombinazione e disaccoppiamento sono fenomeni distinti e non avvengono contemporaneamente. A partire dal 1983 sono stati condotti diversi esperimenti per ottenere più informazioni, tra cui soprattutto l'effettiva temperatura dei fotoni della radiazione cosmica di fondo. Sono tre le missioni spaziali più famose a questo riguardo: COBE, acronimo di Cosmic Background Explorer, del 1992, WMAP, ovvero Wilkinson Microwave Anisotropy Probe, del 2001 e Planck, lanciato nel 2009. Quest'ultima nasce con gli obiettivi di misurare con grande precisione il CMB, osservare strutture dell'Universo come alcuni ammassi di galassie, studiare l'effetto chiamato lente gravitazionale e stimare i parametri osservativi. Questi obiettivi, uniti alla tecnologia utilizzata nella realizzazione dell'esperimento, rendono questa missione la più importante delle tre. Grazie ai dati raccolti, soprattutto da Planck, si sono fatti importanti passi avanti in questo campo. Oggi si sa infatti che la radiazione cosmica di fondo corrisponde esattamente alla radiazione emessa da un corpo nero, a una temperaturaT0 = 2.725+/- 0.001 Ka cui corrisponde un’energia media di questi fotoni di solo 1.126*10-22 Joule. Un corpo nero è, fisicamente parlando, un radiatore ideale, ovvero un ggetto che assorbe ogni tipo di radiazione elettromagnetica da cui viene colpito, senza riflettere energia. Il principio di conservazione dell'energia tuttavia non permette di assorbire semplicemente energia e quindi un corpo nero riemette tutta l'energia che ha ricevuto sotto forma di radiazione. Le missioni COBE e WMAP hanno confermato le ipotesi che erano state fatte sul CMB. È stato infatti dimostrato come lo spettro della radiazione cosmica di fondo corrisponda esattamente a quello di un corpo nero. Il satellite Planck ha misurato le fluttuazioni in temperatura con una risoluzione che nessun altro satellite prima aveva fatto: circa 5 microkelvin rispetto ai 70 di COBE. Quest’alta risoluzione insieme alla capacita’ di misurare la polarizzazione di questa luce ci ha permesso di capire, misurare ed eliminare gli effetti della polvere (vedi immagine seguente) presente nella nostra galassia meglio di quanto fatto prima. Per ottenere le informazioni cosmologiche contenute in questo fondo e’ necessario conoscere tutti gli effetti che possono contaminare tale segnale. Una volta che il segnale e’ stato ripulito esso puo’ essere analizzato per estrarre tutta l’informazione possibile. Questo significa usare le fluttuazioni in temperatura su larga, intermedia e piccola scala per cercare di capire: · quanta materia normale, oscura ed energia oscura ci sono nell’universo· la loro distribuzione iniziale· la forma e curvatura dell’universo (vedi immagine seguente) E’ possibile anche analizzare le diverse varieta’ di luce polarizzata di questa radiazione e ottenere altre informazioni molto utili per gli scienziati. Grazie a Planck adesso conosciamo alcuni dei parametri cosmologici con una maggiore precisione, come per esempio la costante di Hubble che oggi sappiamo essere un numero tra 67 e 68 Km/s/Mpc. L’universo ha piu’ materia e si sta espandendo piu’ lentamente di quanto pensavamo prima. Prima dei risultati del satellite Planck, si pensava che l’universo fosse costituito per il 26% di materia e 74% di energia oscura con un tasso di espansione intorno a 70 Km/s/Mpc. Adesso invece la quantita’ di materia nell’universo corrisponde a circa il 31.5% (il cui 4.9% e’ materia normale e il rimanente materia oscura) mentre il 68.5% e’ energia oscura con una costante di Hubble di circa 67.4 Km/s/Mpc. Quest’ultima e’ in contrasto con altre misure che invece indicano un rate di 73 Km/s/Mpc. Questo punto e’ probabilmente una delle poche controversie ancora oggi rimanenti sul modello di universo. Grazie al satellite Planck sappiamo che ci sono solo 3 tipi di neutrino e la massa di ognuno di essi e’ non piu’ di 0.04 eV/c2, circa 10 milioni di volte meno massiccia di un elettrone. Un’altra indicazione e’ quella che l’universo e’ realmente piatto e la sua curvatura e’ non piu’ di 1 parte su 1000. A partire dall’intensita’ di questa radiazione di fondo e’ possibile utilizzare la trasformata di Fourier per ottenere lo spettro continuo delle fluttuazioni di temperatura. Per descrivere la distribuzione spaziale dell’intensita’ e quindi della temperatura si puo’ sfruttare il fatto che queste sono distribuite su una superficie sferica e quindi e’ possibile utilizzare una decomposizione in armoniche sferiche: dove Yl,m e’ la funzione armonica sferica di grado l ed ordine m. Di seguito lo spettro ottenuto da Planck. Esso tra le altre cose ha fornito anche una conferma della teoria dell’inflazione cosmica. Quest’ultima prevede che le fluttuazioni dell’universo al suo inizio dovrebbero essere pio’ o meno le stesse a tutte le scale con una piccolissima maggiore fluttuazione alle scale piu’ grandi. In accordo con i dati forniti da Planck questo significa che una delle quantita’ cosmologiche chiamata indice spettrale ed indicata con ns e’ prossima ad 1 (Planck da’ 0.965+/-0.05%) come ci si aspetta dalla teoria dell’inflazione. C’e’ anche un’altra questione a cui le misure di Planck possono dare un contributo. L’energia oscura che e’ estremamente sensibile alla radiazione di fondo e ai dati provenienti dall’universo ultra-distante (come le supernove di tipo Ia) e’ o no una costante cosmologica? Nel caso in cui lo fosse allora la sua equazione di stato indicata col parametro w dovrebbe essere esattamente pari a -1. Cosa dice Planck? Si e’ trovato un valore di -1.03 con una incertezza di solo 0.03. Dopo la missione Planck, anche altre quantita’ hanno mostrato delle differenze anche se molto piccole. L’universo e’ diventato leggermente piu’ vecchio. Siamo a 13.8 miliardi di anni verso i precedenti 13.7 miliardi di anni. La distanza del confine osservabile dell’universo e’ un po’ piu’ piccola di quanto pensavamo: 46.1 invece di 46.5 miliardi di anni luce. In definitiva possiamo dire che in base ai risultati del satellite Planck: · il modello dell’inflazione e’ confermato · esistono tre specie di neutrini · l’universo si sta espandendo piu’ lentamente di quanto pensavamo prima e non c’e’ alcuna evidenza di una sua curvatura · c’e’ un po’ piu’ materia oscura e materia standard di quanto pensavamo prima a scapito di un po’ meno di energia oscura. · non c’e’ alcuna evidenza a favore dei modelli Big Rip e Big crunch dell’universo Grazie alla missione Planck oggi abbiamo uno spettacolare accordo tra la radiazione di fondo (CMB) e le previsioni teoriche dell’universo contenente 5% di materia normale, 27% di materia oscura e 68% di energia oscura. Ci puo’ essere la possibilita’ di variazioni del 1-2% per questi valori, ma un universo senza materia oscura e senza energia oscura con i dati in nostro possesso non e’ pensabile. Entrambe sono reali e necessarie (vedi linea blu del grafico precedente per capire il buon accordo tra i dati teorici che prevedono la materia e l’energia oscura e i dati sperimentali rappresentati dai punti in rosso ottenuti da Planck). Per approfondire: https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82</itunes:subtitle><itunes:author>noreply@blogger.com (Felice)</itunes:author><itunes:summary>Sono ormai 50 anni da quando abbiamo scoperto un fondo di microonde che arriva sulla terra proveniente da tutte le regioni del cielo. Queste radiazioni non provengono dal sole, da galassie o altre stelle ma sono la luce residua del Big Bang che oggi chiamiamo radiazione cosmica di fondo detta anche semplicemente radiazione di fondo e indicata con l’acronimo inglese CMB. Le missioni satellitari realizzate negli anni passati hanno avute tutte lo scopo di studiare le caratteristiche principali di tale radiazione e verificarne l’accordo con le previsioni teoriche. L’ultima di queste missioni ha visto impegnato il satellite Planck dell’agenzia spaziale europea, lanciato nel 2009. Grazie ad esso la nostra visione dell’Universo e’ cambiata radicalmente. Vediamo perche’. L’immagine seguente mostra come la temperatura associata all’energia di questa radiazione fossile, 380000 anni dopo il Big Bang, non e’ uniforme in tutte le direzioni dello spazio in quanto mostra delle piccole variazioni dell’ordine delle centinaia di microkelvin (il colore blu indica temperature piu’ basse e quello rosso temperature piu’ alte). Per analizzare l'origine della radiazione cosmica di fondo è necessario tornare al periodo conosciuto come era della ricombinazione. Nell'Universo le condizioni cominciano a permettere la formazione di atomi di idrogeno, fenomeno detto appunto ricombinazione. L'energia di ionizzazione dell'idrogeno vale 13,6 eV, e dunque basta questa energia per staccare l'elettrone dal nucleo, ma a quel tempo la maggior parte dei fotoni possiede ancora un'energia maggiore di quel valore. Quindi ogni volta che un fotone interagisce con un atomo appena formatosi, quest'ultimo perde il proprio elettrone. Il fotone viene deflesso e questa interazione è descritta dal fenomeno chiamato scattering Thomson (figura seguente), responsabile dell'aspetto opaco dell'Universo di allora. Per questo motivo il cammino libero percorso dai fotoni tra una collisione e l'altra è estremamente breve e impedisce appunto la formazione di atomi stabili. Con il passare del tempo però l'Universo si espande, la temperatura cala e di conseguenza anche l'energia dei fotoni diminuisce, facendo decrescere sempre più il numero di essi in grado di ionizzare gli atomi di idrogeno. Al termine di questo processo si hanno gli elettroni nel loro stato fondamentale e i fotoni ormai non più in grado di interagire con essi. Cessa dunque il fenomeno di scattering e l'Universo passa da uno stato opaco ad uno trasparente. Si parla quindi di disaccoppiamento tra materia e radiazione, perché da questo momento in poi i fotoni sono liberi di propagarsi in moto perenne nell'Universo, senza essere più deflessi, costituendo ciò che oggi è conosciuta appunto come radiazione cosmica di fondo. Importante notare come ricombinazione e disaccoppiamento sono fenomeni distinti e non avvengono contemporaneamente. A partire dal 1983 sono stati condotti diversi esperimenti per ottenere più informazioni, tra cui soprattutto l'effettiva temperatura dei fotoni della radiazione cosmica di fondo. Sono tre le missioni spaziali più famose a questo riguardo: COBE, acronimo di Cosmic Background Explorer, del 1992, WMAP, ovvero Wilkinson Microwave Anisotropy Probe, del 2001 e Planck, lanciato nel 2009. Quest'ultima nasce con gli obiettivi di misurare con grande precisione il CMB, osservare strutture dell'Universo come alcuni ammassi di galassie, studiare l'effetto chiamato lente gravitazionale e stimare i parametri osservativi. Questi obiettivi, uniti alla tecnologia utilizzata nella realizzazione dell'esperimento, rendono questa missione la più importante delle tre. Grazie ai dati raccolti, soprattutto da Planck, si sono fatti importanti passi avanti in questo campo. Oggi si sa infatti che la radiazione cosmica di fondo corrisponde esattamente alla radiazione emessa da un corpo nero, a una temperaturaT0 = 2.725+/- 0.001 Ka cui corrisponde un’energia media di questi fotoni di solo 1.126*10-22 Joule. Un corpo nero è, fisicamente parlando, un radiatore ideale, ovvero un ggetto che assorbe ogni tipo di radiazione elettromagnetica da cui viene colpito, senza riflettere energia. Il principio di conservazione dell'energia tuttavia non permette di assorbire semplicemente energia e quindi un corpo nero riemette tutta l'energia che ha ricevuto sotto forma di radiazione. Le missioni COBE e WMAP hanno confermato le ipotesi che erano state fatte sul CMB. È stato infatti dimostrato come lo spettro della radiazione cosmica di fondo corrisponda esattamente a quello di un corpo nero. Il satellite Planck ha misurato le fluttuazioni in temperatura con una risoluzione che nessun altro satellite prima aveva fatto: circa 5 microkelvin rispetto ai 70 di COBE. Quest’alta risoluzione insieme alla capacita’ di misurare la polarizzazione di questa luce ci ha permesso di capire, misurare ed eliminare gli effetti della polvere (vedi immagine seguente) presente nella nostra galassia meglio di quanto fatto prima. Per ottenere le informazioni cosmologiche contenute in questo fondo e’ necessario conoscere tutti gli effetti che possono contaminare tale segnale. Una volta che il segnale e’ stato ripulito esso puo’ essere analizzato per estrarre tutta l’informazione possibile. Questo significa usare le fluttuazioni in temperatura su larga, intermedia e piccola scala per cercare di capire: · quanta materia normale, oscura ed energia oscura ci sono nell’universo· la loro distribuzione iniziale· la forma e curvatura dell’universo (vedi immagine seguente) E’ possibile anche analizzare le diverse varieta’ di luce polarizzata di questa radiazione e ottenere altre informazioni molto utili per gli scienziati. Grazie a Planck adesso conosciamo alcuni dei parametri cosmologici con una maggiore precisione, come per esempio la costante di Hubble che oggi sappiamo essere un numero tra 67 e 68 Km/s/Mpc. L’universo ha piu’ materia e si sta espandendo piu’ lentamente di quanto pensavamo prima. Prima dei risultati del satellite Planck, si pensava che l’universo fosse costituito per il 26% di materia e 74% di energia oscura con un tasso di espansione intorno a 70 Km/s/Mpc. Adesso invece la quantita’ di materia nell’universo corrisponde a circa il 31.5% (il cui 4.9% e’ materia normale e il rimanente materia oscura) mentre il 68.5% e’ energia oscura con una costante di Hubble di circa 67.4 Km/s/Mpc. Quest’ultima e’ in contrasto con altre misure che invece indicano un rate di 73 Km/s/Mpc. Questo punto e’ probabilmente una delle poche controversie ancora oggi rimanenti sul modello di universo. Grazie al satellite Planck sappiamo che ci sono solo 3 tipi di neutrino e la massa di ognuno di essi e’ non piu’ di 0.04 eV/c2, circa 10 milioni di volte meno massiccia di un elettrone. Un’altra indicazione e’ quella che l’universo e’ realmente piatto e la sua curvatura e’ non piu’ di 1 parte su 1000. A partire dall’intensita’ di questa radiazione di fondo e’ possibile utilizzare la trasformata di Fourier per ottenere lo spettro continuo delle fluttuazioni di temperatura. Per descrivere la distribuzione spaziale dell’intensita’ e quindi della temperatura si puo’ sfruttare il fatto che queste sono distribuite su una superficie sferica e quindi e’ possibile utilizzare una decomposizione in armoniche sferiche: dove Yl,m e’ la funzione armonica sferica di grado l ed ordine m. Di seguito lo spettro ottenuto da Planck. Esso tra le altre cose ha fornito anche una conferma della teoria dell’inflazione cosmica. Quest’ultima prevede che le fluttuazioni dell’universo al suo inizio dovrebbero essere pio’ o meno le stesse a tutte le scale con una piccolissima maggiore fluttuazione alle scale piu’ grandi. In accordo con i dati forniti da Planck questo significa che una delle quantita’ cosmologiche chiamata indice spettrale ed indicata con ns e’ prossima ad 1 (Planck da’ 0.965+/-0.05%) come ci si aspetta dalla teoria dell’inflazione. C’e’ anche un’altra questione a cui le misure di Planck possono dare un contributo. L’energia oscura che e’ estremamente sensibile alla radiazione di fondo e ai dati provenienti dall’universo ultra-distante (come le supernove di tipo Ia) e’ o no una costante cosmologica? Nel caso in cui lo fosse allora la sua equazione di stato indicata col parametro w dovrebbe essere esattamente pari a -1. Cosa dice Planck? Si e’ trovato un valore di -1.03 con una incertezza di solo 0.03. Dopo la missione Planck, anche altre quantita’ hanno mostrato delle differenze anche se molto piccole. L’universo e’ diventato leggermente piu’ vecchio. Siamo a 13.8 miliardi di anni verso i precedenti 13.7 miliardi di anni. La distanza del confine osservabile dell’universo e’ un po’ piu’ piccola di quanto pensavamo: 46.1 invece di 46.5 miliardi di anni luce. In definitiva possiamo dire che in base ai risultati del satellite Planck: · il modello dell’inflazione e’ confermato · esistono tre specie di neutrini · l’universo si sta espandendo piu’ lentamente di quanto pensavamo prima e non c’e’ alcuna evidenza di una sua curvatura · c’e’ un po’ piu’ materia oscura e materia standard di quanto pensavamo prima a scapito di un po’ meno di energia oscura. · non c’e’ alcuna evidenza a favore dei modelli Big Rip e Big crunch dell’universo Grazie alla missione Planck oggi abbiamo uno spettacolare accordo tra la radiazione di fondo (CMB) e le previsioni teoriche dell’universo contenente 5% di materia normale, 27% di materia oscura e 68% di energia oscura. Ci puo’ essere la possibilita’ di variazioni del 1-2% per questi valori, ma un universo senza materia oscura e senza energia oscura con i dati in nostro possesso non e’ pensabile. Entrambe sono reali e necessarie (vedi linea blu del grafico precedente per capire il buon accordo tra i dati teorici che prevedono la materia e l’energia oscura e i dati sperimentali rappresentati dai punti in rosso ottenuti da Planck). Per approfondire: https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82</itunes:summary><itunes:keywords>cosmologia, costante di hubble, curvatura, energia oscura, forma universo, materia oscura, radiazione cosmica di fondo, universo</itunes:keywords></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-605112546559074388</guid><pubDate>Thu, 16 Aug 2018 10:11:00 +0000</pubDate><atom:updated>2018-08-16T03:11:41.290-07:00</atom:updated><title>Quando alle particelle venne la massa</title><description>&lt;p&gt;&lt;br&gt;&lt;p align="justify"&gt;La massa è una grandezza onnipresente nella dinamica. Ma cosa è la massa di un corpo? Fin dalle scuole medie siamo stati abituati ad associare al concetto di massa quello di quantita’ di materia che costituisce un corpo, per cui quanto maggiore è la massa di un corpo tanto maggiore è la quantità di materia in esso contenuta. Da un punto di vista fisico però questa non è una definizione corretta. La massa come grandezza fisica compare la prima volta nella seconda legge di Newton (F=m*a) che stabilisce che la forza esercitata su un corpo di massa m è data dal prodotto della massa per l’accelerazione e che quindi quest’ultima è inversamente proporzionale alla forza. Ciò significa che presi due corpi di massa diversa se applichiamo ad essi la medesima forza otterremo un’accelerazione diversa; in particolare il corpo dotato di massa minore subirà l’accelerazione maggiore. Emerge cosi la definizione di massa: è quella caratteristica dei corpi che li induce ad opporsi alla modifica del loro stato di quiete o di moto. E’ infatti piu’ difficile accelerare oggetti con grandi masse rispetto a quelli con piccole masse.&lt;p align="justify"&gt;Questa è la definizione della cosiddetta &lt;a href="http://ebook.scuola.zanichelli.it/amalditraiettorie/volume-1/le-grandezze/la-massa-inerziale" target="_blank"&gt;&lt;font color="#80ffff"&gt;massa inerziale&lt;/font&gt;&lt;/a&gt; di un corpo. Ma la massa ha anche un’altra caratteristica diversa dall’inerzia, che è quella di esercitare una forza gravitazionale (F=G*(M*m)/d&lt;sup&gt;2&lt;/sup&gt;) su altri corpi attirandoli a sè in modo inversamente proporzionale al quadrato della distanza tra i corpi (legge di gravitazione universale). In questo caso si parla di &lt;a href="https://www.chimica-online.it/fisica/massa-gravitazionale.htm" target="_blank"&gt;&lt;font color="#80ffff"&gt;massa gravitazionale&lt;/font&gt;&lt;/a&gt;. La domanda sorge spontanea: c’è un qualche legame tra queste due definizioni? In genere si parla di massa senza preoccuparsi di specificare se sia quella inerziale o quella gravitazionale. Come mai? Perche’ esiste un principio chiamato il &lt;a href="https://it.wikipedia.org/wiki/Principio_di_equivalenza" target="_blank"&gt;&lt;font color="#80ffff"&gt;principio di equivalenza&lt;/font&gt;&lt;/a&gt; stabilito da Einstein nel 1907 che ce lo permette. Non c’e’ modo di distinguere gli effetti della gravita’ da quelli prodotti da un sistema di riferimento accelerato. Cosi la massa di un corpo che viene attratto dalla gravita’ terrestre non puo’ essere diversa da quella di un corpo soggetto ad un’accelerazione pari a quella terrestre in assenza &lt;a href="https://lh3.googleusercontent.com/-bU4dUkPCjFE/W3VNcXQxseI/AAAAAAAAH2I/5l_KBox_qSUGECk_ASDk932JVoHyroVcwCHMYCw/s1600-h/clip_image002%255B3%255D"&gt;&lt;img width="394" height="278" title="clip_image002" align="left" style="border-image: none; float: left; display: inline; background-image: none;" alt="clip_image002" src="https://lh3.googleusercontent.com/-2F6KGEfEB_g/W3VNdHpzN1I/AAAAAAAAH2M/pVbz7DdpZK4isK5Q2_yv_eH6Ah5F83LggCHMYCw/clip_image002_thumb?imgmax=800" border="0" hspace="12"&gt;&lt;/a&gt;di gravità. Quindi massa inerziale e massa gravitazionale sono la stessa cosa. Ma da dove deriva la massa dei corpi? Ovviamente dalla massa delle particelle ultime che costituiscono la nostra realta’ come quarks ed elettroni. E da dove viene la massa delle particelle elementari che costituiscono il nostro Universo? Per rispondere dobbiamo partire da molto lontano, circa 13.8 miliardi di anni fa. Nei primi istanti dopo il &lt;a href="https://en.wikipedia.org/wiki/Big_Bang" target="_blank"&gt;&lt;font color="#80ffff"&gt;Big Bang&lt;/font&gt;&lt;/a&gt;, l’Universo era molto caldo e pieno di &lt;a href="https://it.wikipedia.org/wiki/Particella_(fisica)" target="_blank"&gt;&lt;font color="#80ffff"&gt;particelle&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://it.wikipedia.org/wiki/Antiparticella" target="_blank"&gt;&lt;font color="#80ffff"&gt;antiparticelle&lt;/font&gt;&lt;/a&gt; e quanti di radiazione. Subito dopo ha iniziato ad espandersi raffreddandosi: le lunghezze d’onda di tutte le radiazioni sono state spostate a volori più alti e quindi ad energie piu’ basse (E=h/ʎ) in quanto stirate dall’estensione del &lt;a href="https://it.wikipedia.org/wiki/Spaziotempo" target="_blank"&gt;&lt;font color="#80ffff"&gt;tessuto spazio-temporale&lt;/font&gt;&lt;/a&gt;. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-HoFySlpd368/W3VNd8kUyqI/AAAAAAAAH2Q/BAQnCYtjTyUdh-oPPg4-o8keCkxGZH46QCHMYCw/s1600-h/clip_image004%255B3%255D"&gt;&lt;img width="307" height="264" title="clip_image004" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image004" src="https://lh3.googleusercontent.com/-eKbUX4qCN1o/W3VNem3BmNI/AAAAAAAAH2U/FPE5RrOQZRUnaRnYZsUxNZZYeSf9joOWQCHMYCw/clip_image004_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Se esistono &lt;a href="https://it.wikipedia.org/wiki/Particella_(fisica)" target="_blank"&gt;&lt;font color="#80ffff"&gt;particelle&lt;/font&gt;&lt;/a&gt; o &lt;a href="https://it.wikipedia.org/wiki/Antiparticella" target="_blank"&gt;&lt;font color="#80ffff"&gt;antiparticelle&lt;/font&gt;&lt;/a&gt; che oggi ancora non abbiamo scoperte, di sicuro vennero create nei primi istanti di vita dell’Universo quando esso era caldissimo e c’era abbastanza energia per creare qualsiasi particella o antiparticella grazie all’equazione di Einstein E=mc&lt;sup&gt;2&lt;/sup&gt;. Comunque le particelle massive come le conosciamo oggi a quei tempi ancora non avevano massa. E quindi viaggiavano alla velocità della luce come fanno oggi i &lt;a href="https://it.wikipedia.org/wiki/Fotone" target="_blank"&gt;&lt;font color="#80ffff"&gt;fotoni&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://en.wikipedia.org/wiki/Gluon" target="_blank"&gt;&lt;font color="#80ffff"&gt;gluoni&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Onda_gravitazionale" target="_blank"&gt;&lt;font color="#80ffff"&gt;onde gravitazionali&lt;/font&gt;&lt;/a&gt; che sono i mediatori (&lt;a href="https://it.wikipedia.org/wiki/Bosone_di_gauge" target="_blank"&gt;&lt;font color="#80ffff"&gt;bosoni di gauge&lt;/font&gt;&lt;/a&gt;) delle &lt;a href="https://it.wikipedia.org/wiki/Interazione_elettromagnetica" target="_blank"&gt;&lt;font color="#80ffff"&gt;interazioni elettromagnetiche&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://it.wikipedia.org/wiki/Interazione_forte" target="_blank"&gt;&lt;font color="#80ffff"&gt;nucleari forti&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Interazione_gravitazionale" target="_blank"&gt;&lt;font color="#80ffff"&gt;gravitazionali&lt;/font&gt;&lt;/a&gt; rispettivamente. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-qMaSf8ukZ5Y/W3VNfcP_A7I/AAAAAAAAH2Y/H7-6eEpi0cAhopRPeEsOnaZSMOe1G7VNgCHMYCw/s1600-h/image%255B7%255D"&gt;&lt;img width="435" height="164" title="image" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="image" src="https://lh3.googleusercontent.com/-ztk23EmQWno/W3VNgJf2nBI/AAAAAAAAH2c/wUoX4D9YuFA9ZSnXlXpEyyTTx2yMa6u7QCHMYCw/image_thumb%255B3%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Come mai le particelle si trovavano in uno stato cosi diverso da quello di oggi? Perchè la simmetria del &lt;a href="https://it.wikipedia.org/wiki/Interazione_elettrodebole" target="_blank"&gt;&lt;font color="#80ffff"&gt;campo elettrodebole&lt;/font&gt;&lt;/a&gt; che dà vita al &lt;a href="https://it.wikipedia.org/wiki/Bosone_di_Higgs" target="_blank"&gt;&lt;font color="#80ffff"&gt;bosone di Higgs&lt;/font&gt;&lt;/a&gt; ancora non si era rotta. Si trattava di un mondo molto diverso da quello di oggi. Non c’erano atomi, non c’era la tabella periodica, non c’era biologia, non c’erano stelle e non c’eravamo noi. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-9m-JYiI8Ba0/W3VNhLlOejI/AAAAAAAAH2g/VaTeUCR86yAF75bShWIvZNuYfEKG5gmZACHMYCw/s1600-h/clip_image008%255B3%255D"&gt;&lt;img width="491" height="298" title="clip_image008" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image008" src="https://lh3.googleusercontent.com/-cCXHAU9wC7k/W3VNhisIQuI/AAAAAAAAH2k/KgpSEN5oj6oJTF3L3Q2-Yo6oMZegjkjSwCHMYCw/clip_image008_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Se oggi diamo uno sguardo al &lt;a href="https://it.wikipedia.org/wiki/Modello_standard" target="_blank"&gt;&lt;font color="#80ffff"&gt;Modello Standard&lt;/font&gt;&lt;/a&gt; esso e’ organizzato come segue:&lt;p align="justify"&gt;· 6 &lt;a href="https://en.wikipedia.org/wiki/Quark" target="_blank"&gt;&lt;font color="#80ffff"&gt;quarks&lt;/font&gt;&lt;/a&gt;, ognuno dei quali in 3 stati di colore diversi e le loro controparti (&lt;a href="https://it.wikipedia.org/wiki/Antiquark" target="_blank"&gt;&lt;font color="#80ffff"&gt;antiquarks&lt;/font&gt;&lt;/a&gt;) &lt;p align="justify"&gt;· 3 &lt;a href="https://en.wikipedia.org/wiki/Lepton" target="_blank"&gt;&lt;font color="#80ffff"&gt;leptoni&lt;/font&gt;&lt;/a&gt; carichi (e, μ, τ) e 3 neutri (ν&lt;sub&gt;e&lt;/sub&gt;, ν&lt;sub&gt;μ&lt;/sub&gt;, ν&lt;sub&gt;τ&lt;/sub&gt;) e la loro controparte di &lt;a href="https://it.wikipedia.org/wiki/Antimateria" target="_blank"&gt;&lt;font color="#80ffff"&gt;antimateria&lt;/font&gt;&lt;/a&gt; &lt;p align="justify"&gt;· 8 &lt;a href="https://it.wikipedia.org/wiki/Gluone" target="_blank"&gt;&lt;font color="#80ffff"&gt;gluoni&lt;/font&gt;&lt;/a&gt; senza massa che mediano la forza nucleare forte tra i quarks&lt;p align="justify"&gt;· 3 &lt;a href="https://it.wikipedia.org/wiki/Bosoni_W%27_e_Z%27" target="_blank"&gt;&lt;font color="#80ffff"&gt;bosoni pesanti&lt;/font&gt;&lt;/a&gt; (W+, W-, and Z&lt;sub&gt;0&lt;/sub&gt;) che mediano la forza nucleare debole &lt;p align="justify"&gt;· il fotone (γ), senza massa e mediatore della forza elettromagnetica&lt;p align="justify"&gt;All’inizio della storia dell’Universo pero’ come detto prima le cose non stavano cosi in quanto la &lt;a href="http://www.fisicaparticelle.altervista.org/elettrodebole.html" target="_blank"&gt;&lt;font color="#80ffff"&gt;simmetria elettrodebole&lt;/font&gt;&lt;/a&gt; ancora non era stata infranta. Invece dei bosoni dell’interazione debole ed elettromagnetica che conosciamo oggi (W+, W-, Z&lt;sub&gt;0&lt;/sub&gt;, γ), c’erano 4 bosoni per la forza elettrodebole (W&lt;sub&gt;1&lt;/sub&gt;, W&lt;sub&gt;2&lt;/sub&gt;, W&lt;sub&gt;3&lt;/sub&gt;, B) e tutti senza massa. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-JrGmVokKx-w/W3VNickVrgI/AAAAAAAAH2o/JT0zG2YRt1UdpKVjHmbvc_UUAJloCcAVwCHMYCw/s1600-h/clip_image010%255B3%255D"&gt;&lt;img width="408" height="94" title="clip_image010" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image010" src="https://lh3.googleusercontent.com/-6brabF25UKY/W3VNkGLtppI/AAAAAAAAH2s/XEelFMTKx7IKd8AnS0ts71qGHY0G6f5OACHMYCw/clip_image010_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Le altre particelle erano le stesse di oggi ad eccezione del fatto che non avevano ancora la massa. Questo era quello che fluttuava nell’Universo primordiale con continui scontri, &lt;a href="https://it.wikipedia.org/wiki/Annichilazione" target="_blank"&gt;&lt;font color="#80ffff"&gt;annichilazioni&lt;/font&gt;&lt;/a&gt; e creazione di particelle, tutte in moto alla velocità della luce. Tutto questo fino a quando l’energia dell’Universo scese al di sotto di un valore critico. Fino a questo momento il campo di Higgs lo si può pensare come del vino all’interno di una bottiglia. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-FU7IWSWCtVo/W3VNkpyd3jI/AAAAAAAAH2w/H_jPsNa13Y4obTUV2yF3-m0IXVN7YdsYQCHMYCw/s1600-h/clip_image012%255B4%255D"&gt;&lt;img width="192" height="282" title="clip_image012" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image012" src="https://lh3.googleusercontent.com/-qKl3xUy1NCo/W3VNleMoi4I/AAAAAAAAH20/7AN5JRjEAsEQWRnlP25sqPcR7EnnvuqnACHMYCw/clip_image012_thumb%255B1%255D?imgmax=800" border="0" hspace="12"&gt;&lt;/a&gt;Quando il livello del vino e’ alto, se una goccia di olio cade nella bottiglia, essa rimarrà in superficie in un punto qualsiasi di un disco. Come il livello del liquido si abbassa, il fondo della bottiglia comincia ad emergere dal livello del vino che rimane separato in due diverse zone guardando la bottiglia esattamente di fronte a noi. Se adesso nella bottiglia cade una goccia di olio questa non potra’ andare ovunque come prima. Cadra’ di sicuro nel liquido che questa volta pero’ e’ &lt;a href="https://lh3.googleusercontent.com/-gMM45brNmLM/W3VNmHoq2oI/AAAAAAAAH24/dAGsKtj8GqE0FV0gcdRx3M8g0dsJqGaxwCHMYCw/s1600-h/clip_image014%255B4%255D"&gt;&lt;img width="278" height="99" title="clip_image014" align="left" style="margin: 0px 12px; border: 0px currentcolor; border-image: none; float: left; display: inline; background-image: none;" alt="clip_image014" src="https://lh3.googleusercontent.com/-bAIFoz_CSdA/W3VNmpNnN2I/AAAAAAAAH28/i81i-CPHaDMqZJMcWtNH-I81D0wyIizIACHMYCw/clip_image014_thumb%255B1%255D?imgmax=800" border="0" hspace="12"&gt;&lt;/a&gt;concentrato in un anello intorno al rialzo del fondo della bottiglia. Questo e’ quello che in fisica si chiama una rottura spontanea di simmetria. Quando succede questo il campo di Higgs si deposita sul fondo in uno stato di equilibrio di minima energia. Che comunque non è proprio zero ed è chiamato lo stato non nullo del vuoto. Mentre con la simmetria rispettata (bottiglia piena) le particelle non hanno massa, con quella rotta (bottiglia quasi vuota o vuota) cambia tutto.&lt;p align="justify"&gt;Il primo a pensare a questo tipo di campo fu un fisico il cui cognome è proprio quello che oggi porta la particella piu’ importante del momento: &lt;a href="https://en.wikipedia.org/wiki/Peter_Higgs" target="_blank"&gt;&lt;font color="#80ffff"&gt;Higgs&lt;/font&gt;&lt;/a&gt;. Egli nei primi anni sessanta oltre ai campi quantistici che caratterizzano le quattro forze fondamentali ipotizzò l’esistenza di un ulteriore campo &lt;i&gt;phi&lt;/i&gt; che doveva  pervadere l’intero spazio, e la cui energia poteva essere espressa come:&lt;p align="justify"&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; E(phi) =alpha*phi&lt;sup&gt;2&lt;/sup&gt;+beta*phi&lt;sup&gt;4&lt;/sup&gt;.&lt;p align="justify"&gt;Quando l’età dell’universo era inferiore a 10&lt;sup&gt;-11&lt;/sup&gt; secondi, e la temperatura era superiore a 10&lt;sup&gt;15&lt;/sup&gt; gradi Kelvin, il campo di Higgs era effettivamente nullo perché, i parametri alpha e beta erano entrambi positivi e la minima energia si realizzava per phi=0 (vedi immagine seguente). Ma il raffreddamento dell’universo conseguente alla sua espansione portò ad una transizione di fase, riducendo il parametro alpha fino a renderlo negativo. L’energia del campo di Higgs assunse allora la tipica forma a sombrero dando luogo ad una situazione paradossale: la minima energia non si realizzava più per un valore nullo del campo, ma per uno dei valori caratterizzanti il “fondovalle” circolare. Scivolando ca&lt;a href="https://lh3.googleusercontent.com/-BMjXOsck3iw/W3VNnRjbSEI/AAAAAAAAH3A/5NRZret4cU8EoUcPdsGhqXjFyUeYUR2HwCHMYCw/s1600-h/image%255B45%255D"&gt;&lt;img width="150" height="301" title="image" align="left" style="border: 0px currentcolor; border-image: none; float: left; display: inline; background-image: none;" alt="image" src="https://lh3.googleusercontent.com/-jjeXyeyz2Pc/W3VNoF_7_bI/AAAAAAAAH3E/A0r4DsK-NMAM9jgOz4ye71V04ncXJ7BZwCHMYCw/image_thumb%255B39%255D?imgmax=800" border="0"&gt;&lt;/a&gt;sualmente verso uno di questi valori il campo di Higgs operò una rottura di simmetria in quanto aveva selezionato un punto particolare tra tutti quelli (inizialmente equivalenti) del canyon. Osserviamo che la condizione con alpha positivo e beta negativo non e’ possibile in quanto la minima energia del sistema si ottiene per valori infiniti di phi. La rottura di simmetria del campo di Higgs ha portato ad una distinzione “tangibile” tra i vari bosoni. La sua comparsa ha prodotto una distinzione tra i fotoni, che non interagiscono col campo stesso e che hanno quindi continuato ad essere privi di massa, e i bosoni W e Z, che ne hanno acquisita una. Pertanto, la forza trasportata dai fotoni ha mantenuto un raggio di azione infinito, mentre quella veicolata dai bosoni W e Z lo ha ridotto drammaticamente, “sdoppiando” la forza elettrodebole originaria in forza elettromagnetica e forza debole. La comparsa di un mare di bosoni di Higgs che pervade l’intero spazio ha naturalmente dato origine alla massa di tutte le altre particelle, siano esse “materiali” quali i quark e gli elettroni, oppure mediatrici di forze (gli altri bosoni quali i gluoni, relativamente alla forza forte, e i gravitoni, relativamente alla forza gravitazionale). La stessa massa dei bosoni di Higgs è dovuta all’interazione di ognuno di essi con gli altri circostanti. In seguito al raffreddamento dell’Universo c’e’ stata una transizione spontanea di fase del campo di Higgs che ha acquistato cosi le caratteristiche odierne. Non è difficile imbattersi in sistemi fisici che subiscono una transizione di fase regolata da un parametro d’ordine quale, ad esempio, la temperatura. Il caso più comune è dato dall’acqua che, raffreddandosi al di sotto di 0 ºC, passa dallo stato liquido a quello solido. In questo passaggio essa riduce la propria simmetria. Poiché questo avviene senza alcun intervento esterno, si parla di rottura spontanea di simmetria. Tale rottura non è una specifica conseguenza dell’esempio appena discusso, ma è un risultato generale associato a qualunque tipo di transizione di fase, indipendentemente dal sistema fisico coinvolto. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-PfsMNwanvpg/W3VNohCi_pI/AAAAAAAAH3I/r0EYUxPjaCI685kmAdslKzzizRXYXeJpwCHMYCw/s1600-h/clip_image018%255B3%255D"&gt;&lt;img width="281" height="163" title="clip_image018" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image018" src="https://lh3.googleusercontent.com/-OjyZkwKnOOk/W3VNpfcuHpI/AAAAAAAAH3M/WdmEC5cXru41zwu43Bz1LHs-tO977PTdACHMYCw/clip_image018_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Allo stato liquido le molecole hanno grande mobilità e, nel loro insieme, hanno una distribuzione caotica. Per temperature inferiori a 0 ºC le molecole si “incastrano” tra loro formando celle esagonali. Benché il ghiaccio possa apparire più simmetrico dell’acqua, in realtà è vero il contrario. L’aspetto caotico dell’acqua, infatti, non cambia, da qualunque punto di vista la si osservi: in altre parole, l’acqua è altamente simmetrica perché invariante per qualunque tipo di rotazione. Il ghiaccio, invece, è invariante solo per rotazioni di (multipli di) 60 gradi, e presenta quindi una simmetria inferiore.&lt;p align="justify"&gt;Torniamo al campo di Higgs. Una volta che viene rotta la simmetria, il campo di Higgs origina 4 masse due cariche e due neutre e accadono le seguenti cose:&lt;p align="justify"&gt;· Le particelle W&lt;sub&gt;1&lt;/sub&gt; e W&lt;sub&gt;2&lt;/sub&gt; “mangiano” i bosoni carichi del campo di Higgs diventando le particelle W+ e W- di oggi&lt;p align="justify"&gt;· La particella W&lt;sub&gt;3&lt;/sub&gt; e B si mescolano insieme con una combinazione che “mangia” il bosone neutro del campo di Higgs diventando cosi il bosone Z&lt;sub&gt;0&lt;/sub&gt;, e l’altra combinazione rimanendo a digiuno diventando il fotone senza massa che conosciamo oggi (γ).&lt;p align="justify"&gt;· L’ultimo bosone di Higgs nato dalla rottura della simmetria guadagna massa e diventa quello che oggi chiamiamo il bosone di Higgs. &lt;p align="justify"&gt;· Infine il bosone di Higgs si accoppia a tutte le particelle del modello Standard dando origine alla massa dell’Universo. &lt;p align="justify"&gt;Questa in breve e’ la storia dell’origine della massa dell’Universo.&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-L4C4hauW21g/W3VNqNDSoKI/AAAAAAAAH3Q/L6ZyYVDt-FAv-Zsx9by17hPaHXXWt-UNwCHMYCw/s1600-h/clip_image020%255B3%255D"&gt;&lt;img width="337" height="235" title="clip_image020" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image020" src="https://lh3.googleusercontent.com/-i1oxZ25dLa0/W3VNq7hvYFI/AAAAAAAAH3U/vAnlpOI3QRQHXQGH3wyCHvzwr1dH4ireACHMYCw/clip_image020_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Questo processo e’ chiamato rottura spontanea della simmetria. E per i leptoni e i quarks del modello Standard, quando questa simmetria di Higgs viene rotta, ogni particella ottiene massa per due motivi:&lt;p align="justify"&gt;1. Il valore di &lt;a href="https://it.wikipedia.org/wiki/Meccanismo_di_Higgs" target="_blank"&gt;&lt;font color="#80ffff"&gt;aspettazione&lt;/font&gt;&lt;/a&gt; del campo di Higgs (il suo valore medio pari a 246 GeV)&lt;p align="justify"&gt;2. &lt;a href="http://www.treccani.it/enciclopedia/costante-di-accoppiamento_%28Enciclopedia-della-Scienza-e-della-Tecnica%29/" target="_blank"&gt;&lt;font color="#80ffff"&gt;Una costante di accoppiamento&lt;/font&gt;&lt;/a&gt;&lt;p align="justify"&gt;Il valore di aspettazione del campo di Higgs e’ lo stesso per tutte le particelle e non molto difficile da determinare. La costante di accoppiamento invece non solo e’ diversa per ognuna delle particelle del Modello Standard ma e’ anche arbitraria. Qui di seguito un’immagine che mostra come il bosone di Higgs dopo la rottura di simmetria si e’ accoppiato ai &lt;a href="https://it.wikipedia.org/wiki/Quark_(particella)" target="_blank"&gt;&lt;font color="#80ffff"&gt;quarks&lt;/font&gt;&lt;/a&gt;, &lt;a href="https://it.wikipedia.org/wiki/Leptone" target="_blank"&gt;&lt;font color="#80ffff"&gt;leptoni&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Bosoni_W_e_Z" target="_blank"&gt;&lt;font color="#80ffff"&gt;bosoni W e Z&lt;/font&gt;&lt;/a&gt; dandogli massa. Non si e’ accoppiato con i fotoni e gluoni e questo fa si che queste particelle non abbiano massa. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-1x6yXZCVAS0/W3VNrlUgaVI/AAAAAAAAH3Y/FxjNqYpQanAsCBm3xeaw-RGzy7jU1g77ACHMYCw/s1600-h/clip_image022%255B3%255D"&gt;&lt;img width="441" height="316" title="clip_image022" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image022" src="https://lh3.googleusercontent.com/-CR1moeJg66w/W3VNsFiCf2I/AAAAAAAAH3c/UA8NmoquiVIVOPtLrfvKAt_FB-VezEWhQCHMYCw/clip_image022_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-2kTkFUtAcew/W3VNsxC_yoI/AAAAAAAAH3g/dTze5BkFKHwl56de6neAhArB0X2lEezDACHMYCw/s1600-h/clip_image024%255B3%255D"&gt;&lt;img width="457" height="357" title="clip_image024" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image024" src="https://lh3.googleusercontent.com/-cLTdsVOZrtY/W3VNttnXdiI/AAAAAAAAH3o/WytZIYz5knUHE8pGjbUVD3ckE82kIzoVQCHMYCw/clip_image024_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-Gmo4zw4Petk/W3VNuY9dc4I/AAAAAAAAH3s/5XGiWX8UYHMASkgbMBA8i6axUpaO0ay8wCHMYCw/s1600-h/clip_image025%255B4%255D"&gt;&lt;img width="384" height="247" title="clip_image025" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image025" src="https://lh3.googleusercontent.com/-yqsp5zVOSBE/W3VNvM9ESuI/AAAAAAAAH3w/-8qGVlOZblUg0dNibxDfc9Obyu_eAGVjgCHMYCw/clip_image025_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-2R1XQyKScQg/W3VNvw46z0I/AAAAAAAAH34/h2jzaCZtFt8-mWJ22-RGEHLiCJtula-HwCHMYCw/s1600-h/image%255B3%255D"&gt;&lt;img width="413" height="296" title="image" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="image" src="https://lh3.googleusercontent.com/-QHynVHTW7Mo/W3VNwvKKHKI/AAAAAAAAH38/fSdF4-tRS7868YeBNckcu_cKiybbg4mHACHMYCw/image_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;A questo punto sappiamo che le particelle hanno massa, sappiamo come l’hanno ottenuta e quali sono le particelle responsabili. Ma ancora non abbiamo nessuna idea del perche’ le particelle abbiano proprio questi valori di massa e non altri. Esse hanno valori che coprono ben 7 ordini di grandezza con i neutrini essendo le particelle piu’ leggere e il top quark quelle piu’ pesanti.&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-31Wg-xOsMmE/W3VNxt_T8AI/AAAAAAAAH4A/GqgjPQooJeouzOy-ANM94e2BC0_GqByCQCHMYCw/s1600-h/clip_image028%255B4%255D"&gt;&lt;img width="300" height="336" title="clip_image028" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image028" src="https://lh3.googleusercontent.com/-FU9h-66KfaQ/W3VNyZUsdwI/AAAAAAAAH4E/bYM2ZMTmKyMaP3OUcI4EZv8XLyyfYPbLACHMYCw/clip_image028_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Una volta che l’Universo ha acquistato la massa ha iniziato a fare cose che prima non poteva fare. Adesso mentre si raffredda puo’ creare particelle come protoni e neutroni. Creare successivamente i nuclei atomici e gli atomi neutri. Dopo un lasso di tempo molto lungo possono nascere le stelle, le galassie, i pianeti e finalmente la vita. Senza il bosone di Higgs nulla di tutto questo poteva accadere. Grazie al suo campo e il suo accoppiamento l’Universo e’ diventato quello che e’. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-7guaPR-D5lM/W3VNzCsI0JI/AAAAAAAAH4I/2Zs8tynEJ0IuW0w5QtkgIBe4rcVYBfKZgCHMYCw/s1600-h/clip_image030%255B5%255D"&gt;&lt;img width="390" height="265" title="clip_image030" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image030" src="https://lh3.googleusercontent.com/-ETKjk4RgU1Y/W3VNz0ugGwI/AAAAAAAAH4M/HnCDoUHt18wt6C_5Jp2GuOJeSaCutQPJwCHMYCw/clip_image030_thumb%255B2%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;La scoperta del bosone di Higgs ha ulteriormente confermato la validita’ del modello standard che permette di descrivere l’Universo (ad eccezione della gravita’) con una formula (&lt;a href="https://it.wikipedia.org/wiki/Lagrangiana" target="_blank"&gt;&lt;font color="#80ffff"&gt;Lagrangiana&lt;/font&gt;&lt;/a&gt;, funzione data dalla differenza tra energia cinetica e quella potenziale di un sistema) molto elegante:&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-PBd-KiH0Qn0/W3VN0g8wArI/AAAAAAAAH4Q/L_NKMrSOWlgKTMe1Axu7Vjv7srdoChttACHMYCw/s1600-h/clip_image032%255B22%255D"&gt;&lt;img width="454" height="57" title="clip_image032" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image032" src="https://lh3.googleusercontent.com/-_FtUPr-qZz8/W3VN1HmogpI/AAAAAAAAH4U/0uInavwwlfE6ga-I389cwBYZbf8Kkk6sQCHMYCw/clip_image032_thumb%255B19%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;I protagonisti della lagrangiana del modello standard sono i campi, più fondamentali delle particelle dopo l’affermarsi del &lt;a href="https://it.wikipedia.org/wiki/Principio_di_indeterminazione_di_Heisenberg" target="_blank"&gt;&lt;font color="#80ffff"&gt;principio di indeterminazione di Heisenberg&lt;/font&gt;&lt;/a&gt; nella seconda metà degli anni venti del ’900. I campi sono quantità di vario genere con valori assegnati in ogni punto dello spazio e del tempo, mentre le particelle (l’elettrone, il fotone, ecc.) sono vibrazioni localizzate dei corrispondenti campi (il campo dell’elettrone, il campo elettromagnetico nel caso del fotone, ecc.), simili alle onde di un lago altrimenti calmo. Nel primo pezzo della lagrangiana, compaiono i campi dei mediatori delle interazioni elettromagnetiche (il fotone, “scoperto” da Einstein nel 1905), delle interazioni deboli (i bosoni W e Z, la cui scoperta valse il premio Nobel a &lt;a href="https://en.wikipedia.org/wiki/Carlo_Rubbia" target="_blank"&gt;&lt;font color="#80ffff"&gt;Carlo Rubbia&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Simon_van_der_Meer" target="_blank"&gt;&lt;font color="#80ffff"&gt;Simon van der Meer&lt;/font&gt;&lt;/a&gt;) e delle interazioni forti (i gluoni, rivelati nel laboratorio Desy ad Amburgo alla fine degli anni settanta). Nel secondo e fino al quinto pezzo della lagrangiana intervengono i costituenti veri e propri della materia, denotati globalmente con la lettera greca Ψ: l’elettrone, il neutrino e i due quark, up e down, che sono i principali componenti del protone e del neutrone. In realtà, nel quarto pezzo, il campo Ψ porta un indice “i” o “j”, a ricordare che i campi di materia esistono in tre repliche, dunque “i, j” da 1 a 3, con interazioni identiche fra loro ma con masse diverse. È nell’universo primordiale che le repliche più pesanti, inizialmente scoperte nei &lt;a href="https://it.wikipedia.org/wiki/Raggi_cosmici" target="_blank"&gt;&lt;font color="#80ffff"&gt;raggi cosmici&lt;/font&gt;&lt;/a&gt; (il &lt;a href="https://it.wikipedia.org/wiki/Muone" target="_blank"&gt;&lt;font color="#80ffff"&gt;muone&lt;/font&gt;&lt;/a&gt; e il &lt;a href="https://en.wikipedia.org/wiki/Strange_quark" target="_blank"&gt;&lt;font color="#80ffff"&gt;quark strange&lt;/font&gt;&lt;/a&gt;) e prodotte artificialmente negli acceleratori di alta energia (il &lt;a href="https://it.wikipedia.org/wiki/Leptone" target="_blank"&gt;&lt;font color="#80ffff"&gt;leptone&lt;/font&gt;&lt;/a&gt; tau e i &lt;a href="https://it.wikipedia.org/wiki/Quark_(particella)" target="_blank"&gt;&lt;font color="#80ffff"&gt;quark&lt;/font&gt;&lt;/a&gt; top, bottom e charm), vivono democraticamente insieme alla prima, quella di cui siamo fatti anche noi (l’elettrone e i quark up e down). Infine negli ultimi due pezzi, ma già anche nel quarto pezzo, compare il campo di Higgs, denotato con la lettera greca Φ, ultimo a completare il quadro delle particelle previste e scoperte nel modello standard: una progressione iniziata nel 1897 con la scoperta dell’elettrone e terminata nel 2012 con il bosone di Higgs. Chiudiamo in bellezza. Qui di seguito la formula per esteso della Lagrangiana del Modello Standard. E’ vero, il nostro Universo e’ scritto con il linguaggio della matematica, ma le formule non sono cosi semplici come quelle di Newton. Sono molto piu’ complesse specialmente se pensiamo che ancora manca il contributo della gravita’ che resiste a tutti gli attacchi dei fisici che la vogliono quantizzare. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-wWJnzE7E7y4/W3VN1704Q4I/AAAAAAAAH4Y/UAcvki33Qj0X0rKjFQobWzAMF_KeV9MqwCHMYCw/s1600-h/clip_image034%255B4%255D"&gt;&lt;img width="247" height="428" title="clip_image034" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image034" src="https://lh3.googleusercontent.com/-qU5cRs0bitw/W3VN2zN1hzI/AAAAAAAAH4c/OFo6KBXYDJUr4ndPK9k_RVt-CDMq5oxlACHMYCw/clip_image034_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;</description><link>http://quantidiscienza.blogspot.com/2018/08/quando-alle-particelle-venne-la-massa.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://lh3.googleusercontent.com/-2F6KGEfEB_g/W3VNdHpzN1I/AAAAAAAAH2M/pVbz7DdpZK4isK5Q2_yv_eH6Ah5F83LggCHMYCw/s72-c/clip_image002_thumb?imgmax=800" width="72"/><thr:total>1</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-7960256737014768207</guid><pubDate>Sun, 22 Jul 2018 11:34:00 +0000</pubDate><atom:updated>2023-04-16T08:29:34.624-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">calore</category><category domain="http://www.blogger.com/atom/ns#">conduzione</category><category domain="http://www.blogger.com/atom/ns#">convezione</category><category domain="http://www.blogger.com/atom/ns#">cottura</category><category domain="http://www.blogger.com/atom/ns#">fisica</category><category domain="http://www.blogger.com/atom/ns#">irraggiamento</category><category domain="http://www.blogger.com/atom/ns#">legge di fourier</category><category domain="http://www.blogger.com/atom/ns#">pizza</category><category domain="http://www.blogger.com/atom/ns#">pizza napoletana</category><category domain="http://www.blogger.com/atom/ns#">termodinamica</category><title>Cucinare una pizza: questione di fisica e non solo</title><description>&lt;p&gt;&lt;br&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;div class="separator" style="clear: both;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbZFGGTcN8RaBEjOAGdQ0ERH1x5lI3pxBGE9v3z1RC664E_JCoKiskaMoNK3r0ApKr0TnSoHfwcqa7h7Go88Htr-_enWrHjTO06tVdiL2404Y0QBc_Hch0yi4ckWrvscimdhNW6_vD3LJ7SMWNVYLcOWIcFL9J2mFKEgTYZfjKc1YVu8Soo2Ec0A/s126/Immagine21.jpg" style="display: block; padding: 1em 0; text-align: center; clear: left; float: left;"&gt;&lt;img alt="" border="0" width="200" data-original-height="95" data-original-width="126" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbZFGGTcN8RaBEjOAGdQ0ERH1x5lI3pxBGE9v3z1RC664E_JCoKiskaMoNK3r0ApKr0TnSoHfwcqa7h7Go88Htr-_enWrHjTO06tVdiL2404Y0QBc_Hch0yi4ckWrvscimdhNW6_vD3LJ7SMWNVYLcOWIcFL9J2mFKEgTYZfjKc1YVu8Soo2Ec0A/s200/Immagine21.jpg"/&gt;&lt;/a&gt;&lt;/div&gt;&lt;/a&gt;Cuocere una pizza puo’ apparire un processo molto semplice a chi come noi e’ abituato a vedere questo disco di pasta uscire velocemente da un forno ed essere servito a tavola per la gioia di chi attende. Eppure in questo semplice processo c’e’ tanta fisica che tre studiosi hanno provato ad analizzare in un loro articolo apparso su &lt;a href="https://arxiv.org/"&gt;&lt;font color="#80ffff"&gt;arxiv&lt;/font&gt;&lt;/a&gt; nel mese di Giugno. Il loro obiettivo e’ stato quello di analizzare e confrontare la cottura di una pizza in un forno a legna e in uno elettrico. I principi e le equazioni chiamate in causa sono quelle della &lt;a href="https://it.wikipedia.org/wiki/Termodinamica"&gt;&lt;font color="#80ffff"&gt;termodinamica&lt;/font&gt;&lt;/a&gt;, una branca della fisica. &lt;/p&gt;&lt;p align="justify"&gt;Quando si parla di pizza, tutti pensano a Napoli anche se l’origine della pizza è molto piu’ antica. Nel Neolitico tra la Cina e le Americhe c’era gia’ l’abitudine di preparare  delle focacce non lievitate fatte con farina di grano tenero (farro, orzo) che venivano  poi cotte su pietre riscaldate. La parola pizza compare per la prima volta su una pergamena latina dove viene riportata una lista di donazioni fatte da un proprietario terriero al vescovo di Gaeta. Il documento datato al 996 d.C. stabiliva il dono di 12 pizze ogni Natale e Pasqua. La pizza comunque come la conosciamo oggi di sicuro e’ un invenzione dei napoletani, che aggiunsero gli ingredienti universalmente associato oggi alla pizza: pomodoro e mozzarella. I napoletani iniziarono ad usare il pomodoro dopo che Colombo ritorno’ dalle Americhe. Esso appare per la prima volta in un libro di cucina “Cuoco galante” del 1819, scritto dal cuoco Vincenzo Corrado. La mozzarella invece viene citata per la prima volta nel libro di ricette “Opera” del 1570 a cura di Bartolomeo Scappi. Diversi documenti dimostrano che fino al 18 secolo la pizza napoletana era un semplice disco di pasta cotto o fritto, con sopra lardo, formaggio pecorino, olive, sale o piccoli pesci chiamati&lt;font color="#80ffff"&gt; &lt;/font&gt;&lt;a href="https://it.wikipedia.org/wiki/Bianchetti"&gt;&lt;font color="#80ffff"&gt;cecinielli&lt;/font&gt;&lt;/a&gt;. Durante il 19 secolo ci furono fino a 200 pizzaioli sparsi per i vicoletti di Napoli  a vendere le loro pizze cotte o fritte con sopra pomodoro e basilico. Nel 1889, dopo l’unificazione dell’Italia, il pizzaiolo Raffaele Esposito decise di fare un dono alla regina di Italia aggiungendo al pomodoro e al basilico, la mozzarella. La combinazione dei tre colori bianco, rosso e verde simboleggiava la bandiera italiana e da allora in poi questa pizza e’ venne chiamata Pizza Margherita. Raffaele certamente non poteva  pensare che un semplice impasto potesse diventare uno degli oggetti più famosi al mondo. Oggi in Italia esistono diversi tipi di pizza a seconda della regione in cui viene preparata. Dalla pizza margherita, marinara e calzone della regione campana alla &lt;a href="http://www.agrodolce.it/ricette/pizza-con-le-sfrigole/"&gt;&lt;font color="#80ffff"&gt;pizza di sfrigoli&lt;/font&gt;&lt;/a&gt; dell’abruzzo o alla &lt;a href="http://www.siciliafan.it/sfincione-piu-buono-della-pizza-e-tutto-siciliano-ricetta/"&gt;&lt;font color="#80ffff"&gt;sfinciuni&lt;/font&gt;&lt;/a&gt; siciliana solo per citarne alcune. Veniamo adesso alla studio vero e proprio. Quale e’ il segreto di una buona pizza? Come molti pizzaioli riportano, il forno a legno dovrebbe essere superiore a quello elettrico.  La temperatura tipica per una pizza alla romana e’ tra 325-330 gradi centigradi mentre per quella napoletana e’ intorno ai 400 gradi. Con queste temperature una pizza è pronta in circa due minuti e un minuto rispettivamente. Assumendo che in un forno possono andare due pizze in contemporanea, in un ora e’ possibile fare tra le 50 e le 60 pizze romane. Nelle ore di picco, comunque i pizzaioli sono abituati ad alzare la temperatura del forno, arrivando anche a 390 gradi per ridurre cosi il tempo di cottura che passa da due minuti a circa 50 secondi e servendo cosi più clienti. Questa operazione quasi innocua, in effetti altera la qualità della pizza in quanto il fondo e la crosta vengono bruciate e il pomodoro non è cotto abbastanza. Poiché non è sempre possibile trovare una pizzeria con il forno a legna, e’ interessante analizzare  i possibili vantaggi  del forno a legna  rispetto a quello elettrico e se c’è la possibilità di migliorare le prestazioni di quest’ultimo per fare una pizza decente. Iniziamo col richiamare alcune dei concetti di base sulla &lt;a href="https://it.wikipedia.org/wiki/Trasmissione_del_calore"&gt;&lt;font color="#80ffff"&gt;trasmissione del calore&lt;/font&gt;&lt;/a&gt;. Quando si parla di calore si ha in mente l’energia di un sistema associata al moto caotico degli atomi, molecole o altre particelle di cui e’ composto. Comunque va precisato che il calore come il lavoro non e’ una &lt;a href="https://it.wikipedia.org/wiki/Variabile_di_stato"&gt;&lt;font color="#80ffff"&gt;variabile di stato&lt;/font&gt;&lt;/a&gt; di un sistema in quanto dipende da come esso ha raggiunto il suo stato, cioe’  dipende dallo stato iniziale, quello finale e dal modo in cui tale variazione e’ stata compiuta.  Come il lavoro, il calore e’ un modo conveniente per descrivere un trasferimento di energia. La quantita’ di calore necessaria ad aumentare la temperatura di una massa unitaria di un materiale di un grado Kelvin e’ chiamata &lt;a href="https://it.wikipedia.org/wiki/Calore_specifico"&gt;&lt;font color="#80ffff"&gt;calore specifico&lt;/font&gt;&lt;/a&gt; del materiale:&lt;p align="justify"&gt;c=dQ/M*dT&lt;p align="justify"&gt;Qui M e’ la massa del sistema e dQ e’ la quantita’ di calore richiesto per far variare la temperatura dT. Il calore specifico e’ misurato in J/(Kg*K).&lt;p align="justify"&gt;In caso di contatto tra due sistemi con due temperature diverse, il calore fluira’ da quello piu’ caldo a quello piu’ freddo. Il flusso di calore q e’ la quantita’ di calore dQ che passa attraverso un’ area S per unita’ di tempo dt e nella direzione in cui cambia la temperatura: &lt;p align="justify"&gt;&lt;/a&gt;&lt;p align="justify"&gt;q=dQ/(S*dt)&lt;p align="justify"&gt;Nel caso piu’ semplice di un sistema omogeneo, combinando le due equazioni precedenti otteniamo:&lt;p align="justify"&gt;q=(c*M*dT)/(S*dt)&lt;p align="justify"&gt;Ricordando adesso la definizione di densita’ di materia rho=M/V=M/(S*dx) otteniamo:&lt;p align="justify"&gt;q=c*rho*dx*dT/dt=c*rho*((dx)&lt;sup&gt;2&lt;/sup&gt;/dt)*(dT/dx)=-k*dT/dx&lt;p align="justify"&gt;dove k e’ la &lt;a href="https://it.wikipedia.org/wiki/Conducibilit%C3%A0_termica"&gt;&lt;font color="#80ffff"&gt;conducibilita’ termica&lt;/font&gt;&lt;/a&gt; e il termine dx&lt;sup&gt;2&lt;/sup&gt;/dt e’ la &lt;a href="https://it.wikipedia.org/wiki/Diffusivit%C3%A0_termica"&gt;&lt;font color="#80ffff"&gt;diffusivita’ termica&lt;/font&gt;&lt;/a&gt;. &lt;p align="justify"&gt;Questa equazione e’ conosciuta con il nome di &lt;a href="https://it.wikipedia.org/wiki/Conduzione_termica"&gt;&lt;font color="#80ffff"&gt;legge di Fourier&lt;/font&gt;&lt;/a&gt; ed e’ valida per piccole variazioni di temperatura. Vediamo adesso come il calore penetra in un mezzo dalla superficie di contatto. Rifacendoci all’immagine precedente assumiamo che durante il tempo t la temperatura nel piccolo cilindro di lunghezza L e sezione S sia cambiata di un dT. Utilizzando la legge di Fourier e sostituendo dx con L otteniamo:&lt;p align="justify"&gt;c*rho*L*(dT/t)=k*(dT/L)&lt;p align="justify"&gt;Risolvendo rispetto ad L si ha:&lt;p align="justify"&gt;L=((k*t)/(c*rho))&lt;sup&gt;1/2&lt;/sup&gt; =(csi*t)&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;cioe’ il fronte di temperatura entra nel mezzo come la radice quadrata del tempo t. Il parametro csi e’ chiamato diffusivita’ termica. Ovviamente l’approccio semplicistico utilizzato ha portato ad un risultato non preciso in quanto l’equazione di Fourier richiede la soluzione di &lt;a href="https://it.wikipedia.org/wiki/Equazione_differenziale"&gt;&lt;font color="#80ffff"&gt;equazioni differenziali&lt;/font&gt;&lt;/a&gt;. Comunque la differenza tra la soluzione trovata e quella reale  sta solo in una  costante pi greco:&lt;p align="justify"&gt;L=(pi*csi*t)&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;Torniamo adesso ai due sistemi in contatto tra loro. Il primo con parametri k&lt;sub&gt;1&lt;/sub&gt;, c&lt;sub&gt;1&lt;/sub&gt;, rho&lt;sub&gt;1&lt;/sub&gt; e temperatura T&lt;sub&gt;1&lt;/sub&gt; e il secondo con parametri k&lt;sub&gt;2&lt;/sub&gt;, c&lt;sub&gt;2&lt;/sub&gt;, rho&lt;sub&gt;2&lt;/sub&gt; e T&lt;sub&gt;2&lt;/sub&gt;. Indichiamo con T&lt;sub&gt;o&lt;/sub&gt; la temperatura all’interfaccia tra i due sistemi. Come detto precedentemente il calore fluisce dal corpo piu’ caldo a quello piu’ freddo, portando cosi la temperatura dei due mezzi alla temperatura di interfaccia T&lt;sub&gt;o&lt;/sub&gt;:&lt;p align="justify"&gt;k&lt;sub&gt;1&lt;/sub&gt;*((T&lt;sub&gt;1&lt;/sub&gt;-T&lt;sub&gt;o&lt;/sub&gt;)/L&lt;sub&gt;1&lt;/sub&gt;)=k&lt;sub&gt;2&lt;/sub&gt;*(T&lt;sub&gt;o&lt;/sub&gt;-T&lt;sub&gt;2&lt;/sub&gt;)/L&lt;sub&gt;2&lt;/sub&gt; (*)&lt;p align="justify"&gt;cioe’&lt;p align="justify"&gt;k&lt;sub&gt;1&lt;/sub&gt;*((T&lt;sub&gt;1&lt;/sub&gt;-T&lt;sub&gt;o&lt;/sub&gt;)/(pi*csi&lt;sub&gt;1&lt;/sub&gt;*t)&lt;sup&gt;1/2&lt;/sup&gt;)=k&lt;sub&gt;2&lt;/sub&gt;*((T&lt;sub&gt;o&lt;/sub&gt;-T&lt;sub&gt;2&lt;/sub&gt;)/(pi*csi&lt;sub&gt;2&lt;/sub&gt;*t)&lt;sup&gt;1/2&lt;/sup&gt;)&lt;p align="justify"&gt;Risolvendo rispetto a T&lt;sub&gt;o&lt;/sub&gt; otteniamo&lt;p align="justify"&gt;T&lt;sub&gt;o&lt;/sub&gt;=(T&lt;sub&gt;1&lt;/sub&gt;+n&lt;sub&gt;21&lt;/sub&gt;*T&lt;sub&gt;2&lt;/sub&gt;)/(1+n&lt;sub&gt;21&lt;/sub&gt;)&lt;p align="justify"&gt;dove n&lt;sub&gt;21&lt;/sub&gt;=(k&lt;sub&gt;2&lt;/sub&gt;/k&lt;sub&gt;1&lt;/sub&gt;)*(csi&lt;sub&gt;1&lt;/sub&gt;/csi&lt;sub&gt;2&lt;/sub&gt;)&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;Notiamo che T&lt;sub&gt;o&lt;/sub&gt; non dipende dal tempo e quindi rimane costante durante il processo di trasferimento di calore. Nel caso di mezzi uguali con diverse temperature si ottiene &lt;p align="justify"&gt;T&lt;sub&gt;o&lt;/sub&gt;=(T&lt;sub&gt;1&lt;/sub&gt;+T&lt;sub&gt;2&lt;/sub&gt;)/2&lt;p align="justify"&gt;Cioe’ la temperatura all’interfaccia e’ semplicemente il valore medio delle due temperature. Siamo adesso pronti per passare allo studio del forno a legna. Iniziamo col calcolare la temperatura all’interfaccia tra il fondo della pizza e i mattoni del forno. I parametri necessari vengono riportati in questa tabella. &lt;p align="justify"&gt;&lt;div class="separator" style="clear: both;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhY0r7LAvJIpx9UAN3cAz1AkRCSRVKlcVBWHl5kd9oPYIE_w3bSALV8qgUumW15SiZmD_ApNO_TQlB7HxCNpreJF81UK68l4ZImTrWO7y6K0iJoVsyuLrlY9ATFMSkOLcxRYqX-zK5OxbE9384GIYcYckp0jJpamy5aYpS_6qzMmu6q8vHYkPHAtA/s587/Immagine23.png" style="display: block; padding: 1em 0; text-align: center; "&gt;&lt;img alt="" border="0" width="400" data-original-height="134" data-original-width="587" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhY0r7LAvJIpx9UAN3cAz1AkRCSRVKlcVBWHl5kd9oPYIE_w3bSALV8qgUumW15SiZmD_ApNO_TQlB7HxCNpreJF81UK68l4ZImTrWO7y6K0iJoVsyuLrlY9ATFMSkOLcxRYqX-zK5OxbE9384GIYcYckp0jJpamy5aYpS_6qzMmu6q8vHYkPHAtA/s400/Immagine23.png"/&gt;&lt;/a&gt;&lt;/div&gt;&lt;/a&gt;&lt;p align="justify"&gt;Assumendo che la temperatura iniziale dell’impasto sia di 20 gradi (T&lt;sub&gt;i&lt;/sub&gt;=20 C) e che la temperatura all’interno del forno di una pizzeria romana sia di 330 gradi (T&lt;sub&gt;r&lt;/sub&gt;=330 C) possiamo calcolare la temperatura all’interfaccia pizza- mattoni del forno:&lt;p align="justify"&gt;T&lt;sub&gt;ir&lt;/sub&gt;=(T&lt;sub&gt;r&lt;/sub&gt;+n&lt;sub&gt;21&lt;/sub&gt;*T&lt;sub&gt;i&lt;/sub&gt;)/(1+n&lt;sub&gt;21&lt;/sub&gt;)=(330+0.65*20)/1.65=208 C&lt;p align="justify"&gt;Con queste temperature mediamente una pizza romana e’ pronta in circa 2 minuti. Ripetiamo adesso lo stesso calcolo per il forno elettrico la cui superficie dove viene poggiata la pizza e’ fatta di acciaio. Questa volta il coefficiente n&lt;sub&gt;21&lt;/sub&gt; sara’ 0.1 per cui la temperatura all’interfaccia pizza – superficie forno sara’:&lt;p align="justify"&gt;T&lt;sub&gt;ir&lt;/sub&gt;=(330+0.1*20)/1.1=300 C&lt;p align="justify"&gt;Effettivamente la temperatura all’interfaccia e’ alta e questa determinera’ le classiche bruciature che tutti noi almeno una volta abbiamo visto sul fondo di una pizza. Nel caso della pizza napoletana questa temperatura sara’ ancora piu’ alta essendo la temperatura tipica del forno a legna di circa 400-450 gradi. A quale temperatura allora, nel caso di una pizza romana, dovrebbe essere impostato il forno elettrico per avere sul fondo della pizza la stessa temperatura di un forno a legna? Basta imporre nell’ultima equazione T&lt;sub&gt;ir&lt;/sub&gt; a 208 gradi e ricavare T&lt;sub&gt;r&lt;/sub&gt;. Con semplici passaggi si ottiene 230 gradi, una temperatura decisamente piu’ bassa dei 330 gradi del forno a legna. Se fosse tutto qui, allora con un semplice aggiustamento di temperatura la pizza cotta col forno elettrico potrebbe essere equiparabile a quella del forno a legna. Poiche’ e’ ben noto a tutti che questo non e’ vero vuol dire che c’e’ qualche altra cosa che non abbiamo considerato. Ma cosa? I possibili modi di trasmissione del calore. Fin qui abbiamo considerato solo il meccanismo della conduzione. Ma ci deve essere almeno un altro modo. Il sole non e’ in contatto con noi, eppure il suo calore arriva a noi. Come? Grazie alla &lt;a href="https://it.wikipedia.org/wiki/Radiazione_termica"&gt;&lt;font color="#80ffff"&gt;radiazione termica&lt;/font&gt;&lt;/a&gt;, cioe’ ai raggi infrarossi. L’energia termica che arriva su un cm2 di superficie per secondo e’ data dalla cosiddetta &lt;a href="https://it.wikipedia.org/wiki/Legge_di_Stefan-Boltzmann"&gt;&lt;font color="#80ffff"&gt;legge di Stefan-Boltzmann&lt;/font&gt;&lt;/a&gt;:&lt;p align="justify"&gt;I=sigma*T&lt;sup&gt;4&lt;/sup&gt;&lt;p align="justify"&gt;dove la costante sigma vale 5.67E-8  W/(m&lt;sup&gt;2&lt;/sup&gt;K&lt;sup&gt;4&lt;/sup&gt;). L’intensita’ I e’ misurata in W/m&lt;sup&gt;2&lt;/sup&gt; e la temperatura in gradi Kelvin. Poiche’ i forni a legna hanno la volta a doppia corona riempita con sabbia, la temperatura al suo interno rimane costante e cioe’ T&lt;sub&gt;r&lt;/sub&gt;=330 C=603 K essendo T(K)=273+T(C) la relazione per passare da gradi centigradi a quelli Kelvin. Essendo tutte le parti del forno alla stessa temperatura questo significa che esso e’ pieno di radiazione infrarossa  che investe la pizza da tutte le parti. Grazie alla legge di S-B possiamo calcolare questa quantita’:&lt;p align="justify"&gt;I=5.67E-8*603&lt;sup&gt;4&lt;/sup&gt; =7.5 kW/m&lt;sup&gt;2&lt;/sup&gt;&lt;p align="justify"&gt;cioe’ ogni secondo su un cm&lt;sup&gt;2&lt;/sup&gt; della pizza arrivano circa 0.75 joule di radiazione infrarossa. Va notato comunque che anche la pizza allo stesso tempo emette una radiazione data da I=sigma*(T&lt;sub&gt;pizza&lt;/sub&gt;)&lt;sup&gt;4&lt;/sup&gt;. Quanto vale T&lt;sub&gt;pizza&lt;/sub&gt;? Poiche’ la maggior parte del tempo di cottura richiesto vien speso per far evaporare l’acqua dall’impasto possiamo assumere che la temperatura della pizza T&lt;sub&gt;pizza&lt;/sub&gt; sia di 100 gradi, cioe’ 373 gradi Kelvin che risulta in una radiazione termica di circa 1.1  kW/m&lt;sup&gt;2&lt;/sup&gt;. Circa il 15% della radiazione ricevuta dalla pizza viene riemessa nel forno. Per il forno elettrico nonostante la temperatura sia piu’ bassa (230 C) la corrispondente energia termica incidente su 1 cm&lt;sup&gt;2&lt;/sup&gt; e’ piu’ del doppio di quella del forno a legna:&lt;p align="justify"&gt;I=5.67E-8*(503)&lt;sup&gt;4&lt;/sup&gt;=3.6 kW/m&lt;sup&gt;2&lt;/sup&gt;&lt;p align="justify"&gt;mentre quella emessa dalla pizza rimane la stessa di prima. Calcoliamo adesso la quantita’ di calore che arriva per cm2 sul fondo della pizza grazie alla conduzione. Possiamo farlo utilizzando l’equazione (*):&lt;p align="justify"&gt;q(t)=k*(T&lt;sub&gt;1&lt;/sub&gt;-T&lt;sub&gt;o&lt;/sub&gt;)/(pi*csi*t)&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;dove T&lt;sub&gt;1&lt;/sub&gt; e’ la temperatura del forno. Contrariamente alla legge di Stefen-Boltzmann il trasferimento di calore per conduzione dipende dal tempo t. Quindi la quantita’ di calore trasferita ad 1 cm2 di pizza in un tempo di cottura t&lt;sub&gt;c &lt;/sub&gt;e’ dato da:&lt;p align="justify"&gt;Q(t&lt;sub&gt;c&lt;/sub&gt;)=2*k*(T&lt;sub&gt;1&lt;/sub&gt;-T&lt;sub&gt;o&lt;/sub&gt;)*(t&lt;sub&gt;c&lt;/sub&gt;/(pi*csi))&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;che sommata a quella per irraggiamento ci da’:&lt;p align="justify"&gt;Q&lt;sub&gt;tot&lt;/sub&gt;(t&lt;sub&gt;c&lt;/sub&gt;)=sigma*(T&lt;sub&gt;1&lt;/sub&gt;&lt;sup&gt;4&lt;/sup&gt;-T&lt;sub&gt;e&lt;/sub&gt;&lt;sup&gt;4&lt;/sup&gt;)*t&lt;sub&gt;c&lt;/sub&gt;+2*k*(T&lt;sub&gt;1&lt;/sub&gt;-T&lt;sub&gt;o&lt;/sub&gt;)*(t&lt;sub&gt;c&lt;/sub&gt;/(pi*csi))&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;dove T&lt;sub&gt;e&lt;/sub&gt; e’ la temperatura di evaporazione dell’acqua dall’impasto della pizza (100 gradi) e T&lt;sub&gt;1&lt;/sub&gt; la temperatura del forno. Per poter ricavare il tempo di cottura t&lt;sub&gt;c&lt;/sub&gt; c’e’ bisogno di determinare la quantita’ totale di calore che arriva sulla pizza per cm&lt;sup&gt;2&lt;/sup&gt;. Per fare questo dobbiamo tener presente che come detto in precedenza Q&lt;sub&gt;tot&lt;/sub&gt; serve per portate l’impasto dalla temperatura di 20 gradi fino a 100 gradi che secondo la legge di Fourier e’ dato da:&lt;p align="justify"&gt;Q=c*rho*d*(100-20)=80*c*rho*d&lt;p align="justify"&gt;dove c e rho sono il calore specifico e la densita’ dell’impasto e d lo spessore della pizza. Ancora non abbiamo finito. Durante la cottura c’e’ l’evaporazione dell’acqua dall’impasto come anche dal pomodoro, mozzarella e gli altri ingredienti utilizzati e quindi possiamo scrivere:&lt;p align="justify"&gt;Q’=a*c&lt;sub&gt;a&lt;/sub&gt;*rho’*d&lt;p align="justify"&gt;dove a e’ la frazione di massa dell’acqua evaporata, rho’ la densita’ dell’acqua e c&lt;sub&gt;a&lt;/sub&gt; il &lt;a href="https://it.wikipedia.org/wiki/Calore_latente"&gt;&lt;font color="#80ffff"&gt;calore lat&lt;/font&gt;&lt;font color="#80ffff"&gt;ente&lt;/font&gt;&lt;/a&gt; di evaporazione dell’acqua. Q+Q’ e’ la quantita’ di calore per unita’ di area richiesta per portare l’acqua all’ebollizione e poi in fase vapore. Se forniamo calore ad un liquido esso aumenta la sua temperatura fino al momento in cui non raggiunge il suo punto di ebollizione. Durante il passaggio di stato la temperatura del liquido resta invece invariata nonostante l'apporto di calore. Il calore fornito non viene utilizzato per aumentare l'energia cinetica delle particelle, ma si trasforma in un aumento di energia potenziale delle particelle gassose.&lt;p align="justify"&gt;Tale calore, assorbito dal sistema senza produrre un aumento di temperatura, è noto come calore latente. &lt;p align="justify"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Dall’equazione:&lt;p align="justify"&gt;Q+Q’=Q&lt;sub&gt;tot&lt;/sub&gt;&lt;p align="justify"&gt;possiamo ricavare t&lt;sub&gt;c&lt;/sub&gt;, il tempo di cottura. Per fare questo pero’ bisogna conoscere la quantita’ di acqua che e’ evaporata durante la cottura della pizza. Una buona assunzione e’ un 20% di perdita di acqua cioe’ a=0.2. Inserendo tutti i valori riportati sino ad ora si ottiene finalmente il tempo di cottura in forno a legna per una pizza romana. Questo risulta essere di 125 secondi. Per il forno elettrico un calcolo analogo porta ad un tempo ottimale di cottura di circa 170 secondi. Effettivamente per una pizza romana i tempi di cottura con un forno a legna si aggirano intorno ai 2 minuti come effettivamente riportato dai pizzaioli di questa citta’. Con questa equazione possiamo anche calcolare quanto tempo e’ necessario per la cottura di una pizza in un forno a legna se la temperatura del forno e’ quella usata dai napoletani e cioe’ di circa 400. In questa caso ci sarebbe una riduzione dei tempi di cottura con un aumento della produttivita’ di circa il 50% (il tempo di cottura si aggira intorno a 82 secondi). Questa la fisica. Interviene poi l’esperienza del pizzaiolo con un magico trucco. Quando sulla pizza ci sono elementi con un alto contenuto di acqua come uova, alici, vegetali il pizzaiolo, una volta verificato che il fondo della pizza e’ cotto la prende con la pala in legno o alluminio e la tiene sollevata dai mattoni del forno per circa 30 secondi. In questo modo si espone la superficie della pizza alla sola radiazione termica. Si evita cosi la bruciatura del fondo della pizza e si ottiene la corretta cottura della superficie. Come spesso si fa in fisica, allo scopo di ottenere dei buoni risultati senza complicare eccessivamente il modello, e’ stato trascurato il terzo modo di trasferimento del calore, quello per &lt;a href="https://it.wikipedia.org/wiki/Convezione"&gt;&lt;font color="#80ffff"&gt;convezione&lt;/font&gt;&lt;/a&gt; visto che il suo effetto e’ trascurabile. &lt;p align="justify"&gt;&lt;div class="separator" style="clear: both;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgClTVRniU2VScWKjp_mKMxsml41lwzQ5zaM8uA0DTjhGWeoIukp9PtebpyWBKlz8pL1QyEnorDuXf2fo_ktPez0bm3syIDRRjmWfY30a3tQISyIEQwezSK-057wkgKrTccvlwzXHXHQO93pplY-g4vs7M_hEtsFuZDYL-70Gu1D0xlGmz2hN-qqQ/s259/Immagine25.png" style="display: block; padding: 1em 0; text-align: center; "&gt;&lt;img alt="" border="0" width="320" data-original-height="194" data-original-width="259" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgClTVRniU2VScWKjp_mKMxsml41lwzQ5zaM8uA0DTjhGWeoIukp9PtebpyWBKlz8pL1QyEnorDuXf2fo_ktPez0bm3syIDRRjmWfY30a3tQISyIEQwezSK-057wkgKrTccvlwzXHXHQO93pplY-g4vs7M_hEtsFuZDYL-70Gu1D0xlGmz2hN-qqQ/s320/Immagine25.png"/&gt;&lt;/a&gt;&lt;/div&gt;&lt;/a&gt;&lt;p align="justify"&gt;Nonostante tutti gli sforzi tecnologici da parte dei costruttori di forni elettrici (utilizzazione di materiale ceramico come fondo invece dell’acciaio, rotazione della pizza durante la cottura, forni a convezione per simulare il movimento dei gas all’interno di un forno a legna) il forno a legna rimane lo strumento ideale per cuocere una pizza. L’odore del pomodoro e della mozzarella che cuociono misto all’odore della legna che brucia e’ un qualche cosa di unico ed eccezionale che mai nessuna tecnologia potra’ sostituire. Buona pizza a tutti.</description><link>http://quantidiscienza.blogspot.com/2018/07/cucinare-una-pizza-questione-di-fisica.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgbZFGGTcN8RaBEjOAGdQ0ERH1x5lI3pxBGE9v3z1RC664E_JCoKiskaMoNK3r0ApKr0TnSoHfwcqa7h7Go88Htr-_enWrHjTO06tVdiL2404Y0QBc_Hch0yi4ckWrvscimdhNW6_vD3LJ7SMWNVYLcOWIcFL9J2mFKEgTYZfjKc1YVu8Soo2Ec0A/s72-c/Immagine21.jpg" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-2475842278437722727</guid><pubDate>Tue, 24 Apr 2018 16:56:00 +0000</pubDate><atom:updated>2018-04-24T09:56:46.246-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">astrofisica</category><category domain="http://www.blogger.com/atom/ns#">big bang</category><category domain="http://www.blogger.com/atom/ns#">forma universo</category><category domain="http://www.blogger.com/atom/ns#">galassie</category><category domain="http://www.blogger.com/atom/ns#">hubble</category><category domain="http://www.blogger.com/atom/ns#">Planck</category><category domain="http://www.blogger.com/atom/ns#">radiazione fossile</category><category domain="http://www.blogger.com/atom/ns#">universo</category><category domain="http://www.blogger.com/atom/ns#">wmap</category><title>La vastita’ del cosmo</title><description>&lt;p&gt;&lt;br&gt;&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-89jbVaEsQ7k/Wt9htrKFDII/AAAAAAAAHmk/PxMxkcdLpeMjfGaS2jHGtoXflBopfZzmwCHMYCw/s1600-h/clip_image002%255B3%255D"&gt;&lt;img width="232" height="202" title="clip_image002" align="left" style="margin: 0px; border-image: none; float: left; display: inline; background-image: none;" alt="clip_image002" src="https://lh3.googleusercontent.com/-E9eukY53zQA/Wt9hucyUBYI/AAAAAAAAHmo/S_RsaZH1tBIB8aycTpDwwwvyTyeiBqzNACHMYCw/clip_image002_thumb?imgmax=800" border="0" hspace="12"&gt;&lt;/a&gt;Oggi grazie al progresso tecnologico, gli astronomi riescono ad andare indietro nel tempo ed osservare l’universo subito dopo il &lt;a href="https://it.wikipedia.org/wiki/Big_Bang"&gt;&lt;font color="#00ffff"&gt;Big Bang&lt;/font&gt;&lt;/a&gt; (circa 380000 anni dopo). Questo perche’ la velocita’ della luce e’ costante e quindi un raggio luminoso di una stella per arrivare a noi impieghera’ un tempo tanto maggiore quanto piu’ e’ lontana da noi. Questo sembra indicare che l’intero universo sia alla portata dei nostri telescopi. Essendo l’eta’ del nostro Universo di 13.7 miliardi di anni questo significa che gli astronomi possono orientare i loro telescopi  in ogni direzione dello spazio  ottenendo cosi una sfera visibile di 13.7 miliardi di anni luce e con la terra al suo centro. Ma noi sappiamo che l’universo si sta espandendo e questo fa si che il diametro dell’universo osservabile sia di ben 92 miliardi di anni luce. Ma come e’ possibile? &lt;p align="justify"&gt;Per rispondere dobbiamo partire dalla ben nota &lt;a href="https://it.wikipedia.org/wiki/Legge_di_Hubble"&gt;&lt;font color="#80ffff"&gt;legge di Hubble&lt;/font&gt;&lt;/a&gt;. Questa stabilisce che la velocita' di recessione delle Galassie e' proporzionale alla loro distanza cioe':&lt;p align="justify"&gt;Vr=H*d&lt;p align="justify"&gt;dove la costante di proporzionalita' H oggi e' chiamata costante di Hubble e le cui dimensioni sono quelle di un inverso del tempo. La migliore stima conosciuta oggi per questa costante e' :&lt;p align="justify"&gt;~ 67 (Km/s)/Mpc &lt;p align="justify"&gt;dove Mpc (Mega parsec) e' una misura di distanza equivalente a 3*10&lt;sup&gt;22 &lt;/sup&gt;metri. Volendo esprimere la costante di Hubble in 1/sec abbiamo:&lt;p align="justify"&gt;H=(67*1000)/(3*10&lt;sup&gt;22&lt;/sup&gt;)=67/3*10&lt;sup&gt;3&lt;/sup&gt;*10&lt;sup&gt;-22&lt;/sup&gt;=67/3*10&lt;sup&gt;-19&lt;/sup&gt;=22.3*10&lt;sup&gt;-19&lt;/sup&gt; 1/sec&lt;p align="justify"&gt;Detto cio' dobbiamo fare una precisazione: nella &lt;a href="https://it.wikipedia.org/wiki/Teoria_della_relativit%C3%A0"&gt;&lt;font color="#80ffff"&gt;relativita'&lt;/font&gt;&lt;/a&gt; di Einstein non sono le galassie ad allontanarsi tra loro ma lo spazio tra di esse a dilatarsi (da ogni punto del cosmo "emerge' di continuo nuovo spazio). Possiamo fare l'esempio classico del palloncino con sopra incollate delle monetine. Quest'ultime rappresentano le nostre galassie e la superficie del palloncino il tessuto spazio-temporale del cosmo. Se gonfiamo il palloncino (espansione dell'universo) la sua superficie aumenta e le monetine si allontaneranno sempre di piu' senza pero' che le loro dimensioni cambino. Questo e' quello che succede alle galassie "incastonate" nella trama dello spazio tempo. Quest'ultimo si dilata, le galassie si allontanano ma le loro dimensioni rimangono inalterate. Questa dilatazione del cosmo implica alcuni problemi con la misura di distanza. Se l'universo fosse statico allora due galassie qualsiasi sarebbero ad una certa distanza immutabile nel tempo essendo tutto fermo. In questo caso supponendo che una delle galassie sia la nostra, la seconda galassia sarebbe ad una certa distanza da noi e la luce emessa da ques'ultima arriverebbe a noi dopo un tempo dato dalla distanza diviso la velocita' della luce (massima velocita' possibile per gli oggetti all'interno dell'universo). Quando la luce ci raggiunge la galassia che l'ha emessa starebbe sempre li alla stessa distanza di quando la luce e' partita. Ma noi sappiamo che l'universo non e' statico ma e' in espansione e in questo momento sta addirittura accelerando. Questo significa che quando una stella o una galassia emette la luce si troveranno ad una certa distanza chiamiamola d&lt;sub&gt;1&lt;/sub&gt; da noi. Una volta che I fotoni partono alla volta della nostra terra, il corpo che ha emesso la luce trovandosi "incastrato" nella trama dello spazio tempo subira' una dilatazione che lo portera' ad allontanarsi dalla terra seguendo la legge di Hubble. Quando i fotoni arriveranno sulla Terra il corpo che l'ha emessi sara' adesso ad una distanza d&lt;sub&gt;1&lt;/sub&gt;+d&lt;sub&gt;2&lt;/sub&gt; dove d&lt;sub&gt;2&lt;/sub&gt; e' la distanza coperta dall'oggetto nel tempo in cui i fotoni sono arrivati sulla terra. Questa distanza d&lt;sub&gt;c&lt;/sub&gt;=d&lt;sub&gt;1&lt;/sub&gt;+d&lt;sub&gt;2&lt;/sub&gt; viene chiamata distanza comovente che e' ben diversa dal concetto di distanza che abbiamo noi quando misuriamo per esempio la lunghezza di un'asta con lo spazio tempo che fa da spettatore. Supponiamo adesso che una stella emetta un fotone da una distanza di 13 miliardi di anni luce. Questo vuol dire che il fotone arrivera' sulla terra dopo 13 miliardi di anni. Ma durante tutti questi anni la stella ha continuato ad allontanarsi da noi a causa dell'espansione dell'universo e quindi si trovera' ben piu' lontana dei 13 miliardi di anni luce iniziali. Ma a che velocita' si espande lo spazio tempo? C'e' un limite cosi come per gli oggetti nell'universo? La risposta e' no. Lo spazio tempo non e' soggetto al vincolo della velocita' della luce. Partendo dalla legge di Hubble possiamo calcolare a quale distanza dalla Terra una galassia "incastonata" nello spazio tempo raggiunge la velocita' della luce. Partendo dalla legge di Hubble e sostituendo c a Vr:&lt;p&gt;c=H*d&lt;p&gt;d=c/H=13.4 miliardi di anni luce&lt;p align="justify"&gt;Per distanze superiori a questa chiamata raggio di Hubble le galassie si allontanano radialmente dalla terra ad una velocita' maggiore della luce. Questo raggio ci dice che per tutto quello che si trova al di la' di esso non potremo piu' avere nessuna informazione. Questo limite e' anche chiamato orizzonte degli eventi. In cosmologia esiste anche un' altra definizione molto importante che va sotto il nome di "&lt;a href="https://it.wikipedia.org/wiki/Universo_osservabile"&gt;&lt;font color="#80ffff"&gt;universo osservabile&lt;/font&gt;&lt;/a&gt;". ovvero quella regione del cosmo da cui abbiamo potuto ricevere anche in passato un segnale luminoso. Come gia' detto se l'universo fosse statico tale regione si estenderebbe per 13.7 miliari di anni luce perche' questa sarebbe la distanza percorsa dalla luce dal Big Bang ad oggi. Ma l'universo nel frattempo si e' dilatato e secondo le equazioni differenziali della relativita' generale di Einstein, il raggio di tale regione sarebbe di ~46 miliardi di anni luce. Questa equazione differenziale lega la &lt;a href="https://it.wikipedia.org/wiki/Coordinate_comoventi"&gt;&lt;font color="#80ffff"&gt;distanza comovente&lt;/font&gt;&lt;/a&gt; al &lt;a href="https://it.wikipedia.org/wiki/Spostamento_verso_il_rosso"&gt;&lt;font color="#80ffff"&gt;redshift&lt;/font&gt;&lt;/a&gt; z e non e' risolvibile in forma chiusa ma solo analiticamente. La forma matematica della distanza comovente in funzione del redshift e' una sigmoide che parte da zero e tende a saturare al valore di ~46 miliardi anni luce per valori di z intorno a 1000. Quindi il diametro dell'universo osservabile e' di circa 90 miliardi di anni luce. Chiudiamo con un esempio pratico. Consideriamo la galassia Z8-GND 5296 con un parametro di redshift z di 7.5 (misurato dal telescopio Hubble alcuni anni fa). Grazie alla relazione che lega la velocita' radiale di un corpo con lo spostamento della lunghezza d'onda della radiazione ricevuta rispetto a quella emessa (parametro redshift z):&lt;p align="justify"&gt;Vr=[((z+1)&lt;sup&gt;2&lt;/sup&gt;-1)/((z+1)&lt;sup&gt;2&lt;/sup&gt;+1)]*c&lt;p align="justify"&gt;possiamo ricavare la velocita' di recessione della galassia Z8-GND 5296 che risulta essere di 3*10&lt;sup&gt;8 &lt;/sup&gt;m/s. Utilizzando la legge di Hubble possiamo stabilire la distanza rispetto alla terra pari a&lt;p align="justify"&gt;d=Vr/H=0.13*10&lt;sup&gt;25&lt;/sup&gt; metri&lt;p align="justify"&gt;d=0.13*10&lt;sup&gt;27&lt;/sup&gt;*10&lt;sup&gt;-16&lt;/sup&gt;=0.13*10&lt;sup&gt;11&lt;/sup&gt;=13*10&lt;sup&gt;9&lt;/sup&gt; anni luce&lt;p align="justify"&gt;essendo&lt;p align="justify"&gt;1 m=10&lt;sup&gt;-16&lt;/sup&gt; anni luce&lt;p align="justify"&gt;Quindi la galassia Z8-GND 5296 si stava allontanando da noi ad una velocita' di 300 milioni di m/s, e si trovava ad una distanza di 13 miliardi di anni luce quando ha emesso la luce che Hubble ha raccolto. La luce raccolta e' stata emessa appena 700 milioni di anni dopo il Big Bang. E in questo momento dove si trova questa Galassia? Poiche' l'universo sta accelerando di sicuro ad una distanza maggiore di quando la luce raccolta da Hubble parti per il suo lungo viaggio verso la terra e cioe' maggiore di 13 miliardi di anni luce. Utilizzando il grafico di cui abbiamo gia' parlato che lega la distanza comovente con il parametro z si calcola infatti un valore di circa 30 miliardi di anni luce. In definitiva, come conseguenza dell'espansione dell'universo che puo' avvenire ad una velocita' maggiore di quella della luce ci troviamo nella situazione in cui per molte galassie non potremo avere piu' nessun tipo di contatto trovandosi queste al di la' dell'universo osservabile. Per altre riceveremo ancora un segnale e quindi saranno visibili fino a quando non oltrepasseranno l'universo osservabile e altre ancora che oggi non sono visibili perche' troppo lontane, che appariranno ai nostri occhi appena la luce ci raggiungera'.  Questo l’universo osservabile. E quello che e’ nascosto a noi quanto e’ grande? Dipende dalla sua forma. Secondo la relativita’ generale la foma a sua volta dipende da quanta materia/energia c’e’ nell’Universo visto che essa curva il tessuto spazio-temporale. Gli scienziati hanno calcolato una densita’ critica d&lt;sub&gt;c &lt;/sub&gt;direttamente proporzionale al quadrato della costante di Hubble H, cioe’ &lt;p align="justify"&gt;d&lt;sub&gt;c&lt;/sub&gt;=k&lt;sub&gt;*&lt;/sub&gt;H&lt;sup&gt;2&lt;/sup&gt;&lt;p align="justify"&gt;dove k e’ una costante. Il rapporto tra la densita’ misurata e quella critica in genere viene indicata con la lettera greca omega. La densita’ critica e’ quella che rende l’energia cinetica dell’espansione uguale all’energia potenziale gravitazionale del volume che si sta espandendo. Consideriamo una sfera piena di galassie centrata nella nostra posizione. Sia r il raggio di questa sfera e d la densita’ di materia al suo interno. Una galassia di massa m e a distanza r subira’ un’attrazione della materia contenuta in tale sfera di massa totale M, e quindi l’energia potenziale dell’espansione sara’ &lt;p align="justify"&gt;(G&lt;sub&gt;*&lt;/sub&gt;m&lt;sub&gt;*&lt;/sub&gt;M)/r=(G&lt;sub&gt;*&lt;/sub&gt;m&lt;sub&gt;*&lt;/sub&gt;d&lt;sub&gt;*&lt;/sub&gt;4/3&lt;sub&gt;*&lt;/sub&gt;p&lt;sub&gt;*&lt;/sub&gt;r&lt;sup&gt;3&lt;/sup&gt;)/r&lt;p align="justify"&gt;dove G e’ la costante gravitazionale e p la costante pi-greco (3.14…).&lt;p align="justify"&gt;Uguagliando questo valore a quello dell’energia cinetica:&lt;p align="justify"&gt;1/2&lt;sub&gt;*&lt;/sub&gt;mv&lt;sup&gt;2&lt;/sup&gt;=1/2&lt;sub&gt;*&lt;/sub&gt;m&lt;sub&gt;*&lt;/sub&gt;H&lt;sup&gt;2 &lt;/sup&gt;&lt;sub&gt;*&lt;/sub&gt;r&lt;sup&gt;2&lt;/sup&gt;&lt;p align="justify"&gt;dove H e’ la costante di Hubble, otteniamo che la densita’ critica e’ data da:&lt;p align="justify"&gt;d&lt;sub&gt;c &lt;/sub&gt;= (3/8&lt;sub&gt;*&lt;/sub&gt;H&lt;sup&gt;2&lt;/sup&gt;)/(p&lt;sub&gt;*&lt;/sub&gt;G)=10&lt;sup&gt;-29 &lt;/sup&gt; g/cm&lt;sup&gt;3&lt;/sup&gt;&lt;p align="justify"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhMWNXw9IvKjMzeVjS_01WJ3is40gtNp9FUBCqFBhuZSapgb4jx4ZCJqXfv4dYtzOepXo1c42PIH6IMrlAjCL_ihY_P_ldCzqe0H3un8q4XVOC3lI5e1LzKooKJR4x9LGpjp38WtEDX/s1600-h/clip_image004%255B3%255D"&gt;&lt;img width="218" height="202" title="clip_image004" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image004" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiZjMKdqtCHzs9S7f4X64CcTjWGjQUFg5K-CLd13EWjjI4pg0n72KF2Ka09-6nsp9EAFxqND8ZZ707hrYQg94D5qvdORvnY_M8mqlcThCIjpXnvT592iHiu5Y9ElLoJZBnjNqcZNfUj/?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Se la densita’ dell’Universo fosse minore di quella critica cioe’ se omega fosse negativa, allora non ci sarebbe abbastanza materia per fermare l’espansione del cosmo, che continuerebbe per sempre. La forma risultante sarebbe curvata come la superficie di una sella. Questo e’ conosciuto come un Universo aperto. &lt;p align="justify"&gt;Se la densita’ fosse maggiore di quella critica (omega positiva) allora ci sarebbe abbastanza materia per fermare l’espansione dell’Universo. In questo caso l’Universo risulterebbe chiuso e finito e avrebbe una forma sferica. Una volta che l’universo arresta la sua espansione iniziera’ a contrarsi e le galassie ad avvicinarsi sempre di piu’. Probabilmente in questo caso l’Universo subira’ un processo inverso del Big Bang, chiamato &lt;a href="https://it.wikipedia.org/wiki/Big_Crunch"&gt;&lt;font color="#80ffff"&gt;Big Crunch&lt;/font&gt;&lt;/a&gt;. Questo e’ conosciuto come un Universo chiuso. Se l’Universo invece contenesse una quantita’ di materia tale da far si che la densita’ sia uguale a quella critica, allora il tasso di espansione diminuira’ lentamente in un tempo infinito. In questo caso l’Universo e’ considerato piatto e di dimensione infinita. &lt;p align="justify"&gt;Detto cio’ e’ ovvio che ci chiediamo quale e’ il valore della densita’ o anche del parametro omega dell’Universo.&lt;p align="justify"&gt;Per stabilirlo bisogna conoscere quanta materia e radiazioni ci sono nel cosmo. La materia ordinaria e’ presente in diverse forme: pianeti, stelle, polveri, gas interstellare e intergalattico. Se valutiamo la densita’ di questa materia al massimo otteniamo circa il 5% della densita’ critica. Anche la radiazione e’ presente in grande quantita’ come energia elettromagnetica o come particelle relativistiche. Ma essa rende conto di meno del 1% della densita’ critica. Quindi se nell’universo ci fossero solo queste due forme di massa-energia, la densita’ sarebbe inferiore a quella critica, e l’universo continuerebbe ad espandersi senza fine. Sappiamo, pero’, che nell’Universo esiste un’altra forma di massa-energia, la cosiddetta “&lt;a href="https://it.wikipedia.org/wiki/Materia_oscura"&gt;&lt;font color="#80ffff"&gt;materia oscura&lt;/font&gt;&lt;/a&gt;”. Essa e’ stata introdotta per spiegare i movimenti delle stelle nelle galassie e delle galassie negli ammassi di galassie. Le stelle periferiche di una galassia per esempio, si muovono cosi’ velocemente che volerebbero via se non ci fosse una quantita’ significativa di materia superiore a quella visibile all’interno della galassia, capace di attirarle verso il centro compensando la forza centrifuga. Cosa sia la materia oscura ancora non si sa e non si sa nemmeno quanta ce ne sia. Le misure piu’ recenti tendono a convergere ad una stima di circa il 25% della densita’ critica.&lt;p align="justify"&gt;Esiste un quarto contributo possibile alla composizione dell’Universo, che e’ stato ipotizzato per spiegare l’osservazione dell’accelerazione dell’espansione dell’Universo. Questo significa che nell’universo deve essere presente una strana forma di energia a pressione negativa che e’ stata chiamata energia oscura. Questa produce una repulsione e quindi aiuta l’espansione dell’Universo, facendola accelerare non appena diventa la forma di energia dominante. In base ai calcoli piu’ recenti tale energia dovrebbe costituire circa il 70% della densita’ critica e quindi essere la componente piu’ importante del nostro Universo. Una forma di energia con le stesse caratteristiche di quella oscura potrebbe essere &lt;a href="https://it.wikipedia.org/wiki/Energia_del_vuoto"&gt;&lt;font color="#80ffff"&gt;l’energia del vuoto&lt;/font&gt;&lt;/a&gt;, misurata sperimentalmente e dovuta alla creazione e annichilazione continua di particelle-antiparticelle. La fisica fondamentale pero’ prevede un valore per questa energia decisamente piu’ alto di quello misurato e quindi al momento non esiste una teoria soddisfacente del fenomeno. A causa delle grosse incertezze sulla materia oscura e sull’energia oscura e’ praticamente impossibile stabilire se la densita’ totale dell’Universo sia superiore, inferiore o uguale a quella critica. Bisogna trovare quindi un modo indipendente per stimare la densita’ dell’Universo. Gli scienziati hanno pensato di usare la geometria e curvatura dello spazio tempo, misurando gli effetti che questa produce sui raggi di luce provenienti da distanze enormi. Come gia’ detto prima, la massa-energia presente nel nostro Universo secondo la relativita’ generale tendera’ a curvare lo spazio-tempo sia a grandi che a piccole scale. Dalle equazioni della relativita’ generale ci aspettiamo una curvatura positiva se il parametro omega e’ maggiore di 1, nulla se omega e’ uguale a 1 e negativa se omega e’ minore di 1. La curvatura su larga scala agira’ sui raggi di luce di oggetti molto lontani. Se la curvatura dello spazio tempo fosse positiva  i raggi di luce convergerebbero e quindi le sorgenti apparirebbero piu’ grandi come succede quando viene utilizzata una lente di ingrandimento. In caso di curvatura negativa accadrebbe esattamente il contrario con le sorgenti che apparirebbero piu’ piccole, come dietro ad una lente divergente. Se esistesse un metodo per stabilire se la luce proveniente da sorgenti lontanissime viaggia in linea retta oppure no, potremmo determinare la geometria globale dell’Universo e quindi omega. Questo approccio e' stato tentato a lungo in passato, utilizzando le galassie lontane come sorgenti dei raggi di luce. Ma le galassie piu' lontane sono anche viste in un’ epoca piu' antica della loro evoluzione, e risultano essere irregolari, per cui e' difficile capire se eventuali deformazioni delle loro immagini siano dovute ad una eventuale curvatura dei raggi di luce durante il loro cammino, o siano piuttosto il risultato della irregolarita' delle sorgenti. Come si fa allora a misurare la curvatura dell’Universo? Ricorrendo a quella che gli scienziati  chiamano &lt;a href="https://it.wikipedia.org/wiki/Radiazione_cosmica_di_fondo"&gt;&lt;font color="#80ffff"&gt;radiazione cosmica di fondo&lt;/font&gt;&lt;/a&gt;. Vediamo di cosa si tratta. L’universo subito dopo il Big Bang subi’ tutta una serie di transizioni fino ad arrivare in uno stato di plasma (elettroni, protoni, nuclei di He e fotoni) dopo 380000 anni. A causa della diminuzione di temperatura in questo momento l’Universo cessa di essere un plasma e si formano i primi atomi cosi come li conosciamo noi. I fotoni smettono di interagire con le altre particelle (con la temperatura diminuisce la loro energia) e da questo momento in poi non potranno fare altro che iniziare a vagare per il cosmo senza piu’ interagire con la materia. Dunque ancora oggi dopo 13.7 miliardi di anni di vita questa radiazione pervade l’intero Universo ( si tratta di microonde come quelle dei forni usati in cucina) e che noi chiamiamo radiazione cosmica di fondo o piu’ semplicemente radiazione fossile. Oggi per ogni metro cubo di spazio ci sono circa 200 milioni di fotoni fossili e questi non avendo interagito con nulla trasportano informazioni relative all’Universo di 380000 anni dopo il Big Bang. La temperatura o energia di questa radiazione oggi e’ di solo 2.725 gradi Kelvin (cioe’ circa 270 gradi sotto lo zero)  mentre all’inizio era di circa 3000 K. Il raffreddamento della radiazione fossile e’ avvenuto in conseguenza del fatto che tutte la dimensioni dell’Universo sono aumentate di un fattore dato dal rapporto 3000/2.725=1100. Ricordiamo infatti che dalla prima legge della termodinamica in caso di processo adiabatico se il volume di un gas aumenta allora la temperatura diminuisce. Una misura accurata della radiazione fossile e’ stata eseguita prima dal satellite &lt;a href="https://it.wikipedia.org/wiki/WMAP"&gt;&lt;font color="#80ffff"&gt;WMAP&lt;/font&gt;&lt;/a&gt; e dopo dal satellite &lt;a href="http://www.satelliteplanck.it/"&gt;&lt;font color="#80ffff"&gt;Planck&lt;/font&gt;&lt;/a&gt;, che oltre al valore medio della temperatura di 2.725 K hanno anche misurato delle piccolissime fluttuazioni di temperatura dipendenti dalla direzione da cui proviene la radiazione. Si tratta di fluttuazioni veramente piccolissime (decimillesimo di grado) ma nonostante cio’ sono molto importanti per dare diverse risposte sull’Universo appena nato. In effetti WMAP/Plank hanno scattato una fotografia dello stato termico dell’Universo come si presentava circa 13.7 miliardi di anni fa &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-8Z4J3DBpDVw/Wt9hwYQZH0I/AAAAAAAAHm0/fDqEjFObiiIEUPyxU739WaLoPgdZMLv-wCHMYCw/s1600-h/clip_image006%255B3%255D"&gt;&lt;img width="311" height="169" title="clip_image006" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image006" src="https://lh3.googleusercontent.com/-Kv-t14D01AQ/Wt9hwomwi2I/AAAAAAAAHm4/mjdiacSB1XoeqxhHC1o-77BQ1Uco7QYXwCHMYCw/clip_image006_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Dall’analisi della mappa della radiazione fossile si e’ scoperto che approssimativamente tutte le macchie che indicano una fluttuazione di temperatura hanno le stesse dimensioni. Ma come mai ci sono queste fluttuazioni? Esse hanno avuto origine in una frazione di secondo dopo il Big Bang e consistevano di addensamenti o di rarefazioni locali di materia e di fotoni. La materia contenuta in queste fluttuazioni tendeva ad attrarre materia verso il centro grazie alla forza gravitazionale mentre i fotoni tendevano a farla espandere a causa della pressione di radiazione. Si trattava quindi di sistemi non in equilibrio che si espandevano e si contraevano rispetto alla loro posizione di equilibrio. In pratica l’Universo vibrava come vibra l’aria a causa di un suono. Al momento del disaccoppiamento tra materia e radiazione ogni fluttuazione e’ stata sorpresa in qualche istante della sua oscillazione. Poiche’ la crescita e contrazione avvengono ad una velocita’ pari a c/3&lt;sup&gt;1/2&lt;/sup&gt; dove c e’ la velocita’ della luce, al momento del disaccoppiamento della materia le dimensioni di tali fluttuazioni erano: &lt;p align="justify"&gt;3*10&lt;sup&gt;8&lt;/sup&gt;/3&lt;sup&gt;1/2&lt;/sup&gt; m/s * 380000 *3*10&lt;sup&gt;7&lt;/sup&gt; s=2*10&lt;sup&gt;21&lt;/sup&gt; m&lt;p align="justify"&gt;A partire da quel momento l’estensione delle fluttuazioni e’ cresciuta insieme all’universo espandendosi di circa 1100 volte (cosi come qualsiasi altra dimensione del cosmo). Quindi oggi l’estensione di queste fluttuazioni dovrebbe essere: &lt;p align="justify"&gt;h=1100*2*10&lt;sup&gt;21&lt;/sup&gt; =2.2*10&lt;sup&gt;24&lt;/sup&gt; m&lt;p align="justify"&gt;Proviamo a fare adesso un piccolo calcolo. Da quando l’Universo e’ iniziato la radiazione ha percorso quasi &lt;p align="justify"&gt;L=3*10&lt;sup&gt;8&lt;/sup&gt;*13.7*10&lt;sup&gt;9&lt;/sup&gt;*365*24*3600=1.2*10&lt;sup&gt;26 &lt;/sup&gt; m&lt;p align="justify"&gt;Se l’universo avesse una curvatura nulla, allora i raggi di luce provenienti dalle fluttuazioni primordiali formerebbero un triangolo e noi dovremmo osservare queste fluttuazioni sotto un angolo dato da: &lt;p align="justify"&gt;h/L=2.2*10&lt;sup&gt;24&lt;/sup&gt;/1.2*10&lt;sup&gt;26&lt;/sup&gt; radianti=1 grado&lt;p align="justify"&gt;o sotto un angolo minore/maggiore se lo spazio avesse una curvatura negativa/positiva. &lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-AfO4uhnweHg/Wt9hxF1Oc6I/AAAAAAAAHm8/2pRmBCYVFMMUcnuIzCYvXPmlJF3YwT2BQCHMYCw/s1600-h/clip_image008%255B3%255D"&gt;&lt;img width="311" height="193" title="clip_image008" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image008" src="https://lh3.googleusercontent.com/-t16DcYTJOKk/Wt9hxm8e6oI/AAAAAAAAHnA/R-Te9b9Ka_8gtMOhDYe6vhqV5dpFI9oDACHMYCw/clip_image008_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Le misure piu’ recenti indicano che l’Universo sia piatto, suggerendo quindi che sia anche infinito, cosa che non potremo mai verificare con i nostri telescopi essendo l’Universo visibile limitato. &lt;p align="justify"&gt;Ma come mai tra tutti i possibili universi variamente curvi il nostro e’ proprio piatto? Come e’ potuto succedere che la densita’ media della materia e dell’energia abbia assunto tra gli infiniti valori possibili proprio il valore che rende piatto lo spazio-tempo? Al momento nessuno lo sa.&lt;p align="justify"&gt;&lt;a href="https://lh3.googleusercontent.com/-z9wvUTQZokU/Wt9hyWzlk4I/AAAAAAAAHnE/XB6gD3YmRDAw_wkzNdcryaozd_RHRXTbACHMYCw/s1600-h/clip_image010%255B3%255D"&gt;&lt;img width="311" height="196" title="clip_image010" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image010" src="https://lh3.googleusercontent.com/-t4pJFCCk0Tw/Wt9hy7zjqBI/AAAAAAAAHnI/z5usW91Sg5g0eTzXRMDocLnNeeGuU5lfACHMYCw/clip_image010_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;</description><link>http://quantidiscienza.blogspot.com/2018/04/la-vastita-del-cosmo.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://lh3.googleusercontent.com/-E9eukY53zQA/Wt9hucyUBYI/AAAAAAAAHmo/S_RsaZH1tBIB8aycTpDwwwvyTyeiBqzNACHMYCw/s72-c/clip_image002_thumb?imgmax=800" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-3972233688813779614</guid><pubDate>Sun, 18 Mar 2018 13:17:00 +0000</pubDate><atom:updated>2018-03-18T06:17:42.922-07:00</atom:updated><category domain="http://www.blogger.com/atom/ns#">astrofisica</category><category domain="http://www.blogger.com/atom/ns#">cosmologia</category><category domain="http://www.blogger.com/atom/ns#">costante di hubble</category><category domain="http://www.blogger.com/atom/ns#">fisica</category><category domain="http://www.blogger.com/atom/ns#">particelle virtuali</category><category domain="http://www.blogger.com/atom/ns#">redshit</category><category domain="http://www.blogger.com/atom/ns#">universo</category><title>Una nuova fisica al lavoro nell’Universo?</title><description>&lt;p&gt;&lt;br&gt;&lt;/p&gt;&lt;p align="justify"&gt;Nel 1929 &lt;a href="https://it.wikipedia.org/wiki/Edwin_Hubble" target="_blank"&gt;&lt;font color="#00ffff"&gt;Hubble&lt;/font&gt;&lt;/a&gt; annunciò che la velocita’ radiale delle galassie era proporzionale alla loro distanza. In altre parole piu’ una galassia e’ distante da noi, piu’ la sua velocita’ di allontanamento e’ elevata. Il grafico seguente mostra i dati raccolti da Hubble con la velocita’ delle galassie riportata in ordinata e le loro distanze sulle ascisse:&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-WPGwsgnUxPc/Wq5mz-osb8I/AAAAAAAAHjA/mL2DLxu-8-w-wWLDMdmZdik78ZT00i7DQCHMYCw/s1600-h/clip_image001%255B3%255D"&gt;&lt;img width="320" height="310" title="clip_image001" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image001" src="https://lh3.googleusercontent.com/-ALW-ZKllFHo/Wq5m0_P3iNI/AAAAAAAAHjE/iv1gHF-3JJw02inQ8Wd6nWFVg0OwRSTswCHMYCw/clip_image001_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;La pendenza della retta che interpola queste misure è ora nota come &lt;a href="https://it.wikipedia.org/wiki/Legge_di_Hubble" target="_blank"&gt;&lt;font color="#00ffff"&gt;costante di Hubble H&lt;/font&gt;&lt;/a&gt;&lt;font color="#00ffff"&gt;&lt;/font&gt;&lt;font color="#00ffff"&gt;.&lt;/font&gt; Dato che sia i kilometri che i &lt;a href="https://it.wikipedia.org/wiki/Parsec" target="_blank"&gt;&lt;font color="#00ffff"&gt;M&lt;/font&gt;&lt;font color="#00ffff"&gt;egaparsec&lt;/font&gt;&lt;/a&gt; sono unità di distanza, l'unità di misura di H è [1/tempo], essendo la velocita’ il rapporto tra spazio e tempo. Ma cosa rappresenta H? Il suo inverso e’ proprio l’eta’ dell’universo secondo la relazione di Hubble:&lt;p align="justify"&gt;V=HD&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; da cui&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; D=V/H=Vt&amp;nbsp;&amp;nbsp; con&amp;nbsp;&amp;nbsp;&amp;nbsp; t=1/H&amp;nbsp;&amp;nbsp; appunto l’eta’ dell’universo.&lt;p align="justify"&gt;Hubble trovo’ per il rapporto 1/H il valore di circa 2 miliardi di anni. Dal momento che tale valore dovrebbe approssimare l&lt;u&gt;'&lt;/u&gt;età dell'Universo, e noi sappiamo (era noto anche nel 1929) che l'età della Terra supera i 2 miliardi di anni, il valore di H trovato da Hubble portò ad un generale scetticismo nei confronti dei modelli cosmologici, e fornì una motivazione a favore del modello stazionario, cioe’ quello di un universo non in espansione.&lt;p align="justify"&gt;Tuttavia, pubblicazioni successive misero in luce alcuni errori compiuti da Hubble nelle sue misure. La correzione di questi errori portò ad un ridimensionamento verso il basso del valore della costante di Hubble. Attualmente il valore della costante e’ di 65±8 km/s/Mpc. &lt;br&gt;Con questo valore di H, l'età approssimativa dell'Universo è di 15 miliardi di anni. Qui di seguito i risultati recenti sulla relazione di Hubble la cui pendenza e’ pari a 65 Km/sec/Mpc. &lt;/p&gt;&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-_tl-AtTHWmw/Wq5m18EAbBI/AAAAAAAAHjI/3Pn2fD72aK8pvZ2Skp-TwbxZED3iZGL3ACHMYCw/s1600-h/clip_image003%255B3%255D"&gt;&lt;img width="292" height="271" title="clip_image003" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image003" src="https://lh3.googleusercontent.com/-T9RcaYoW0mg/Wq5m2volGSI/AAAAAAAAHjM/ZdTy8pMPZf0O5NjcuU2YFchqUX7FKUfRgCHMYCw/clip_image003_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Ma come faceva Hubble a misurare la velocita’ di una galassia lontana? Utilizzando quello che va sotto il nome di &lt;a href="https://it.wikipedia.org/wiki/Spostamento_verso_il_rosso" target="_blank"&gt;&lt;font color="#00ffff"&gt;spostamento verso il rosso&lt;/font&gt;&lt;/a&gt; (redshift). La luce o una qualsisi altra radiazione elettromagnetica emessa da un oggetto in movimento ha una lunghezza d'onda maggiore di quella che aveva all'emissione. Ciò equivale a dire che nel caso della luce il colore si sposta nella direzione del rosso che e’ l'estremo inferiore dello spettro del visibile. Al contrario se un’oggetto si sta avvicinando la luce emessa si sposta verso il blu.&lt;p&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhk3H7zFQ6Ch_jiqd_7X0mQM4kQSH64OrL7uMI0HIg4T2zjwkpbt_Q8ouCvge4l9ssCNU3MLdqz1HAaCWhatH6nt4PW8iglbGMXKcZY6veFwXNOGGiH05_mQ_Ham-toHYBeFsV5zxwR/s1600-h/clip_image005%255B3%255D"&gt;&lt;img width="433" height="349" title="clip_image005" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image005" src="https://lh3.googleusercontent.com/-4f6CgtHMqw8/Wq5m4Nb8aaI/AAAAAAAAHjU/nT0C9PLNabw1tZSeI58pMG2q-M1QYpogACHMYCw/clip_image005_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-cNkxMvcqG5k/Wq5m5M2KupI/AAAAAAAAHjY/aKj0JG_aUoQYxsV2npHNYKDLnoCvMJBaACHMYCw/s1600-h/image%255B2%255D"&gt;&lt;img width="346" height="224" title="image" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="image" src="https://lh3.googleusercontent.com/-3xdtG83YpLk/Wq5m5348CfI/AAAAAAAAHjc/pW0SqjK8OBUSqqXfMv_SmygIaZ9VeVmgwCHMYCw/image_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;&lt;br&gt;&lt;p align="justify"&gt;Se indichiamo con L&lt;sub&gt;e  &lt;/sub&gt;la lunghezza d’onda emessa e con L&lt;sub&gt;o&lt;/sub&gt; quella osservata e’ possibile scrivere:&lt;p align="justify"&gt;1+ z=[(1+v/c)/(1-v/c)]&lt;sup&gt;1/2&lt;/sup&gt;&lt;p align="justify"&gt;dove c indica la velocita’ della luce, v la velocita’ dell’oggetto e il parametro z e’ dato da: &lt;p align="justify"&gt;z=(L&lt;sub&gt;o&lt;/sub&gt;-L&lt;sub&gt;e&lt;/sub&gt;)/L&lt;sub&gt;e&lt;/sub&gt;&lt;p align="justify"&gt;Quindi dalla misura di z cioe’ dello shift della luce  si puo’ risalire alla velocita’ dell’oggetto che ha emesso la luce. &lt;p align="justify"&gt;Per misurare la distanza delle galassie invece, Hubble aveva a disposizione tre metodologie ognuna valida per un certo intervallo di distanze. Il metodo piu’ antico e’ quello della &lt;a href="https://it.wikipedia.org/wiki/Parallasse" target="_blank"&gt;&lt;font color="#00ffff"&gt;parallasse&lt;/font&gt;&lt;/a&gt; che va bene per stelle non oltre i 500 anni luce. Si tratta di una tecnica geometrica che sfrutta lo spostamento delle stelle in primo piano rispetto a quelle fisse dovuto alla rotazione della terra intorno al sole. Il secondo metodo e’ quello delle &lt;a href="https://it.wikipedia.org/wiki/Variabile_Cefeide" target="_blank"&gt;&lt;font color="#00ffff"&gt;Cefeidi&lt;/font&gt;&lt;/a&gt;, un tipo di stelle la cui luminosita’ varia periodicamente e che permettono di calcolare la loro distanza sfruttando la relazione tra quest’ultima e il periodo della loro luminosita’. L’intervallo di applicabilita’ va fino a circa 10 milioni di anni luce.  L’ultimo metodo e’ quello delle &lt;a href="https://it.wikipedia.org/wiki/Supernova" target="_blank"&gt;&lt;font color="#00ffff"&gt;supernove&lt;/font&gt;&lt;/a&gt;. Valutando l’andamento della luminosita’ di queste stelle subito dopo la loro esplosione e’ possibile calcolarne la luminosita’ assoluta e quindi la loro distanza. Questa tecnica permette di arrivare a distanze di alcune centinaia di milioni di anni luce. &lt;p align="justify"&gt;&lt;br&gt;&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-DZP9morRCIk/Wq5m6oB93hI/AAAAAAAAHjg/Ic_M9i4JZvgX2CmI-Go-gEGGYAoB1MZeQCHMYCw/s1600-h/clip_image009%255B4%255D"&gt;&lt;img width="421" height="358" title="clip_image009" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image009" src="https://lh3.googleusercontent.com/-wUNbvT-U-f0/Wq5m7h5c0vI/AAAAAAAAHjk/Yw3ev3qzp8sEs6Ynyp90znoDveAI1qMJgCHMYCw/clip_image009_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;&lt;br&gt;&lt;p align="justify"&gt;Ma ritorniamo adesso alla costante di Hubble. E’ di qualche mese fa la notizia dell’utilizzo del &lt;a href="https://it.wikipedia.org/wiki/Telescopio_spaziale_Hubble" target="_blank"&gt;&lt;font color="#00ffff"&gt;telescopio spaziale Hubble&lt;/font&gt;&lt;/a&gt; per stabilire la misura piu’ precisa mai ottenuta della costante di Hubble. I risultati sono molto intriganti e sembrano evidenziare che ci sia qualche cosa di inaspettato al lavoro nell’universo. Questo perche’ i risultati confermano una fastidiosa discrepanza che mostra l’universo espandersi piu’ velocemente di quanto previsto dai dati relativi ai primi istanti del big bang. Il team di ricercatori capeggiato dal premio Nobel, &lt;a href="https://es.wikipedia.org/wiki/Adam_Riess" target="_blank"&gt;&lt;font color="#00ffff"&gt;Riess&lt;/font&gt;&lt;/a&gt; incluso anche l’italiano Stefano Casertano e Johns Hopkins, ha utilizzato Hubble per 6 anni aumentando il numero di stelle analizzate e con distanze fino a 10 volte maggiori di quelle ottenute precedentemente.  Il valore della velocita’ di espansione ottenuto mostra una discrepanza di circa il 9% rispetto a quello previsto considerando i primi 378.000 anni dopo il Big Bang. Prima delle misure del telescopio Hubble, quelle effettuate dalla&lt;font color="#00ffff"&gt; &lt;/font&gt;&lt;a href="https://it.wikipedia.org/wiki/Agenzia_Spaziale_Europea" target="_blank"&gt;&lt;font color="#00ffff"&gt;Agenzia&lt;/font&gt;&lt;font color="#00ffff"&gt; spaziale Europea&lt;/font&gt;&lt;/a&gt; grazie al &lt;a href="http://www.satelliteplanck.it/" target="_blank"&gt;&lt;font color="#00ffff"&gt;satellite Planck&lt;/font&gt;&lt;/a&gt;&lt;font color="#00ffff"&gt;,&lt;/font&gt; avevano previsto per la costante di Hubble un valore intorno a 67 Km/sec per Megaparsec e non piu’ alto di 69 Km/sec/Mpc. Ma le misure recenti ottenute dal team di Riess riportano un valore della costante di Hubble di ben 73 Km/sec per Megaparsec, indicando che le galassie si stanno muovendo ad una velocita’ di allontanamento maggiore di quella prevista. I risultati della misura della costante di Hubble sono cosi precisi che gli astrofisici non possono non tener conto di questa incongruenza. Il team ritiene che alcune delle possibili spiegazioni per questa differenza siano legate all’universo oscuro che e’ il 95% della materia/energia contenuta nel nostro universo. La materia normale come stelle, pianeti e gas si crede costituisca solo il 5% del nostro universo. Il rimanente per il 25% e’ materia oscura e il 70% energia oscura, entrambi invisibili e mai rilevati in modo diretto. Vediamo la prima possibilita’. L’energia oscura, gia’ conosciuta in passato come fattore di accelerazione del nostro universo, sta spingendo lontano da noi le galassie con molta piu’ forza di quanto previsto. Questo potrebbe significare che l’accelerazione stessa potrebbe non essere costante ma cambiare nel tempo. Se questo fosse vero bisognerebbe allora rivedere il cosiddetto modello&lt;font color="#00ffff"&gt; &lt;/font&gt;&lt;a href="https://it.wikipedia.org/wiki/Modello_Lambda-CDM" target="_blank"&gt;&lt;font color="#00ffff"&gt;ACDM&lt;/font&gt;&lt;/a&gt; (Lambda cold dark matter) che spiega l’accelerazione del cosmo con la comparsa e scomparsa di particelle virtuali nello spazio vuoto che stirano lo spazio-tempo. Questo continuo ribollire del vuoto infatti non potrebbe spiegare un accelerazione che cambia col tempo. &lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-ciiN5tJck10/Wq5m8eHnCxI/AAAAAAAAHjo/A86tfGWaSxcnX95ZHCPowDxbKYCDEt2ugCHMYCw/s1600-h/clip_image011%255B3%255D"&gt;&lt;img width="272" height="302" title="clip_image011" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image011" src="https://lh3.googleusercontent.com/-fVEt_UXglZE/Wq5m9Cvbg0I/AAAAAAAAHjs/5ZCKclzapBojGhgfqim0gQZeT-jZIbwcgCHMYCw/clip_image011_thumb?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;p align="justify"&gt;Un’altra idea e’ quella che l’universo contenga delle nuove particelle subatomiche che viaggiano ad una velocita’ prossima a quella della luce. Si tratta di particelle velocissime, chiamate collettivamente “radiazione oscura”. Probabilmente si tratta di qualche cosa simile alle note particelle chiamate neutrini, creati nelle reazioni nucleari e nei decadimenti radioattivi. Diversamente da un &lt;a href="https://it.wikipedia.org/wiki/Neutrino" target="_blank"&gt;&lt;font color="#00ffff"&gt;neutrino&lt;/font&gt;&lt;/a&gt; normale pero’ che interagisce tramite la &lt;a href="https://it.wikipedia.org/wiki/Interazione_debole" target="_blank"&gt;&lt;font color="#00ffff"&gt;forza debole&lt;/font&gt;&lt;/a&gt;, queste nuove particelle dovrebbero essere influenzate solo dalla forza di gravita’ ed e’ per questo che hanno ricevuto il soprannome di “&lt;a href="https://it.wikipedia.org/wiki/Neutrino_sterile" target="_blank"&gt;&lt;font color="#00ffff"&gt;neutrini sterili&lt;/font&gt;&lt;/a&gt;”. Per analogia con i fotoni che sono i mediatori della forza elettromagnetica tra particelle, i neutrini sterili dovrebbero essere i mediatori delle interazioni tra particelle di materia oscura. E come per le particelle di materia oscura, anche la radiazione oscura non interagisce con la materia nominale. L’ultima possibile spiegazione e’ che la materia oscura interagisca piu’ fortemente con la materia nominale e/o la radiazione di quanto assunto fino ad ora. Al momento il team di Riess non ha una risposta al problema anche se sta continuando a raccogliere misure di stelle lontane per cercare di abbassare ulteriormente l’incertezza e migliorare la precisione sul valore della costante di Hubble. &lt;p align="justify"&gt;Dove e’ possibile arrivare partendo da questo risultato? &lt;p align="justify"&gt;Guardando i risultati ottenuti fino ad oggi e’ possibile come riportato da Riess, che l’energia oscura giochi un ruolo importante anche se e’ piu’ probabile che sia una qualche nuova particella o qualche cosa che ha a che fare con come interagisce la materia oscura. Normalmente quest’ultima viene considerata come costituita da &lt;a href="https://it.wikipedia.org/wiki/Wimp_(fisica)" target="_blank"&gt;&lt;font color="#00ffff"&gt;WIMP&lt;/font&gt;&lt;/a&gt;, cioe’ da particelle pesanti che interagiscono debolmente con la materia nominale. Bene e’ possibile che l’interazione in fin dei conti non sia cosi debole come pensato. Questo potrebbe cambiare le cose e dare origine ad un qualche cosa simile all’universo che vediamo noi. &lt;p align="justify"&gt;E se lo dice il premio Nobel Riess forse c’e’ da credere. Aspettiamo con impazienza le prossime scoperte. Fate le vostre scommesse. La fisica sta diventando misteriosa e magica. </description><link>http://quantidiscienza.blogspot.com/2018/03/una-nuova-fisica-al-lavoro-nelluniverso.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://lh3.googleusercontent.com/-ALW-ZKllFHo/Wq5m0_P3iNI/AAAAAAAAHjE/iv1gHF-3JJw02inQ8Wd6nWFVg0OwRSTswCHMYCw/s72-c/clip_image001_thumb?imgmax=800" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-6659323768054149413</guid><pubDate>Sun, 25 Feb 2018 16:48:00 +0000</pubDate><atom:updated>2018-02-25T08:48:46.461-08:00</atom:updated><title>Come torturare i dati per farli parlare</title><description>&lt;p align="justify"&gt;Il post di oggi e’ anomalo. Non si tratta del solito articolo. Ma di due presentazioni fatte alcuni anni fa per introdurre le tecniche di data mining/machine learning e&amp;nbsp; un ottimo software free (Orange) che ognuno puo’ scaricare ed utilizzare per fare un po’ di pratica. In queste slides vengono descritti i concetti base del machine learning, delle tecniche analitiche e del data mining quali decision tree, clustering, analisi di Bayes, association rules, self organizing maps, supported vector machines, random forest etc . L’idea alla base di queste due presentazioni è stata quella di introdurre i partecipanti (adesso i lettori del blog) nel mondo degli algoritmi sviluppati dalla cosiddetta computer science di cui tanto si sente parlare in ambiti quale l’internet delle cose, automobili senza guidatori, robots, droni&amp;nbsp; solo per citarni alcuni. &lt;/p&gt;&lt;p align="justify"&gt;Il machine learning e’ fondamentale nello studio dei sistemi complessi in cui a causa dell’elevato numero di componenti e delle loro interazioni fortemente non lineari non si possono modellizzare facilmente. L’unica possibilita’ e’ quella di mettere al lavoro gli analytics oggi disponibili per cercare nella vasta mole dei dati le relazioni fondamentali, i patterns piu’ importanti, le informazioni nascoste come pepite all’interno delle miniere. Gli algoritmi di machine learning permettono di tirare fuori dai dati le informazioni utili riducendo in modo opportuno il volume dei dati. Pensate ad una piramide. Man mano che si sale verso l’alto, cioe’ man mano che il volume diminuisce emerge l’informazione.&amp;nbsp; MI fermo qui e vi lascio alle circa 200 slides. Buona lettura.&amp;nbsp;&amp;nbsp; &lt;/p&gt;&lt;p align="justify"&gt;&lt;a href="https://www.slideshare.net/feru60/data-mining-winter-lab-conference" target="_blank"&gt;&lt;font color="#00ffff"&gt;Data mining e machine learning&lt;/font&gt;&lt;/a&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;a href="https://www.slideshare.net/feru60/orange-felice-russo" target="_blank"&gt;&lt;font color="#00ffff"&gt;Introduzione ad Orange&lt;/font&gt;&lt;/a&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;br&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi1IQ5kt93Z_FVB7nMczibL1DZ93B_qdsQgkasVtmpV9wE3ocYA9RgufVvcNzT0efWNwzzsCNrnNh_fW3LLYG9My6BZcLXBpXx8jvkyh-t34eZcenOSHHGCOIv8XAJgBhSmytPikIJW/s1600-h/image%255B3%255D"&gt;&lt;img width="468" height="269" title="image" style="margin: 0px auto; border-image: none; float: none; display: block; background-image: none;" alt="image" src="https://lh3.googleusercontent.com/-RYzPYqSOJQI/WpLo7AuakVI/AAAAAAAAHfo/e9aq9bsmnWciEyZJ8MW3wjN8O2TFzOS9gCHMYCw/image_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;/p&gt;</description><link>http://quantidiscienza.blogspot.com/2018/02/come-torturare-i-dati-per-farli-parlare.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://lh3.googleusercontent.com/-RYzPYqSOJQI/WpLo7AuakVI/AAAAAAAAHfo/e9aq9bsmnWciEyZJ8MW3wjN8O2TFzOS9gCHMYCw/s72-c/image_thumb%255B1%255D?imgmax=800" width="72"/><thr:total>0</thr:total></item><item><guid isPermaLink="false">tag:blogger.com,1999:blog-5267136560849468780.post-4693158613573853990</guid><pubDate>Sun, 28 Jan 2018 11:19:00 +0000</pubDate><atom:updated>2018-01-28T03:19:45.545-08:00</atom:updated><title>Gallerie spazio-temporali per unire relativita’ e quantizzazione</title><description>&lt;p&gt;&lt;br&gt;&lt;/p&gt;&lt;p align="justify"&gt;&lt;font size="3"&gt;Nel 1935, alcuni fisici pubblicarono due articoli in cui venivano introdotti due concetti chiave dell’attuale cosmologia: l’&lt;a href="https://it.wikipedia.org/wiki/Entanglement_quantistico" target="_blank"&gt;&lt;font color="#00ffff"&gt;entaglement&lt;/font&gt;&lt;/a&gt; e i &lt;a href="https://it.wikipedia.org/wiki/Ponte_di_Einstein-Rosen" target="_blank"&gt;&lt;font color="#00ffff"&gt;wormholes&lt;/font&gt;&lt;/a&gt;. &lt;/font&gt;&lt;p align="justify"&gt;&lt;font size="3"&gt;Vediamo un attimo di cosa si tratta partendo dall’entaglement. Secondo la &lt;a href="https://it.wikipedia.org/wiki/Meccanica_quantistica" target="_blank"&gt;&lt;font color="#00ffff"&gt;meccanica quantistica&lt;/font&gt;&lt;/a&gt;, le particelle entagled rimangono connesse tra loro anche se si trovano a distanze quasi infinite. Qualsiasi azione eseguita su una delle due particelle influenza il comportamento dell’altra. Questo significa per esempio che se in seguito ad una misura dello &lt;a href="https://it.wikipedia.org/wiki/Spin" target="_blank"&gt;&lt;font color="#00ffff"&gt;spin&lt;/font&gt;&lt;/a&gt; di una delle due particelle lo si trova up, quello dell’altra anche se misurato un’istante dopo sara’ down. Lo spin in meccanica quantistica e’ una grandezza fisica associata alle particelle e che ne definisce il loro stato quantico. Questa grandezza e’ una forma di &lt;a href="https://it.wikipedia.org/wiki/Momento_angolare" target="_blank"&gt;&lt;font color="#00ffff"&gt;momento angolare&lt;/font&gt;&lt;/a&gt;, avendo in comune la stessa dimensione. Per analogia richiama alla mente la rotazione di una particella intorno al proprio asse.&lt;/font&gt;&lt;p align="justify"&gt;&lt;font size="3"&gt;L’entaglement ha luogo quando le particelle interagiscono tra loro fisicamente. Per esempio un laser colpendo un particolare tipo di cristallo puo’ generare coppie di fotoni entagled che pur allontanandosi tra loro sempre di piu’ rimangono in connessione. Questa teoria che irrito’ non poco Einstein e’ anche riferita come “la spaventosa azione a distanza”. Come e’ possibile che due particelle anche a distanze enormi possano influenzarsi a vicenda subito se qualsiasi segnale nell’universo non puo’ viaggiare a velocita’ maggiore di quella della luce?&lt;/font&gt;&lt;p&gt;&lt;a href="https://lh3.googleusercontent.com/-NSG8iHHhsmM/Wm2xwD7VLOI/AAAAAAAAHdM/L5u3G_-OtRMMA_LwyhZkz2RwocT2S41aQCHMYCw/s1600-h/clip_image002%255B4%255D"&gt;&lt;img width="323" height="180" title="clip_image002" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image002" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgi63fiWd4bVY-f1oFHYRTly7N2PtAlMreUbwFbQZTfJ3rKR-ktYe48ZkV8dStGrPkmkKjiVzkPb6QAePrYwgxNbiwwq2sXsKadAW1401PONt8jm4DmNWcQADtGidPvRgMUzRMVNCmx/?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Passiamo adesso ai wormhole. Grazie alla teoria di Einstein oggi sappiamo che la trama del nostro universo e’ lo &lt;a href="https://it.wikipedia.org/wiki/Spaziotempo" target="_blank"&gt;&lt;font color="#00ffff"&gt;spazio-tempo&lt;/font&gt;&lt;/a&gt;. Esso puo’ essere deformato e distorto. Per fare questo lo spazio-tempo ha bisogno di grandi quantita’ di massa o di energia, ma teoricamente queste distorsioni sono possibili. Nel caso di un wormhole, si tratta di una scorciatoia ottenuta grazie alla deformazione del tessuto spazio-temporale. Immaginiamo di disegnare due punti su di un foglio di carta e di misurarne la distanza. Adesso pieghiamo il foglio in due sovrapponendo i due punti e attraversandoli con una penna. La distanza tra essi e’ decisamente inferiore a quella di prima. E’ esattamente quello che succede con un wormhole. Il problema di queste strutture e’ che essi sono instabili. Quando una particella vi entra dentro crea delle fluttuazioni che fanno collassare la struttura.&lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5&gt;&lt;a href="https://lh3.googleusercontent.com/-s75XACYf6sI/Wm2xxwVtAaI/AAAAAAAAHdU/bHD2HHyuCmIwRYjpRazJ-Jeeg2eFU9MwQCHMYCw/s1600-h/clip_image004%255B4%255D"&gt;&lt;img width="375" height="201" title="clip_image004" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image004" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhnARuTV8AH3uwzcGj8CxrROgBTkXvMeuQtUBXvGlgOqlRHeXv91jG_ih4LIJHKAUyQgb0o0qfy7rJeWNiUP2cjvDVlDb9HPant7-J1hTjSgy3jK2yOk7vEVtrYjhLZZZmCxiQJrF4q/?imgmax=800" border="0"&gt;&lt;/a&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Nel 2013 &lt;a href="https://it.wikipedia.org/wiki/Leonard_Susskind" target="_blank"&gt;&lt;font color="#00ffff"&gt;Leonard Susskind&lt;/font&gt;&lt;/a&gt; un fisico di Stanford e &lt;a href="https://en.wikipedia.org/wiki/Juan_Mart%C3%ADn_Maldacena" target="_blank"&gt;&lt;font color="#00ffff"&gt;Juan Maldacena&lt;/font&gt;&lt;/a&gt; dell’Advanced Study of Princeton hanno ipotizzato che questi due fenomeni siano la stessa cosa e questo potrebbe creare un ponte tra la teoria della &lt;a href="https://it.wikipedia.org/wiki/Relativit%C3%A0_generale" target="_blank"&gt;&lt;font color="#00ffff"&gt;relativita’ generale&lt;/font&gt;&lt;/a&gt; e la &lt;a href="https://it.wikipedia.org/wiki/Meccanica_quantistica" target="_blank"&gt;&lt;font color="#00ffff"&gt;meccanica quantistica&lt;/font&gt;&lt;/a&gt;. Uno dei problemi più difficili che la fisica oggi si trova ad affrontare riguarda proprio queste due teorie&amp;nbsp; che funzionano perfettamente nel loro dominio di validita’ e che vanno invece in conflitto quando si cerca di combinarle. Susskind e Maldacena hanno riassunto il tutto in un’equazione: ER=EPR.&lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Non si tratta di un’equazione numerica, ma piuttosto di un’equazione con le iniziali dei nomi di alcuni importanti fisici teorici. &lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Nella parte a sinistra, ER stanno ad indicare &lt;a href="https://www.google.it/url?sa=t&amp;amp;rct=j&amp;amp;q=&amp;amp;esrc=s&amp;amp;source=web&amp;amp;cd=1&amp;amp;cad=rja&amp;amp;uact=8&amp;amp;sqi=2&amp;amp;ved=0ahUKEwjv6ZihpvLNAhUJD8AKHY43AloQFggcMAA&amp;amp;url=https%3A%2F%2Fit.wikipedia.org%2Fwiki%2FAlbert_Einstein&amp;amp;usg=AFQjCNFFlVaAXIeLrwARTrSbX_RVjEOyRA&amp;amp;sig2=TPbPAVN5blZDNOTMatiGCQ&amp;amp;bvm=bv.126993452,d.ZGg" target="_blank"&gt;&lt;font color="#00ffff"&gt;Einstein&lt;/font&gt;&lt;/a&gt; e &lt;a href="https://it.wikipedia.org/wiki/Nathan_Rosen" target="_blank"&gt;&lt;font color="#00ffff"&gt;Nathan Rosen&lt;/font&gt;&lt;/a&gt; che in un articolo del 1935 descrissero la struttura dei wormhole, noti tecnicamente come ponti di Einstein-Rosen. A destra, invece, EPR stanno per Einstein, Rosen e &lt;a href="https://it.wikipedia.org/wiki/Boris_Podolsky" target="_blank"&gt;&lt;font color="#00ffff"&gt;Boris Podolsky&lt;/font&gt;&lt;/a&gt;, quest’ultimo co-autore di un altro articolo di quello stesso anno in cui veniva descritto l’entanglement quantistico. L’equazione semplicemente getta un ponte tra i wormhole e l’entaglement. E questa connessione potrebbe spiegare la continuita’ dello spazio tempo che diventerebbe cosi la manifestazione geometrica dell’entaglement.&lt;/font&gt;&lt;/font&gt;&lt;font style="font-weight: normal;"&gt; &lt;/font&gt;&lt;/h5&gt;&lt;h5&gt;&lt;br&gt;&lt;/h5&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgXiVI36ndLQhN2e7GT-65pNzfUpgXgrQOAAZyuz62coTyeFxU9GWTtPIRmkKMSxUh8RZc10HQ5ym3jGffuKkIwgy3cxISN1_t2XhmL48UpzS2eqxkW9YPQg4GA6fzObxUXDF3c72o_/s1600-h/clip_image006%255B4%255D"&gt;&lt;strong&gt;&lt;img width="391" height="203" title="clip_image006" style="margin: 0px auto; border: 0px currentcolor; border-image: none; float: none; display: block; background-image: none;" alt="clip_image006" src="https://lh3.googleusercontent.com/-o-WLp5Qlqxg/Wm2xzyiJ1mI/AAAAAAAAHdg/Wu-zviIJpPkwaGWOJIogDt0svLSSPPi_gCHMYCw/clip_image006_thumb%255B1%255D?imgmax=800" border="0"&gt;&lt;/strong&gt;&lt;/a&gt;&lt;h5&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Susskind va oltre e pensa che l’entaglement quantistico sia una forma di informazione, una stringa di 1 e di 0, e che quindi lo spazio tempo altro non sia che una manifestazione dell’informazione quantistica. Il principio ER=EPR, getta le basi per lo sviluppo della &lt;a href="https://it.wikipedia.org/wiki/Gravit%C3%A0_quantistica" target="_blank"&gt;&lt;font color="#00ffff"&gt;gravita’ quantistica&lt;/font&gt;&lt;/a&gt; anche se al momento non e’ chiaro come. E’ possibile che quando in laboratorio creiamo per esempio dei fotoni entangled questi siano connessi tramite un microscopico wormhole? Al momento nessuno lo sa anche se e’ affascinante pensare di si. In un nuovo articolo Susskind propone uno scenario dove ipotizza che delle particelle inizialmente entagled (correlate) si muovano in direzioni opposte dell’universo. Una volta lontane tra loro queste particelle collassano in buchi neri soggette alla loro stessa forza di gravita’. Secondo Susskind questi due buchi neri sono a loro volta connessi (entangled) tramite un gigantesco wormhole che attraversa l’universo da una parte all’altra. Dunque se l’equazione ER=EPR e’ giusta vuol dire che i due buchi neri saranno collegati da un gigantesco tunnel spazio temporale e l’entaglement altro non e’ che la descrizione geometrica di tali oggetti. &lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Teoria a dir poco sbalorditiva. Ma c’e’ la possibilita’ di provarla? Difficile dirlo. Di sicuro ci sono sempre piu’ ricercatori che iniziano a studiare questa ipotesi ed e’ possibile che in un prossimo futuro si riesca a gettare luce su uno dei misteri della Natura che assilla le menti di molti scienziati da quasi un secolo. &lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5 align="justify"&gt;&lt;font size="3"&gt;&lt;font style="font-weight: normal;"&gt;Secondo Susskind, “sembra ovvio che se ER = EPR è vera, allora siamo di fronte a qualcosa di grosso che potrebbe influenzare le fondamenta e le interpretazioni della meccanica quantisica. Se ho ragione, la meccanica quantistica e la gravità sono ancora di più correlate di quanto (almeno io) abbiamo mai pensato”.&lt;/font&gt;&lt;/font&gt;&lt;/h5&gt;&lt;h5&gt;&lt;/h5&gt;&lt;h5&gt;&lt;a href="https://arxiv.org/pdf/1707.04354"&gt;&lt;font color="#00ffff"&gt;https://arxiv.org/pdf/1707.04354&lt;/font&gt;&lt;/a&gt;&lt;/h5&gt;&lt;h5&gt;&lt;a href="https://arxiv.org/pdf/1306.0533.pdf"&gt;&lt;font color="#00ffff"&gt;https://arxiv.org/pdf/1306.0533.pdf&lt;/font&gt;&lt;/a&gt;&lt;/h5&gt;&lt;h5&gt;&lt;a href="https://arxiv.org/pdf/1604.02589"&gt;&lt;font color="#00ffff"&gt;https://arxiv.org/pdf/1604.02589&lt;/font&gt;&lt;/a&gt;&lt;/h5&gt;</description><link>http://quantidiscienza.blogspot.com/2018/01/gallerie-spazio-temporali-per-unire.html</link><author>noreply@blogger.com (Felice)</author><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgi63fiWd4bVY-f1oFHYRTly7N2PtAlMreUbwFbQZTfJ3rKR-ktYe48ZkV8dStGrPkmkKjiVzkPb6QAePrYwgxNbiwwq2sXsKadAW1401PONt8jm4DmNWcQADtGidPvRgMUzRMVNCmx/s72-c?imgmax=800" width="72"/><thr:total>0</thr:total><enclosure length="2014517" type="application/pdf" url="https://arxiv.org/pdf/1707.04354"/><itunes:explicit>no</itunes:explicit><itunes:subtitle>Nel 1935, alcuni fisici pubblicarono due articoli in cui venivano introdotti due concetti chiave dell’attuale cosmologia: l’entaglement e i wormholes. Vediamo un attimo di cosa si tratta partendo dall’entaglement. Secondo la meccanica quantistica, le particelle entagled rimangono connesse tra loro anche se si trovano a distanze quasi infinite. Qualsiasi azione eseguita su una delle due particelle influenza il comportamento dell’altra. Questo significa per esempio che se in seguito ad una misura dello spin di una delle due particelle lo si trova up, quello dell’altra anche se misurato un’istante dopo sara’ down. Lo spin in meccanica quantistica e’ una grandezza fisica associata alle particelle e che ne definisce il loro stato quantico. Questa grandezza e’ una forma di momento angolare, avendo in comune la stessa dimensione. Per analogia richiama alla mente la rotazione di una particella intorno al proprio asse.L’entaglement ha luogo quando le particelle interagiscono tra loro fisicamente. Per esempio un laser colpendo un particolare tipo di cristallo puo’ generare coppie di fotoni entagled che pur allontanandosi tra loro sempre di piu’ rimangono in connessione. Questa teoria che irrito’ non poco Einstein e’ anche riferita come “la spaventosa azione a distanza”. Come e’ possibile che due particelle anche a distanze enormi possano influenzarsi a vicenda subito se qualsiasi segnale nell’universo non puo’ viaggiare a velocita’ maggiore di quella della luce? Passiamo adesso ai wormhole. Grazie alla teoria di Einstein oggi sappiamo che la trama del nostro universo e’ lo spazio-tempo. Esso puo’ essere deformato e distorto. Per fare questo lo spazio-tempo ha bisogno di grandi quantita’ di massa o di energia, ma teoricamente queste distorsioni sono possibili. Nel caso di un wormhole, si tratta di una scorciatoia ottenuta grazie alla deformazione del tessuto spazio-temporale. Immaginiamo di disegnare due punti su di un foglio di carta e di misurarne la distanza. Adesso pieghiamo il foglio in due sovrapponendo i due punti e attraversandoli con una penna. La distanza tra essi e’ decisamente inferiore a quella di prima. E’ esattamente quello che succede con un wormhole. Il problema di queste strutture e’ che essi sono instabili. Quando una particella vi entra dentro crea delle fluttuazioni che fanno collassare la struttura.Nel 2013 Leonard Susskind un fisico di Stanford e Juan Maldacena dell’Advanced Study of Princeton hanno ipotizzato che questi due fenomeni siano la stessa cosa e questo potrebbe creare un ponte tra la teoria della relativita’ generale e la meccanica quantistica. Uno dei problemi più difficili che la fisica oggi si trova ad affrontare riguarda proprio queste due teorie&amp;nbsp; che funzionano perfettamente nel loro dominio di validita’ e che vanno invece in conflitto quando si cerca di combinarle. Susskind e Maldacena hanno riassunto il tutto in un’equazione: ER=EPR.Non si tratta di un’equazione numerica, ma piuttosto di un’equazione con le iniziali dei nomi di alcuni importanti fisici teorici. Nella parte a sinistra, ER stanno ad indicare Einstein e Nathan Rosen che in un articolo del 1935 descrissero la struttura dei wormhole, noti tecnicamente come ponti di Einstein-Rosen. A destra, invece, EPR stanno per Einstein, Rosen e Boris Podolsky, quest’ultimo co-autore di un altro articolo di quello stesso anno in cui veniva descritto l’entanglement quantistico. L’equazione semplicemente getta un ponte tra i wormhole e l’entaglement. E questa connessione potrebbe spiegare la continuita’ dello spazio tempo che diventerebbe cosi la manifestazione geometrica dell’entaglement. Susskind va oltre e pensa che l’entaglement quantistico sia una forma di informazione, una stringa di 1 e di 0, e che quindi lo spazio tempo altro non sia che una manifestazione dell’informazione quantistica. Il principio ER=EPR, getta le basi per lo sviluppo della gravita’ quantistica anche se al momento non e’ chiaro come. E’ possibile che quando in laboratorio creiamo per esempio dei fotoni entangled questi siano connessi tramite un microscopico wormhole? Al momento nessuno lo sa anche se e’ affascinante pensare di si. In un nuovo articolo Susskind propone uno scenario dove ipotizza che delle particelle inizialmente entagled (correlate) si muovano in direzioni opposte dell’universo. Una volta lontane tra loro queste particelle collassano in buchi neri soggette alla loro stessa forza di gravita’. Secondo Susskind questi due buchi neri sono a loro volta connessi (entangled) tramite un gigantesco wormhole che attraversa l’universo da una parte all’altra. Dunque se l’equazione ER=EPR e’ giusta vuol dire che i due buchi neri saranno collegati da un gigantesco tunnel spazio temporale e l’entaglement altro non e’ che la descrizione geometrica di tali oggetti. Teoria a dir poco sbalorditiva. Ma c’e’ la possibilita’ di provarla? Difficile dirlo. Di sicuro ci sono sempre piu’ ricercatori che iniziano a studiare questa ipotesi ed e’ possibile che in un prossimo futuro si riesca a gettare luce su uno dei misteri della Natura che assilla le menti di molti scienziati da quasi un secolo. Secondo Susskind, “sembra ovvio che se ER = EPR è vera, allora siamo di fronte a qualcosa di grosso che potrebbe influenzare le fondamenta e le interpretazioni della meccanica quantisica. Se ho ragione, la meccanica quantistica e la gravità sono ancora di più correlate di quanto (almeno io) abbiamo mai pensato”.https://arxiv.org/pdf/1707.04354https://arxiv.org/pdf/1306.0533.pdfhttps://arxiv.org/pdf/1604.02589</itunes:subtitle><itunes:author>noreply@blogger.com (Felice)</itunes:author><itunes:summary>Nel 1935, alcuni fisici pubblicarono due articoli in cui venivano introdotti due concetti chiave dell’attuale cosmologia: l’entaglement e i wormholes. Vediamo un attimo di cosa si tratta partendo dall’entaglement. Secondo la meccanica quantistica, le particelle entagled rimangono connesse tra loro anche se si trovano a distanze quasi infinite. Qualsiasi azione eseguita su una delle due particelle influenza il comportamento dell’altra. Questo significa per esempio che se in seguito ad una misura dello spin di una delle due particelle lo si trova up, quello dell’altra anche se misurato un’istante dopo sara’ down. Lo spin in meccanica quantistica e’ una grandezza fisica associata alle particelle e che ne definisce il loro stato quantico. Questa grandezza e’ una forma di momento angolare, avendo in comune la stessa dimensione. Per analogia richiama alla mente la rotazione di una particella intorno al proprio asse.L’entaglement ha luogo quando le particelle interagiscono tra loro fisicamente. Per esempio un laser colpendo un particolare tipo di cristallo puo’ generare coppie di fotoni entagled che pur allontanandosi tra loro sempre di piu’ rimangono in connessione. Questa teoria che irrito’ non poco Einstein e’ anche riferita come “la spaventosa azione a distanza”. Come e’ possibile che due particelle anche a distanze enormi possano influenzarsi a vicenda subito se qualsiasi segnale nell’universo non puo’ viaggiare a velocita’ maggiore di quella della luce? Passiamo adesso ai wormhole. Grazie alla teoria di Einstein oggi sappiamo che la trama del nostro universo e’ lo spazio-tempo. Esso puo’ essere deformato e distorto. Per fare questo lo spazio-tempo ha bisogno di grandi quantita’ di massa o di energia, ma teoricamente queste distorsioni sono possibili. Nel caso di un wormhole, si tratta di una scorciatoia ottenuta grazie alla deformazione del tessuto spazio-temporale. Immaginiamo di disegnare due punti su di un foglio di carta e di misurarne la distanza. Adesso pieghiamo il foglio in due sovrapponendo i due punti e attraversandoli con una penna. La distanza tra essi e’ decisamente inferiore a quella di prima. E’ esattamente quello che succede con un wormhole. Il problema di queste strutture e’ che essi sono instabili. Quando una particella vi entra dentro crea delle fluttuazioni che fanno collassare la struttura.Nel 2013 Leonard Susskind un fisico di Stanford e Juan Maldacena dell’Advanced Study of Princeton hanno ipotizzato che questi due fenomeni siano la stessa cosa e questo potrebbe creare un ponte tra la teoria della relativita’ generale e la meccanica quantistica. Uno dei problemi più difficili che la fisica oggi si trova ad affrontare riguarda proprio queste due teorie&amp;nbsp; che funzionano perfettamente nel loro dominio di validita’ e che vanno invece in conflitto quando si cerca di combinarle. Susskind e Maldacena hanno riassunto il tutto in un’equazione: ER=EPR.Non si tratta di un’equazione numerica, ma piuttosto di un’equazione con le iniziali dei nomi di alcuni importanti fisici teorici. Nella parte a sinistra, ER stanno ad indicare Einstein e Nathan Rosen che in un articolo del 1935 descrissero la struttura dei wormhole, noti tecnicamente come ponti di Einstein-Rosen. A destra, invece, EPR stanno per Einstein, Rosen e Boris Podolsky, quest’ultimo co-autore di un altro articolo di quello stesso anno in cui veniva descritto l’entanglement quantistico. L’equazione semplicemente getta un ponte tra i wormhole e l’entaglement. E questa connessione potrebbe spiegare la continuita’ dello spazio tempo che diventerebbe cosi la manifestazione geometrica dell’entaglement. Susskind va oltre e pensa che l’entaglement quantistico sia una forma di informazione, una stringa di 1 e di 0, e che quindi lo spazio tempo altro non sia che una manifestazione dell’informazione quantistica. Il principio ER=EPR, getta le basi per lo sviluppo della gravita’ quantistica anche se al momento non e’ chiaro come. E’ possibile che quando in laboratorio creiamo per esempio dei fotoni entangled questi siano connessi tramite un microscopico wormhole? Al momento nessuno lo sa anche se e’ affascinante pensare di si. In un nuovo articolo Susskind propone uno scenario dove ipotizza che delle particelle inizialmente entagled (correlate) si muovano in direzioni opposte dell’universo. Una volta lontane tra loro queste particelle collassano in buchi neri soggette alla loro stessa forza di gravita’. Secondo Susskind questi due buchi neri sono a loro volta connessi (entangled) tramite un gigantesco wormhole che attraversa l’universo da una parte all’altra. Dunque se l’equazione ER=EPR e’ giusta vuol dire che i due buchi neri saranno collegati da un gigantesco tunnel spazio temporale e l’entaglement altro non e’ che la descrizione geometrica di tali oggetti. Teoria a dir poco sbalorditiva. Ma c’e’ la possibilita’ di provarla? Difficile dirlo. Di sicuro ci sono sempre piu’ ricercatori che iniziano a studiare questa ipotesi ed e’ possibile che in un prossimo futuro si riesca a gettare luce su uno dei misteri della Natura che assilla le menti di molti scienziati da quasi un secolo. Secondo Susskind, “sembra ovvio che se ER = EPR è vera, allora siamo di fronte a qualcosa di grosso che potrebbe influenzare le fondamenta e le interpretazioni della meccanica quantisica. Se ho ragione, la meccanica quantistica e la gravità sono ancora di più correlate di quanto (almeno io) abbiamo mai pensato”.https://arxiv.org/pdf/1707.04354https://arxiv.org/pdf/1306.0533.pdfhttps://arxiv.org/pdf/1604.02589</itunes:summary></item></channel></rss>