<?xml version="1.0" encoding="UTF-8" standalone="no"?><?xml-stylesheet href="http://www.blogger.com/styles/atom.css" type="text/css"?><rss xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" version="2.0"><channel><title>"Ex-ample" of Online Services</title><description>Open Software as a service (SaaS). Ex-ample just below, &lt;b&gt;change&lt;/b&gt; "Put your text"  and you will see:</description><managingEditor>noreply@blogger.com (Stef)</managingEditor><pubDate>Sat, 28 Mar 2026 23:14:24 +0100</pubDate><generator>Blogger http://www.blogger.com</generator><openSearch:totalResults xmlns:openSearch="http://a9.com/-/spec/opensearchrss/1.0/">538</openSearch:totalResults><openSearch:startIndex xmlns:openSearch="http://a9.com/-/spec/opensearchrss/1.0/">1</openSearch:startIndex><openSearch:itemsPerPage xmlns:openSearch="http://a9.com/-/spec/opensearchrss/1.0/">5</openSearch:itemsPerPage><link>http://ex-ample.blogspot.com/</link><language>en-us</language><itunes:explicit>no</itunes:explicit><itunes:summary>Open Software as a service (SaaS). Ex-ample just below, change "Put your text" and you will see:</itunes:summary><itunes:subtitle>Open Software as a service (SaaS). Ex-ample just below, change "Put your text" and you will see:</itunes:subtitle><itunes:owner><itunes:email>noreply@blogger.com</itunes:email></itunes:owner><xhtml:meta content="noindex" name="robots" xmlns:xhtml="http://www.w3.org/1999/xhtml"/><item><title>un petit mot sur le début de mon amor pour l'info, le génie logiciel et surtout ces "Con-pute-heures", il y a 45 ans 1980--&gt;2025. 3 beaux langages: labview, mathematica et APL</title><link>http://ex-ample.blogspot.com/2025/03/un-petit-mot-sur-le-debut-de-mon-amor.html</link><category>1ex-ample</category><category>APL</category><category>histoire personnelle</category><category>labview</category><category>mathematica</category><category>neuroInformatics</category><author>noreply@blogger.com (Stef)</author><pubDate>Wed, 26 Mar 2025 06:24:00 +0100</pubDate><guid isPermaLink="false">tag:blogger.com,1999:blog-4397760651189026054.post-6265699902255092214</guid><description>&lt;p&gt;J'ai écrit mon premier programme en assembleur et aussi hexadecimal et en basic en ~1979 sur le célèbre 6502 de MOS Technology des anciens de MOTorola qui avaient sortit une puce 7 fois moins cher.&lt;/p&gt;&lt;p&gt;En plus son architecture interne faisait que le processeur n'accédait pas au bus pendant une période de son cycle d'exécution. Ainsi le système vidéo utilisait cette latence pour accéder à la mémoire écran, sans recourir à un contrôleur mémoire. Puis on avait enfin un ordi mono-carte.&lt;/p&gt;&lt;p&gt;C'était une époque géniale avec la console de jeux vidéo Atari 2600 (un 6507 encore moins cher), et les Apple II, qu'un ami avait, puis avec les divers ordinateurs personnels comme l'Oric que j'ai acheté et programmé durant tout l'été après math spé en attendant le retour des concours.&lt;/p&gt;&lt;p&gt;Une des seules choses que je n'ai pas faite avec ces automates nommés ordinateurs&amp;nbsp; à la place de "Con-pute-heures", c'est écrire un compilateur.&amp;nbsp;&lt;/p&gt;&lt;p&gt;Pourquoi ordinateur? La notion de « mise en ordre » pour définir cette machine n'était pas si mauvais (plutot que calculateur/calculatrice).&lt;/p&gt;&lt;p&gt;On trouve code source "petit" d'un compilateur :&lt;br /&gt;&amp;nbsp;"Créer son propre langage de programmation de A à Z":&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;a href="https://totodu.net/Compilation/Compilation"&gt;https://totodu.net/Compilation/Compilation&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;Sinon trois des meilleurs langages que j'ai aimés:&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ul style="text-align: left;"&gt;&lt;li&gt;labview (exactement langage G),&amp;nbsp;&lt;/li&gt;&lt;li&gt;mathematica,&amp;nbsp;&lt;/li&gt;&lt;li&gt;APL.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;APL c'est extraordinaire avec sa notation mathématique rigoureuse et surtout hyper concise.&lt;/p&gt;&lt;p&gt;Exemple pour indexer un tableau par un autre tableau:&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjz_RiGoaW_Bj8yjpuhaa3qks3JZJIlFLtErAd_ifznRy2spfiyO1wBFuffEt9J-HseyXhiVRfw7urTv_fUfi0LNKfsbwve7MjAc2Qf7VpRnjzOjN95kYe6WnRiA9SnvF3nhzwiwAwuS6VXpSC6RWy5AIb3Sd0tv5syz3MOEr7bRQazDUaa0FUF4R0CtOas/s1336/APL_langage.jpg" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="954" data-original-width="1336" height="458" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjz_RiGoaW_Bj8yjpuhaa3qks3JZJIlFLtErAd_ifznRy2spfiyO1wBFuffEt9J-HseyXhiVRfw7urTv_fUfi0LNKfsbwve7MjAc2Qf7VpRnjzOjN95kYe6WnRiA9SnvF3nhzwiwAwuS6VXpSC6RWy5AIb3Sd0tv5syz3MOEr7bRQazDUaa0FUF4R0CtOas/w640-h458/APL_langage.jpg" width="640" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;APL n'est pas un langage de programmation mais un langage de structuration de sa pensée.&lt;/p&gt;&lt;p&gt;&amp;nbsp;&lt;/p&gt;</description><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjz_RiGoaW_Bj8yjpuhaa3qks3JZJIlFLtErAd_ifznRy2spfiyO1wBFuffEt9J-HseyXhiVRfw7urTv_fUfi0LNKfsbwve7MjAc2Qf7VpRnjzOjN95kYe6WnRiA9SnvF3nhzwiwAwuS6VXpSC6RWy5AIb3Sd0tv5syz3MOEr7bRQazDUaa0FUF4R0CtOas/s72-w640-h458-c/APL_langage.jpg" width="72"/><thr:total xmlns:thr="http://purl.org/syndication/thread/1.0">0</thr:total></item><item><title>from perceptron to machine learning and javascript online service</title><link>http://ex-ample.blogspot.com/2023/03/from-perceptron-to-machine-learning-and.html</link><category>JavaScript</category><category>machine learning</category><category>online service</category><category>perceptron</category><author>noreply@blogger.com (Stef)</author><pubDate>Tue, 14 Mar 2023 19:48:00 +0100</pubDate><guid isPermaLink="false">tag:blogger.com,1999:blog-4397760651189026054.post-5915352563624854440</guid><description>&lt;p&gt;&amp;nbsp;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZ__Bi1_fy6twH79FxPP5-GkkIjX7TEuWvry4FdBYDpuQnOuYWr_wlm-ONOg1WIT0T9y-Hj6tUyvKiASMfuk9PlgSKF6qaan6YONE1lu-pgKi-qbD1mm02_iYgC2K85A-SJQZKUCj6BL9ZXiHguZx-jcn2UdCdjaamkwjhOcPwWMjPT2bWu8iJG4cUIw/s1610/2023_comprendre-re%CC%81seaux-neurones-3-3_pptx.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="806" data-original-width="1610" height="200" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZ__Bi1_fy6twH79FxPP5-GkkIjX7TEuWvry4FdBYDpuQnOuYWr_wlm-ONOg1WIT0T9y-Hj6tUyvKiASMfuk9PlgSKF6qaan6YONE1lu-pgKi-qbD1mm02_iYgC2K85A-SJQZKUCj6BL9ZXiHguZx-jcn2UdCdjaamkwjhOcPwWMjPT2bWu8iJG4cUIw/w400-h200/2023_comprendre-re%CC%81seaux-neurones-3-3_pptx.jpg" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;span style="font-size: medium;"&gt;If u r a beginner in machine learning then try&amp;nbsp;&lt;a href="https://www.w3schools.com/ai/default.asp"&gt;https://www.w3schools.com/ai/default.asp&lt;/a&gt;&lt;/span&gt;&lt;div&gt;&lt;p&gt;&lt;/p&gt;&lt;h2 style="text-align: left;"&gt;this post is about some multi layer perceptron online calculators with javascript/typescript for educational purposes&lt;/h2&gt;&lt;h3 style="text-align: left;"&gt;One of the most famous: Tensorflow Playground&amp;nbsp;&lt;/h3&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;&lt;h4 style="text-align: left;"&gt;1/NIST calculator (release 2020) has a lot a features from Tensorflow Playground (release 2018).&lt;/h4&gt;&lt;div&gt;&lt;span style="font-size: large;"&gt;i luv so much this online service:&lt;/span&gt;&lt;/div&gt;&lt;div&gt;&lt;div&gt;&lt;a href="https://pages.nist.gov/nn-calculator"&gt;&lt;span style="font-size: large;"&gt;https://pages.nist.gov/nn-calculator&lt;/span&gt;&lt;/a&gt;&lt;/div&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;&lt;div&gt;The GitHub deployment and repositories of Neural Network Calculator can be found at:&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;GitHub nn-calculator code:&amp;nbsp;&lt;a href="https://github.com/usnistgov/nn-calculator"&gt;https://github.com/usnistgov/nn-calculator&lt;/a&gt;&lt;/div&gt;&lt;div&gt;GitHub deployment code:&amp;nbsp;&lt;a href="https://github.com/usnistgov/nn-calculator/tree/nist-pages"&gt;https://github.com/usnistgov/nn-calculator/tree/nist-pages&lt;/a&gt;&lt;/div&gt;&lt;div&gt;GitHub nn-calculator deployment:&amp;nbsp;&lt;a href="https://pages.nist.gov/nn-calculator/"&gt;https://pages.nist.gov/nn-calculator/&lt;/a&gt;&lt;/div&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;h4 style="text-align: left;"&gt;2/Tensorflow Playground group wrote a tiny neural network library that meets the demands of educational visualization.&amp;nbsp;&lt;/h4&gt;&lt;div&gt;&lt;a href="http://playground.tensorflow.org/"&gt;http://playground.tensorflow.org/&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;&lt;span style="white-space: pre;"&gt;	&lt;/span&gt;Source code: &lt;a href="https://github.com/tensorflow/playground"&gt;https://github.com/tensorflow/playground&lt;/a&gt;&lt;/div&gt;&lt;div&gt;Deep playground is an interactive visualization of neural networks, written in TypeScript using d3.js.&amp;nbsp;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;h4 style="text-align: left;"&gt;3/TensorFlow was developed by the Google Brain team.&amp;nbsp;&lt;/h4&gt;&lt;div&gt;The initial version was released in 2015. Google released the updated version of TensorFlow, named TensorFlow 2.0, in September 2019. In 2023&amp;nbsp; Feb the release is 2.12. &lt;a href="https://github.com/tensorflow/tensorflow"&gt;https://github.com/tensorflow/tensorflow&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;see also:&amp;nbsp;&lt;a href="https://www.w3schools.com/ai/ai_tensorflow_intro.asp"&gt;https://www.w3schools.com/ai/ai_tensorflow_intro.asp&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;h4 style="text-align: left;"&gt;4/Tensorflow Playground is also based on some ideas of precursors:&lt;/h4&gt;&lt;div&gt;the perfect Chris Olah’s articles about neural networks&amp;nbsp; (2014): &amp;nbsp;&lt;/div&gt;&lt;div&gt;&amp;nbsp;&amp;nbsp;&lt;a href="http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/"&gt;http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;And the work of karpathy when he was a PhD student at Standford (release 2014)…&lt;/div&gt;&lt;/div&gt;&lt;p&gt;&lt;a href="https://cs.stanford.edu/people/karpathy/convnetjs/"&gt;https://cs.stanford.edu/people/karpathy/convnetjs/&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;a very simple perceptron calculator&lt;/h3&gt;&lt;div&gt;an old online interactive book in english and in french (release 2014)&lt;/div&gt;&lt;div&gt;&lt;a href="https://mlweb.loria.fr/book/en/contents.html"&gt;https://mlweb.loria.fr/book/en/contents.html&lt;/a&gt;&lt;/div&gt;&lt;p&gt;&lt;a href="https://mlweb.loria.fr/book/en/perceptron.html"&gt;https://mlweb.loria.fr/book/en/perceptron.html&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;div&gt;&lt;/div&gt;&lt;h3&gt;another simple perceptron calculator&lt;/h3&gt;&lt;div&gt;&lt;div&gt;The plan:&lt;/div&gt;&lt;div&gt;We're going to train a single neuron (perceptron) to linearly separate some 2D points.&lt;/div&gt;&lt;div&gt;&lt;b&gt;&lt;i&gt;All done in pure JavaScript, from scratch with no libraries&lt;/i&gt;&lt;/b&gt;&lt;/div&gt;&lt;/div&gt;&lt;div&gt;&lt;a href="https://github.com/ianchanning/neural-network-js"&gt;https://github.com/ianchanning/neural-network-js&lt;/a&gt;&lt;/div&gt;&lt;div&gt;release 2021&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;A metric for how well the weights worked&lt;/div&gt;&lt;div&gt;Minimise this metric until it's good enough...&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;span&gt;&lt;a name='more'&gt;&lt;/a&gt;&lt;/span&gt;&lt;h2 style="text-align: left;"&gt;ml5.js&lt;/h2&gt;&lt;div&gt;&lt;a href="https://ml5js.org/"&gt;https://ml5js.org/&lt;/a&gt;&lt;/div&gt;&lt;p&gt;ml5.js is an open source, friendly high level interface to TensorFlow.js, a library for handling GPU-accelerated mathematical operations and memory management for machine learning algorithms.&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;Beginner's Guide to Machine Learning in JavaScript with ml5.js&lt;/h3&gt;&lt;div&gt;with some good youtube videos, i luv because it's funny and educational purposes.&lt;/div&gt;&lt;div&gt;start here:&lt;/div&gt;&lt;p&gt;&lt;a href="https://www.youtube.com/watch?v=26uABexmOX4&amp;amp;ab_channel=TheCodingTrain"&gt;https://www.youtube.com/watch?v=26uABexmOX4&amp;amp;ab_channel=TheCodingTrain&lt;/a&gt;&lt;/p&gt;&lt;/div&gt;</description><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhZ__Bi1_fy6twH79FxPP5-GkkIjX7TEuWvry4FdBYDpuQnOuYWr_wlm-ONOg1WIT0T9y-Hj6tUyvKiASMfuk9PlgSKF6qaan6YONE1lu-pgKi-qbD1mm02_iYgC2K85A-SJQZKUCj6BL9ZXiHguZx-jcn2UdCdjaamkwjhOcPwWMjPT2bWu8iJG4cUIw/s72-w400-h200-c/2023_comprendre-re%CC%81seaux-neurones-3-3_pptx.jpg" width="72"/><thr:total xmlns:thr="http://purl.org/syndication/thread/1.0">0</thr:total></item><item><title>Videosurveillance, Vidéoverbalisation, optique, big data, et deep learning </title><link>http://ex-ample.blogspot.com/2022/11/videosurveillance-videoverbalisation.html</link><author>noreply@blogger.com (Stef)</author><pubDate>Thu, 10 Nov 2022 16:30:00 +0100</pubDate><guid isPermaLink="false">tag:blogger.com,1999:blog-4397760651189026054.post-3814610809488147498</guid><description>&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhBaDGCm57w8B4oqKh_vDjoiSVCFQS6Ysm2PPRa9jKM8sHUMN62UEqpg1-LL8kfhn4tMC5infyAbqHA9MdahQby0EKJiSxM0vXSYmytWrMUpbce52cIOJfc9HgdZzspQZhk6U3a9LeB4vmMy-lXOcyyQVgYdH82vwjZZ5HLz6PKKTQIOmaWj4IhI-olSA/s852/camera-surveillance.jpg" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="664" data-original-width="852" height="249" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhBaDGCm57w8B4oqKh_vDjoiSVCFQS6Ysm2PPRa9jKM8sHUMN62UEqpg1-LL8kfhn4tMC5infyAbqHA9MdahQby0EKJiSxM0vXSYmytWrMUpbce52cIOJfc9HgdZzspQZhk6U3a9LeB4vmMy-lXOcyyQVgYdH82vwjZZ5HLz6PKKTQIOmaWj4IhI-olSA/s320/camera-surveillance.jpg" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;Les développements de la video-surveillance et autres formes des vidéo-verbalisations, et des video-techno jusqu'aux personnes video-connectés 24h/24h reposent sur 5 piliers:&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ol style="text-align: left;"&gt;&lt;li&gt;l'optique avec des cameras de haute résolution motorisées avec zoom ou multi-objectifs et avec durcissement quasiment à des niveaux militaires pour supporter les attaques en fixe ou montées sur des drones, et aussi...... au niveau de chacun de nos téléphones qui sont de + en + des video-phones avec GPS, les voitures sont équipées de + en + de camera pour les assurances&amp;nbsp;&lt;/li&gt;&lt;li&gt;l'informatique intégrée pour la détection locale de mouvement par exemple, la compression des videos, diffusion du flux en filaire,&amp;nbsp; en cellulaire ou en wifi&lt;/li&gt;&lt;li&gt;l'informatique de propagation via les applications type réseaux sociaux de diffusion video en temps réel par exemple; la pandémie a fait une énorme promotion des techniques de live-streams pour proposer une communication "innovante" performante avec sa communauté, avec ses collègues...&lt;/li&gt;&lt;li&gt;l'informatique qui utilise le flux big data pour le deep learning / apprentissage (par exemple &lt;a href="https://ex-ample.blogspot.com/2022/03/avancees-apprentissage-profond-deep.html"&gt;https://ex-ample.blogspot.com/2022/03/avancees-apprentissage-profond-deep.html&lt;/a&gt;)&lt;/li&gt;&lt;li&gt;l'acceptation des peuples d'être filmé, jusqu'à l'acceptation d'être QR-codé suite à la pandémie covid,&amp;nbsp; la croyance des dirigeants en l'utilité pour lutter contre l'insécurité...&lt;/li&gt;&lt;/ol&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;Je ne détaillerai pas ce 5ième point qui a été décortiqué dans un livre:&lt;br /&gt;&lt;a href="https://www.lemonde.fr/blog/internetactu/2018/06/02/videosurveillance-paradigme-du-technosolutionnisme/"&gt;https://www.lemonde.fr/blog/internetactu/2018/06/02/videosurveillance-paradigme-du-technosolutionnisme/&lt;/a&gt;&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;cam-phones&lt;/h3&gt;&lt;p&gt;Nous sommes envahis de systèmes avec des cameras pas seulement les cameras de video-surveillance.&lt;/p&gt;&lt;p&gt;Les cam-phones permettent de nombreuses fonctionnalités comme la lecture QR-code, ou biométrie...&lt;/p&gt;&lt;p&gt;&lt;a href="https://en.wikipedia.org/wiki/Camera_phone"&gt;https://en.wikipedia.org/wiki/Camera_phone&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Un des derniers datant de sept 2022 est iPhone 14 Pro&amp;nbsp; :&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;ul style="text-align: left;"&gt;&lt;li&gt;Triple capteur dorsal avec grand-angle de 48 Mpx (f/1,78), ultra grand-angle de 12 Mpx (f/2,2) et téléobjectif de 12 Mpx (f/1,78)&lt;/li&gt;&lt;li&gt;Capteur frontal de 12 Mpx (f/1,9); la caméra frontale dispose également d'une mise au point automatique pour la première fois.&lt;/li&gt;&lt;/ul&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;Les développements de ces multi-objectifs avec leur traitement sont colossaux.&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.apple.com/fr/iphone-14-pro/specs/"&gt;https://www.apple.com/fr/iphone-14-pro/specs/&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo&amp;nbsp;4K à&amp;nbsp;24, 25, 30 ou&amp;nbsp;60&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo HD 1080p à&amp;nbsp;25, 30 ou&amp;nbsp;60&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo HD 720p à&amp;nbsp;30&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Mode Cinématique jusqu’à 4K&amp;nbsp;HDR à&amp;nbsp;30&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Mode Action jusqu’à 2,8K à 60&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo HDR avec Dolby&amp;nbsp;Vision jusqu’à&amp;nbsp;4K à&amp;nbsp;60&amp;nbsp;i/s&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo ProRes jusqu’à 4K à&amp;nbsp;30&amp;nbsp;i/s (1080p à&amp;nbsp;30&amp;nbsp;i/s pour 128&amp;nbsp;Go de stockage)&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Enregistrement vidéo en&amp;nbsp;macro, avec ralenti et&amp;nbsp;accéléré&lt;/span&gt;&lt;br style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px; quotes: &amp;quot;« &amp;quot; &amp;quot; »&amp;quot;;" /&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Prise en charge du ralenti en 1080p à&amp;nbsp;120 ou&amp;nbsp;240&amp;nbsp;i/s&lt;/span&gt;&lt;/p&gt;&lt;p&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Système de 2ᵉ&amp;nbsp;génération de stabilisation optique de l’image par déplacement du capteur pour la vidéo (objectif principal)&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Double stabilisation optique de l’image pour la vidéo (objectif principal et téléobjectif)&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Zoom optique avant 3x&amp;nbsp;; zoom optique arrière 2x&amp;nbsp;; amplitude du zoom optique&amp;nbsp;: 6x&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Zoom numérique jusqu’à&amp;nbsp;9x&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Stabilisation vidéo de qualité cinéma (4K, 1080p et&amp;nbsp;720p)&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Mise au point automatique continue&lt;br /&gt;&lt;/span&gt;&lt;span style="background-color: white; font-family: Arial, Tahoma, Helvetica, sans-serif; font-size: 14px; letter-spacing: -0.374px;"&gt;Prise de photos 8&amp;nbsp;Mpx pendant l’enregistrement vidéo&amp;nbsp;4K&lt;/span&gt;&lt;/p&gt;&lt;p&gt;&lt;/p&gt;&lt;h4 style="text-align: left;"&gt;Des caméras avant de téléphone allumées constamment:&lt;/h4&gt;Qualcomm a présenté, le 1er décembre 2021, son tout nouveau processeur haut de gamme pour smartphone : le Snapdragon 8 Gen 1.&amp;nbsp; Au rayon des nouveautés par rapport à la puce de l’an dernier, Qualcomm promet de meilleures performances pour toutes les fonctionnalités touchant à l’intelligence artificielle, des débits améliorés en 5G et des améliorations du côté du son et de la photo. Mais le changement le plus intéressant sur cette nouvelle puce est plus discret et n’a pas grand-chose à voir avec les Gigahertz ou les mégabits par seconde. &lt;b&gt;Le Snapdragon 8 Gen 1 sera capable de garder votre module photo frontal activé en permanence.&lt;/b&gt;&lt;p&gt;&lt;/p&gt;&lt;p&gt;Selon Qualcomm, cette fonctionnalité est destinée à améliorer la sécurité de votre mobile et permet à un smartphone de se déverrouiller automatiquement lorsqu’il aperçoit votre visage. Sur la page de présentation de la puce, l’entreprise écrit que l’outil « suit automatiquement vos activités et votre environnement ». En somme, c’est un mécanisme de détection faciale activée en permanence, qui est censé vous simplifier la vie en vous évitant de devoir déverrouiller votre smartphone à chaque fois que vous l’attrapez.&lt;/p&gt;&lt;p&gt;La fonctionnalité se repose en fait sur une puce dédiée, optimisée pour fonctionner avec très peu d’énergie. Ce composant, ainsi que tout le processus de détection de visage, fait l’objet d’une protection « renforcée » selon Qualcomm. « Les données de l’appareil photo ne quittent jamais le hub de détection lorsqu’il recherche des visages », précise la marque. L’appareil photo ne fait que rechercher un visage et n’active en fait jamais le reste des fonctionnalités du téléphone. La reconnaissance faciale en elle-même ne se lance que si un visage est détecté dans le champ. « Il est impossible, en mode basse consommation, de capturer une image », a précisé Judd Heap à The Verge.&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;Les aspects légaux en France&lt;/h3&gt;&lt;div&gt;La loi de décembre 2016 a élargit la possibilité de vidéo-verbaliser à toute infraction routière et pas seulement le stationnement. Il risque de faire enfin monter la contestation.&lt;/div&gt;&lt;p&gt;&lt;a href="https://www.service-public.fr/particuliers/vosdroits/F2517"&gt;https://www.service-public.fr/particuliers/vosdroits/F2517&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Une autorisation spécifique est à demander à la Cnil : Commission nationale de l'informatique et des libertés en cas de dispositif installé pour identifier les personnes (caméra associée à un système biométrique).&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;enregistrement sonore des lieux publics&lt;/h3&gt;&lt;div&gt;Il est surprenant que la video soit acceptée mais pas le son.&lt;/div&gt;&lt;div&gt;L’avertissement de la CNIL à l’encontre du projet de captation de bruit suspect par la ville de Saint Etienne:&lt;/div&gt;&lt;div&gt;&lt;a href="https://www.seban-associes.avocat.fr/lavertissement-de-la-cnil-a-lencontre-du-projet-de-captation-de-bruit-suspect-par-la-ville-de-saint-etienne/"&gt;https://www.seban-associes.avocat.fr/lavertissement-de-la-cnil-a-lencontre-du-projet-de-captation-de-bruit-suspect-par-la-ville-de-saint-etienne/&lt;/a&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;&lt;div&gt;&lt;br /&gt;&lt;/div&gt;</description><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhBaDGCm57w8B4oqKh_vDjoiSVCFQS6Ysm2PPRa9jKM8sHUMN62UEqpg1-LL8kfhn4tMC5infyAbqHA9MdahQby0EKJiSxM0vXSYmytWrMUpbce52cIOJfc9HgdZzspQZhk6U3a9LeB4vmMy-lXOcyyQVgYdH82vwjZZ5HLz6PKKTQIOmaWj4IhI-olSA/s72-c/camera-surveillance.jpg" width="72"/><thr:total xmlns:thr="http://purl.org/syndication/thread/1.0">0</thr:total></item><item><title>avancées apprentissage profond deep learning, example des voitures avec détection panneaux , et véhicules autonomes</title><link>http://ex-ample.blogspot.com/2022/03/avancees-apprentissage-profond-deep.html</link><author>noreply@blogger.com (Stef)</author><pubDate>Wed, 2 Mar 2022 13:27:00 +0100</pubDate><guid isPermaLink="false">tag:blogger.com,1999:blog-4397760651189026054.post-6303988754985466361</guid><description>&lt;p&gt;&amp;nbsp;&lt;span style="font-size: medium;"&gt;Après une longue absence, les évolutions les plus impensables des progrès de la science&amp;nbsp; ressortent encore plus.&lt;/span&gt;&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;&lt;span style="font-size: medium;"&gt;Le domaine&amp;nbsp;apprentissage profond deep learning (hierarchical learning&lt;/span&gt;&lt;span style="font-size: large;"&gt;) a été le secteur scientifique qui a progressé de manière inimaginable et surtout très rapide.&lt;/span&gt;&lt;/h3&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/a/AVvXsEhJVOT7E93po-4ogeY6aSIsK2xjuZv-nfv3oRI1QXA0ksahmLyRhMGuH0eZGhVOeWzEWltIirTEEadwZCD4miHlgl6QeHLYAbxE_DWQCmow4E1mCGRktN74A9-DU-8duK29L4u0Ij13i3pcp3zlwkCWkPavkDjith_QjyzNlvgCVOPTmrPF5GgVBrGzfA=s1239" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="1012" data-original-width="1239" height="326" src="https://blogger.googleusercontent.com/img/a/AVvXsEhJVOT7E93po-4ogeY6aSIsK2xjuZv-nfv3oRI1QXA0ksahmLyRhMGuH0eZGhVOeWzEWltIirTEEadwZCD4miHlgl6QeHLYAbxE_DWQCmow4E1mCGRktN74A9-DU-8duK29L4u0Ij13i3pcp3zlwkCWkPavkDjith_QjyzNlvgCVOPTmrPF5GgVBrGzfA=w400-h326" width="400" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;div style="text-align: center;"&gt;issu de wikipedia&lt;/div&gt;&lt;p&gt;&lt;a href="https://fr.wikipedia.org/wiki/Apprentissage_profond"&gt;https://fr.wikipedia.org/wiki/Apprentissage_profond&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Dans pubmed, la recherche "deep learning" augmente &lt;b&gt;de 200 en 2013 à 14700 en 2021 &lt;/b&gt;&lt;br /&gt;en montée exponentielle.&lt;/p&gt;&lt;p&gt;&lt;a href="https://pubmed.ncbi.nlm.nih.gov/?term=deep+learning&amp;amp;filter=years.2007-2022&amp;amp;size=100"&gt;https://pubmed.ncbi.nlm.nih.gov/?term=deep+learning&amp;amp;filter=years.2007-2022&amp;amp;size=100&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Yoshua Bengio est un chercheur canadien réputé dans ce domaine. Il a été interviewe en 2018:&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.nouvelobs.com/tech/20181107.OBS5057/les-vrais-dangers-de-l-intelligence-artificielle.html"&gt;https://www.nouvelobs.com/tech/20181107.OBS5057/les-vrais-dangers-de-l-intelligence-artificielle.html&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Avant d'expliquer l'apprentissage profond, rappelons ce que sont l'intelligence artificielle (IA) et l'apprentissage automatique [machine learning]. Les recherches en IA visent à donner aux ordinateurs la capacité de prendre de meilleures décisions, ultimement aussi bien que ce que nous, humains, sommes capables de faire. On est encore très loin du niveau d'intelligence des humains, mais il y a eu des progrès significatifs ces dernières années, de multiples applications se mettent en place et font l'objet d'un intérêt industriel croissant. Plusieurs méthodes ont été explorées durant les dernières décennies pour rendre les ordinateurs plus intelligents, mais ce qui marche le mieux depuis une quinzaine d'années, ce sont les méthodes basées sur l'apprentissage automatique. Le principe en est le suivant : pour que l'ordinateur devienne intelligent, on va lui permettre d'acquérir des connaissances par l'observation d'exemples et par l'interaction avec son environnement. On inverse donc les méthodes classiques qui consistent à donner directement à l'ordinateur des connaissances, comme on écrit des formules dans un livre ou comme on programme un ordinateur de manière classique. Dans les méthodes d'apprentissage automatique, on s'intéresse au contraire aux connaissances acquises par l'ordinateur.&lt;/p&gt;&lt;p&gt;Parmi les nombreuses méthodes en apprentissage automatique explorées depuis des décennies, il existe un certain type de méthodes qui s'appellent apprentissage profond, qui font suite aux méthodes plus anciennes appelées réseaux de neurones, car inspirées du fonctionnement du cerveau. Ce sont ces méthodes-là qui ont connu des succès incroyables ces dernières années. Pourquoi parle-t-on d'apprentissage profond ? Parce qu'on construit des systèmes qui transforment les données brutes à travers plusieurs étapes. "Profond" signifie ici que beaucoup d'étapes se succèdent. Par exemple, une image est transformée par votre cortex (ou par des réseaux de neurones profonds) en plusieurs étapes, chacune menant à une nouvelle représentation de cette image, une représentation plus abstraite. Ça commence avec une représentation brute, comme les pixels, puis, ensuite, on a des couches qui détectent les bords entre les objets, puis les objets eux-mêmes, puis la nature de la scène. L'important est que ces représentations sont apprises plutôt que fixées par avance comme on le faisait auparavant.&lt;/p&gt;&lt;p&gt;- - - - -&lt;/p&gt;&lt;h3 style="text-align: left;"&gt;&lt;span style="font-size: medium;"&gt;L'extrême rapidité des applications industrielles me semble l'évènement le plus décisif.&lt;/span&gt;&lt;/h3&gt;&lt;p&gt;La reconnaissance des panneaux de signalisation avec l'exemple de la citroen C3 d'entrée de gamme qui est une des voitures les moins chères de la gamme B est révélateur.&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;iframe allowfullscreen="" class="BLOG_video_class" height="266" src="https://www.youtube.com/embed/TeTghvhdojY" width="320" youtube-src-id="TeTghvhdojY"&gt;&lt;/iframe&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;&lt;span style="font-size: medium;"&gt;En décembre 2021, "La voiture sans conducteur débarque en Europe"&lt;/span&gt;&lt;/p&gt;&lt;p&gt;Pour l’instant, l’Allemagne est le seul pays européen qui a adapté sa législation pour permettre cet automatisme. Aux États-Unis, la possibilité est déjà ouverte dans quelques états. En Chine, c’est autorisé d’office.&lt;/p&gt;&lt;p&gt;Mais l’important, c’est le pas technologique franchi, explique Marc Vrecko : Ces deux voitures sont équipées de capteurs Lidar, un scanner laser qui reconstitue l’environnement de la voiture en temps réel et en 3D. C’est le premier, et pour l’heure, le seul produit pour des voitures de série.&lt;/p&gt;&lt;p&gt;La Mercedes propose même d’emblée un Lidar de deuxième génération. Ce scanner est au centre du dispositif : il offre des capacités de perception uniques, y compris de nuit et quelles que soient les conditions climatiques. Il scrute l’environnement à l’avant de la voiture 25 fois par seconde, avec un large champ de vision et une portée jusqu’à plus de 200 mètres.&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.ouest-france.fr/economie/automobile/la-voiture-sans-conducteur-devient-realite-6487f35c-5c15-11ec-874b-5720349d4e86"&gt;https://www.ouest-france.fr/economie/automobile/la-voiture-sans-conducteur-devient-realite-6487f35c-5c15-11ec-874b-5720349d4e86&lt;/a&gt;&lt;/p&gt;&lt;p&gt;En Europe,&amp;nbsp;en juillet 2022, la Commission européenne va imposer la présence d’un système d’alerte de survitesse dans nos voitures. L’objectif est de réduire le nombre d’accidents mais certaines associations craignent pour la protection des données récoltées.&lt;/p&gt;&lt;p&gt;Ce système d’adaptation intelligente de la vitesse (baptisé “AIV” en français, ndlr) devra équiper les nouveaux modèles introduits sur le marché européen à partir de juillet 2022. Il deviendra obligatoire pour toutes les voitures neuves qui seront vendues à partir de juillet 2024”, indique la Commission européenne, précisant que les véhicules déjà commercialisés avant cette date ne seront pas concernés.&lt;/p&gt;&lt;h4 style="text-align: left;"&gt;Les autres équipements qui deviennent obligatoires:&lt;/h4&gt;&lt;p&gt;L’avertisseur de somnolence et de perte d’attention du conducteur.&lt;/p&gt;&lt;p&gt;La reconnaissance avancée de distraction du conducteur.&lt;/p&gt;&lt;p&gt;Le signal de freinage d’urgence sous forme de signal lumineux pour indiquer aux usagers derrière le véhicule que le conducteur freine brusquement.&lt;/p&gt;&lt;p&gt;La détection en marche arrière avec une caméra pour éviter les collisions avec les personnes et les objets situés derrière le véhicule.&lt;/p&gt;&lt;p&gt;Le système de surveillance de la pression des pneus avertissant le conducteur en cas de perte de pression.&lt;/p&gt;&lt;p&gt;La facilitation de l’installation d’un éthylomètre antidémarrage.&lt;/p&gt;&lt;p&gt;Le système de maintien de la trajectoire.&lt;/p&gt;&lt;p&gt;L’enregistreur de données d’événements aussi appelé “boîte noire”&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.auto-ies.com/blog/securite-routiere-2022-quelles-sont-les-nouvelles-reglementations"&gt;https://www.auto-ies.com/blog/securite-routiere-2022-quelles-sont-les-nouvelles-reglementations&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.capital.fr/auto/limiteur-de-vitesse-obligatoire-en-2022-nos-donnees-seront-elles-utilisees-par-les-assureurs-1420845"&gt;https://www.capital.fr/auto/limiteur-de-vitesse-obligatoire-en-2022-nos-donnees-seront-elles-utilisees-par-les-assureurs-1420845&lt;/a&gt;&lt;/p&gt;&lt;p&gt;Des taxis autonomes sur les routes de Chine:&lt;/p&gt;&lt;p&gt;&lt;a href="https://geeko.lesoir.be/2022/02/22/des-taxis-autonomes-sur-les-routes-de-chine/"&gt;https://geeko.lesoir.be/2022/02/22/des-taxis-autonomes-sur-les-routes-de-chine/&lt;/a&gt;&lt;/p&gt;&lt;p&gt;voir la page wikipedia très bien documentée:&lt;/p&gt;&lt;p&gt;&lt;a href="https://en.wikipedia.org/wiki/Self-driving_car"&gt;https://en.wikipedia.org/wiki/Self-driving_car&lt;/a&gt;&lt;/p&gt;&lt;p&gt;De nombreuses voitures sont déjà équipées de&amp;nbsp;Détection de piéton/motard par analyse d’images&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.grpformations.com/prevention/prevenir-les-collisions-engins-pietons-detection-de-personnes-par-analyse-dimages/"&gt;https://www.grpformations.com/prevention/prevenir-les-collisions-engins-pietons-detection-de-personnes-par-analyse-dimages/&lt;/a&gt;&lt;/p&gt;&lt;p&gt;il existe aussi l’alerte active de franchissement involontaire de ligne, ou de bas-côté...&lt;/p&gt;&lt;p&gt;pour un ensemble de ces systèmes "conçus pour vous aider et rendre la conduite plus sûre, que vous soyez en train de vous garer, sur l'autoroute ou en ville":&lt;/p&gt;&lt;p&gt;&lt;a href="https://www.toyota.fr/world-of-toyota/safety/"&gt;https://www.toyota.fr/world-of-toyota/safety/&lt;/a&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;Bref ces domaines très actifs soulignent que le monde des cameras va "réguler" le monde des êtres humains et leur liberté.&lt;/p&gt;&lt;p&gt;les domaines de reconnaissance facial, de reconnaissance de port de masque, de biométrie... connaissent les mêmes interrogations.&lt;/p&gt;&lt;p&gt;- - - - -&amp;nbsp;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;</description><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/a/AVvXsEhJVOT7E93po-4ogeY6aSIsK2xjuZv-nfv3oRI1QXA0ksahmLyRhMGuH0eZGhVOeWzEWltIirTEEadwZCD4miHlgl6QeHLYAbxE_DWQCmow4E1mCGRktN74A9-DU-8duK29L4u0Ij13i3pcp3zlwkCWkPavkDjith_QjyzNlvgCVOPTmrPF5GgVBrGzfA=s72-w400-h326-c" width="72"/><thr:total xmlns:thr="http://purl.org/syndication/thread/1.0">0</thr:total></item><item><title>retour</title><link>http://ex-ample.blogspot.com/2022/03/une-longue-periode-sans-publier-sur-ce.html</link><author>noreply@blogger.com (Stef)</author><pubDate>Wed, 2 Mar 2022 12:13:00 +0100</pubDate><guid isPermaLink="false">tag:blogger.com,1999:blog-4397760651189026054.post-3289213126922889108</guid><description>&lt;p&gt;&amp;nbsp;&lt;/p&gt;&lt;div class="separator" style="clear: both; text-align: center;"&gt;&lt;a href="https://blogger.googleusercontent.com/img/a/AVvXsEhrqtbevDPXCbofM2n3HmuG-ropupTvTfNyBG4eZAlV00ZdS7569vO76V3P20Q-57hb5jpGcYxBMr6SY0RJJAWqG5GwWFGmjDaWCdLzZ_eFfP8umh_SqNrvhOzR4hPswMiT15eq0WkNPWjS5vDvD37zFbCB7pCsOLaKduT6a9l8Md51aueZwkChz2Hxyg=s1000" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"&gt;&lt;img border="0" data-original-height="400" data-original-width="1000" height="128" src="https://blogger.googleusercontent.com/img/a/AVvXsEhrqtbevDPXCbofM2n3HmuG-ropupTvTfNyBG4eZAlV00ZdS7569vO76V3P20Q-57hb5jpGcYxBMr6SY0RJJAWqG5GwWFGmjDaWCdLzZ_eFfP8umh_SqNrvhOzR4hPswMiT15eq0WkNPWjS5vDvD37zFbCB7pCsOLaKduT6a9l8Md51aueZwkChz2Hxyg=s320" width="320" /&gt;&lt;/a&gt;&lt;/div&gt;&lt;br /&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;&lt;p style="text-align: center;"&gt;&lt;span style="font-size: medium;"&gt;Après une longue période sans publier sur ce blog, je reviens.&lt;/span&gt;&lt;/p&gt;&lt;p&gt;&lt;br /&gt;&lt;/p&gt;</description><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" height="72" url="https://blogger.googleusercontent.com/img/a/AVvXsEhrqtbevDPXCbofM2n3HmuG-ropupTvTfNyBG4eZAlV00ZdS7569vO76V3P20Q-57hb5jpGcYxBMr6SY0RJJAWqG5GwWFGmjDaWCdLzZ_eFfP8umh_SqNrvhOzR4hPswMiT15eq0WkNPWjS5vDvD37zFbCB7pCsOLaKduT6a9l8Md51aueZwkChz2Hxyg=s72-c" width="72"/><thr:total xmlns:thr="http://purl.org/syndication/thread/1.0">0</thr:total></item></channel></rss>