Author Archive

Home / Author's Article(s) / Sébastien

L’ADSB : l’avenir du transpondeur et le remplaçant du radar

transpondeur ADSB
Transpondeur ADSB en aviation légère

Les récentes évolution de la technologie dans l’aéronautique apportent de nouveaux services, en terme de formation (précédent article) mais aussi de services rendus aux utilisateurs, notamment grâce aux transpondeurs ADSB. Jusqu’à présent, les avions étaient visualisés au sol au moyen d’un radar classique : une antenne émet un signal dans une direction, le signal se réfléchit sur un appareil, puis l’écho revient à l’antenne initiale, basculée en mode réception. En connaissant la vitesse de propagation des ondes électromagnétiques dans l’air, il est alors facile de déterminer la distance et l’azimut de l’appareil. Le contrôleur donnait ensuite vocalement un code à 4 chiffres au pilote qui devait l’afficher sur son transpondeur, et ainsi il faisait une corrélation avec le plot et l’avion en question. Ce système présente tout de même des inconvénients comme des pertes de signal en fonction de la topographie de certaines régions, du relief, mais aussi du coup important de maintenance des infrastructures, car il en faut un certain nombre pour assurer une précision acceptable. L’ADSB couplé au transpondeur est donc apparue au Etats-Unis comme une alternative plus efficace, puis démocratisée un peu partout. Aujourd’hui, la technologie ADSB est un quasi standard sur les transpondeur partout dans le monde, couplé notamment au mode S le plus complet pour le contrôle.

Comment cela fonctionne en haut ?

Du même principe que le transpondeur classique, l’ADS-B fonctionne comme un mode S amélioré. Il va encoder plusieurs informations dans le signal répondu. Cela va commencer par la position. Ce n’est plus le radar qui la détermine, mais directement l’aéronef qui la transmet. Sa précision est bien supérieure puisque basée sur le système GNSS (GPS) bien plus précis. La transmission s’effectue en « aveugle » : tout le monde peut la recevoir et la décoder, aussi bien en l’air pour les informations de trafic, qu’au sol pour les stations-relai. La sonde de pression va aussi encoder l’altitude pression de l’avion et la transmettre, de même que sa tendance verticale (montée ou descente), l’immatriculation de l’avion ou un code utilisateur pré saisi, sa vitesse, etc. Chaque avion devient donc un élément constitutif d’un grand maillage, si tant est qu’il soit à minima équipé d’un GPS et d’un transcodeur ADS-B.

Comment cela fonctionne en bas ?

garminADSB
Le Garmin 1000 ADSB embarqué avec fonction de surveillance de trafic

Chaque avion qui envoie ses informations régulièrement (toutes les 10 secondes en navigation, toutes les secondes en approche, toutes les minutes en transocéanique) est capté par un réseau de stations interconnectées en numérique. Elles s’échangent donc les informations en temps réel. On peut donc avoir facilement un ordre d’idée de la situation globale du trafic à un instant T. Les informations sont captée par l’antenne radar et décryptées par le système d’identification. Cette identification est automatisée pour les lignes régulières et les avions en IFR, et manuelle par la désignation du contrôleur aérien pour les vols ponctuels. Grâce au réseau internet, les centres sont donc interconnectés. Les contrôleurs « se passent » les avions au fur et à mesure de leur avancée dans les zones de contrôle, après contact radio et changement de code transpondeur. Les informations de base de l’aéronef restent bien entendu les mêmes et transmises en cas de changement de code. Cela signifie qu’un contrôleur à l’arrivée est déjà au courant de l’heure à laquelle le pilote va le contacter en vue de l’arrivée, et peut même le voir arriver au loin en dezoomant l’écran de son scope radar.

Quelle utilisation pour le grand public ?

Flightradar Map
Carte hémisphère nord

Le passionné d’aviation peut aussi profiter de ses informations pour suivre ce qu’il se passe au dessus de sa tête. Il existe un certain nombre d’applications à la disposition du grand public basé sur le réseau ADS-B, notamment pour le suivi commercial de certaines compagnies : savoir si un vol a décollé ou s’est posé. Les fonctionnalités sont réduites à ces seules informations et ne concernent que les vols internes à la compagnie. Même chose pour les retards. Toujours avec en ligne de mire l’information pour le passager et pour le client.

Les applications qui utilisent les infos ADSB

suiviFR24
Suivi de vol sur FlightRadar 24

La principale application connue pour exploiter les informations ADSB est FlightRadar 24, qui permet aux internautes de visualiser tous les vols ADSB sur une carte en temps réel. Disponible sur la majorité des plateformes mobiles et sur le site Flightradar24, l’utilisateur peut zoomer sur la zone qui l’intéresse, mais aussi cliquer sur les avions et d’avoir leur information de vol : heure de décollage et d’atterrissage prévues, altitude et vitesse, numéro de vol, compagnie, photos de l’avion, jusqu’à la corrélation avec Google Earth qui permet de « voir en 3D » ce que voit l’avion en réalité virtuelle, mais aussi en pointant sur un avion dans votre champ de vision, qui se voir doté d’une étiquette avec les infos du vol.Cette application est gratuite et très intéressante.

Etre relai du contrôle ADSB chez soi, c’est possible !

Le Rapsberry Pi avec l’extension ADSB

Les utilisateurs avertis peuvent aussi participer depuis chez eux. D’ailleurs Flightradar24 explique la manière de rejoindre leur réseau sur leur site. En fonction de l’emplacement géographique de l’utilisateur, celui-ci peut recevoir un kit permettant de mettre en place une station relai chez lui. Grâce notamment à l’utilisation de nano ordinateur Raspberry Pi connecté à internet, et d’un récepteur adapté, L’utilisateur reçoit et transmet les données ADSB sur un serveur de Flightradar24, lui même connecté au réseau ADSB. La précision de couverture est du coup bien améliorée. L’installation est assez simple mais nécessite que cet appareil soit branché en permanence et connecté en permanence. D’autres applications du même type apparaissent sur le marché et utilisent le même type de données. La démocratisation est donc en cours.

Si il existe une impression de longévité en informatique, c’est bien le cas des simulateurs de vol. Ils ont pour moi toujours existé, depuis même les balbutiements de l’informatique. Je me souviens encore de mon premier Flight Simulator II sur Commodore 64, dans les années 80.

Flight Simulator 2 - 1982
Flight Simulator 2 – 1982

Avec l’avancée
des technologies et la foudroyance de l’évolution digitale, on
arrive aujourd’hui à des simulations presque parfaites. J’en ai
encore aujourd’hui la démonstration presque tous les jours dans
mon nouveau métier d’instructeur professionnel, même si des
progrès en la matière restent encore à venir, et heureusement.

Un peu d’histoire de simulation…

Prenons les choses par leur commencement : Flight Simulator, logiciel de simulation de pilotage, a germé dans la tête de Bruce Artwick à partir de 1977 et sorti en 1979, édité par SubLOGIC, sa société. Il a été ensuite revendu à Microsoft qui continua le développement sous l’impulsion personnelle de Bill Gates, qui souhaitait conserver des logiciels ludiques en plus du coté business qu’on lui connaît, et ceci pas moins de trois années avant la sortie du premier OS Microsoft Windows. Il servit aussi de pilier dans le développement 3D pour des besoins de réalisme et c’est à lui qu’on doit les principales structures des moteurs 3D actuels pour l’accélération matérielle graphique. Microsoft repris ensuite le flambeau en améliorant les modèles, ajoutant des avions, des options de gestion météo, des précisions dans la représentation de l’environnement au niveau mondial avec plus de 20000 aéroports, les villes et cours d’eau, le relief avec des rendus quasi photographiques. Les dernière versions sorties l’ont été sous les noms de MS Flight Simulator 2004 et X avec des versions Standard, Deluxe et Professionnelle, auxquelles on peut trouver des addons complémentaires (zones géographiques, aéroports, scénarios…) conçus par des particuliers ou des éditeurs commerciaux divers. Flight Simulator a été ensuite stoppé par Microsoft, et le code source cédé pour Prepar3D, édité par la société 3D de Loockeed Martin. D’autres logiciels plus ludiques sont aussi sortis par d’autres éditeurs, comme X planes, Flightgear, Flight Unlimited… La possibilité de proposer un univers autour de l’aviation et du vol virtuel, bien que complexe, ravi un bon nombre de passionnés tout autour du globe, le tout étant accentué avec l’avénement d’internet.

Quelle application en pratique ?

Concernant les interfaces, il faut remonter au début des années 1910 pour trouver les premiers entraineurs de vol, puis l’évolution de l’aviation les orientera vers des modèles analogiques pour l’entrainement des pilotes. A la rencontre du numérique et de l’analogique, des constructeurs développèrent alors un ensemble permettant à la fois de proposer une interface fidèle pour le contrôle de l’avion, et son modèle de vol informatique pour le calcul. Mais comment cela fonctionne-t-il ?

En couplant du
hardware (la cabine) avec le software (le logiciel contenant le
modèle de vol et l’environnement), il a fallu standardiser les
langages entre ces machines. L’utilisation des interfaces IN/OUT
(Entrées / Sorties) permet d’envoyer des signaux d’entrées
concernant la positions des commandes et des équipements commandés
par le pilote, et des résultats de calcul en sortie, qui permettront
de modéliser l’attitude et les évolutions de l’avion, mais
aussi la vitesse calculée de celui-ci, son altitude, etc. avec le
retour sur les instruments d’affichage dans le cockpit, ainsi que
les retours de force aux commandes. L’environnement 3D sera projeté
quant à lui via des écrans ou des projecteur tout autour de la
cabine, ainsi que le son pour un rendu plus immersif. Les simulateurs
FNTP actuels utilisés en compagnie aérienne, sont même montés sur
verrins hydrauliques qui permettent de mouvements de la plateforme de
6°.

Simulateur FullFlight
Simulateur FullFlight

Les coût de
fabrication de ce genre d’équipement est énorme, nécessite une
maintenance régulière, mais a le mérite de pouvoir simuler toute
situation non reproductible en vol. Il serait par exemple et on
l’imagine bien, difficile de simuler une panne de deux réacteurs
sur un avion de ligne avec des passagers à bord. C’est là où
l’application pédagogique des simulateurs prend tout son sens.

Les simulateurs
utilisés aujourd’hui dans la formation des pilotes sont de gros
systèmes, qui doivent être certifiés par les autorités
aéronautiques avant d’être exploités dans les programme de
formation.

Sont pris en compte des notions de fiabilité, de réalisme, de rendus, et de standards en comparaison avec les vrais avions sur lesquels les pilotes se destinent. Ceci permet aussi de réduire de le nombre d’heures de vol réelles en conservant la même courbe de progression pédagogique, pour ensuite appliquer en situation concrète de vol. La majorité des écoles de pilotage proposent aujourd’hui une partie de leur programme de formation en séance sur simulateur, notamment pour le VSV (vol sans visibilité), l’IR (vol aux instruments avec météo dégradée), ou encore le traitement de différentes pannes, comme on le ferait en réalité. Un exemple avec les simulateurs AL42 ou ALX du constructeur ALSIM sur lesquels j’ai été formé. L’AL42 réplique la cabine du Diamond DA42, bimoteur léger exploité en VFR et IFR en monopilote, et l’ALX est modulaire, permet de simuler des modèles de vol du monomoteur classique, ou JOC (Jet Oriented Course) pour des formations sur un modèle de vol proche des avions de ligne à réaction type B737 ou A320, notamment pour les qualifications de pilotage en équipage et le CRM Cockpit Ressource Management.

Comment sont structurés ces simulateurs ?

Ils sont
architecturés autour d’une console principale qui fait tourner le
modèle de vol et celui de l’environnement 3D : l’instructeur
aura une console dédiée qui va lui permettre d’interférer avec
l’évolution de la météo, du vent, des conditions de vol, mais
aussi des systèmes internes comme les pannes, les
dysfonctionnements, le trafic… Il manque encore aujourd’hui la
possibilité, par manque aussi de ressources, de matérialiser la
météo réelle du jour directement partout autour du globe, ou
encore incorporer le trafic aérien réel directement dans
l’interface.

On va aussi trouver plusieurs modules qui vont être reliés à des écrans qui afficheront des instruments particuliers, d’autres qui auront en charge la gestion du retour d’effort… Enfin il reste l’affichage avec 3 projecteurs branchés sur chacun une console de visualisation. Tout ce matériel est connecté en réseau Wake-on-Lan, permettant de démarrer ou de couper toutes les consoles et projecteurs à partir d’une seule en Master. Ce sont donc quasi une dizaine d’ordinateurs différents qui travaillent en même temps et qui sont synchronisés. Une ligne internet haut débit est aussi dédiée à la maintenance à distance par VPN en cas de besoin, et pour les mises à jour.

Schéma global d’un système Homme / Machine pour le rendu de la simulation

Les modèles de vol
qui sont réalisés aujourd’hui sont très fidèles à la vraie
vie, et le pilote qui prend l’habitude de les utiliser ne sera pas
perdu quand il arrivera dans l’avion, puisque l’ergonomie et les
réactions seront les mêmes. Ces simulateurs permettent à la fois
de réaliser des séances quand ce n’est pas possible à cause de
la météo réelle, ou encore de dégrader la météo virtuelle pour
voler dans la couche de nuages quand il fait une tempête de ciel
bleu dehors. On peut aussi pousser le décisionnel des élèves, à
savoir pousser une situation dégradée là où cela pourrait
représenter un danger dans une situation réelle, et donc travailler
en situation de stress pour appréhender les baisses de performance
des pilotes dans cet état.

Simulateur d’avion de ligne grand public

Pour finir, des sociétés privées proposent aujourd’hui au grand public des vols découverte à bord d’avions de ligne virtuels aux cockpit réalistes pour les immerger dans les antres du métier. On en trouve un peu partout en France. Je vous invite à vous essayer à cela, ou bien de passer sur le centre de Nîmes si vous désirez visiter nos installations à l’occasion et le simulateur de DA 42.

Du business à la météo, la naissance de Windy TV

Comme son nom l’indique, Windy TV est une plateforme en ligne dédiée à l’affichage des vents et des principales observations météorologiques courantes. On peut se demander le pourquoi d’un énième site météo, puisque des entités nationales sont déjà aux commandes de tels outils, comma par exemple Météo France qui a la charge de traiter, modéliser puis de fournir des informations dans l’hexagone, en direction de ses utilisateurs (aviation, marine, professionnels…) et des médias. Une des réponses tient tout simplement en l’ergonomie et la convivialité d’utilisation de Windy TV dans son interface et sa lisibilité. : tout est fluide, dynamique, réactualisé, simple et intuitif !

Cette idée est née initialement pour les besoins d’une société qui fabriquait des éoliennes en Australie. Un besoin naturel d’avoir les dernières prévisions était nécessaire aussi bien pour l’installation des appareils que pour leur exploitation. Cette société a donc fait appel au développeur tchèque Ondřej Procházka, également pratiquant du vol libre en parapente, afin de trouver un moyen permettant de s’appuyer sur les données collectées auprès des différents organismes météorologiques, et qui permettraient de fournir une vision globale rapide de la situation à un endroit donné sur le globe. C’est ainsi qu’est née le site de Windy TV, décliné ensuite en application sous beaucoup de standards (IOS, Android, Windows…)

L’interface du site de Windy TV

L’interface de Windy TV est poussée à son plus simple appareil : donner une vision rapide, en un clin d’œil.  Elle centre via la géolocalisation de sa connexion internet sur la zone dans laquelle l’utilisateur se trouve, et charge les observations en cours.

En haut à gauche, on peut trouver un encart qui concerne la tendance à venir dans les prochaines 72 heures, au nouveau de la prévision générale du temps, des précipitations, de la température, de la force du vent… On trouve aussi une barre de recherche pratique pour aller se centrer sur un point géographique particulier.

L’interface de Windy TV

Sur la droite, de haut en bas, on trouve l’échelle des options qui permet de naviguer dans les différents modes d’affichage, celui par défaut étant les vents en surface et leur gradient, représentés par des couleurs nuancées. Mais on pourra aussi aller afficher les précipitations, les pressions, les températures, la couverture nuageuse, les isothermes… et même les vagues pour nos amis véliplanchistes, surfer ou Kitesurfer… D’autres options d’affichages permettent de proposer des légendes supplémentaires sur les cartes, comme l’emplacement des aéroports, des emplacements de parapentes ou de planche à voile…

Enfin dans la partie inférieure, on trouve une frise d’animation qui permettra de déclencher la lecture de l’évolution prévue par succession d’images animées successives, et plutôt intéressantes pour procéder à ses propres prévisions.

Comment sont établies les prévisions ?

3 modèles sont compilés dans Windy TV, et permettent justement d’affiner les prévisions en allant chercher le modèle qui conviendrait le mieux à ses attentes.

  • On trouvera le traditionnel GSF (Global Forecast System) américain utilisé par le National Service Weather, l’équivalent du Météo France aux Etats-Unis. Il se base sur des images satellitaires d’observation dans le visible et l’infrarouge et permet de descendre à des résolutions de l’ordre de la vingtaine de kilomètres en précision.
  • Le modèle européen est celui de L’European Centre for Medium-Range Weather Forecasts (ECMWF) et dispose, grâce à une coopération étatique, d’une résolution moyenne de 9 kilomètres sur l’ensemble de l’Europe.
  • Le troisième modèle à disposition est le NEMS, le modèle européen basé sur les suisses de Météoblue. ce modèle est, excusez du peu, du modèle le plus précis, avec une résolution pouvant descendre à 4 kilomètres sur l’Europe de l’ouest avec ses satellites géostationnaires.

Conclusion pratique

Grâce à l’ensemble de ces données, l’utilisateur peut donc avoir accès à une grande partie des informations météo dans l’instant et donc commencer à se faire ses propres projections en fonction de ses besoins (sous réserve de disposer d’un minimum de connaissances en météorologie). Les niveaux de détail et de mesure sont suffisants aussi pour visualiser des phénomènes caractéristiques météorologiques sur toute la surface de la planète, comme l’évolution des anticyclones selon les saisons, les évolutions de la zone de convergence intertropicale (ZCIT), des différents jets stream, courant de haute altitude, si on joue un peu avec les couches supérieures de la troposphère.On peut aussi aller observer des phénomènes cycloniques ou ouragantesques, comme ceux qui ont frappé les Antilles en septembre 2017, nettement visibles sur les cartes (voir ci-dessous).

Windy TV est donc un outil simple et accessible à tous, et vous permettra de voyager sur la planète directement depuis vos écrans ou depuis vos smartphones, et de jouer les météorologistes pour vous et vos proches, de manière rapide. C’est aussi un outil très pratique pour travailler sa géographie, et comprendre un peu mieux la circulation générale des vents et des courants autour de la Terre. Je vous encourage à aller visiter ces sites, très riches en enseignements et qui vous permettront sans doute de mieux appréhender la météo dans son ensemble. Je profite aussi de cet article pour remercier ma référente météo en la matière, Hélène.C, qui de part son enseignement, son expertise et sa pédagogie, a su m’apporter une vision globale en la matière.

Carte interactive intégrée depuis le site :

Qu’elle soit professionnelle ou de loisir, la plongée subaquatique est régie par des contraintes physiques et réglementaires qui se veulent proches, ou très proches partout dans le monde. Comme beaucoup d’activités, le développement informatique, l’apogée de la miniaturisation, les progrès effectués sur les écrans et sur l’affichage, sur les évolutions de l’interface homme/machine,etc.  ont largement impacté la pratique courante de la plongée. C’est le cas notamment de la sécurité dans la pratique d’activités subaquatiques, puisque l’arrivée sur le marché des ordinateurs de plongée dans les années 1980/1990 et leur constante évolution permettent aujourd’hui d’aborder différemment les choses.

Les origines des ordinateurs de plongée et un peu de thermodynamique…

On sait tous qu’un plongeur loisir plonge avant tout pour décompresser de sa vie Ô combien si stressante, mais le terme de décompression prend aussi tout son sens lorsqu’il désire remonter à la surface, à la fin de sa plongée. En effet, le plongeur, pour respirer sous l’eau, embarque une bouteille dans laquelle est comprimé de l’air à haute pression (environ 200 bars, soit 20 fois la pression de votre station de gonflage pour gonfler vos pneus de voiture). Afin d’être en mesure de respirer cet air sans se déchirer les poumons, le plongeur va adapter des détendeurs qui vont permettre de réduire la pression en sortie, et de transformer cet air respirable lorsqu’il évoluera sous l’eau. On appelle cela les étages du détendeur : un premier étage va diminuer la pression de 200 bars à environ 8 à 10 bars au dessus de la pression ambiante, et un deuxième étage situé devant la bouche du plongeur, va diminuer la pression restante à la pression ambiante, c’est à dire à celle du milieu dans lequel le plongeur évolue.

detendeur

En effet, dés lors que vous vous immergez à une profondeur supérieure à 50 cm, la pression de l’eau sur votre corps est telle que les muscles de votre cage thoracique ne sont plus suffisamment puissants pour la contrer. Il faut donc une « assistance » qui est délivrée par la surpression de l’air en sortie du détendeur, qui va l’adapter au moyen d’une membrane flexible. Quand le plongeur inspire, la dépression générée tire sur la membrane qui actionne un levier qui laisse passer l’air sous pression et alimente ainsi les poumons sans avoir à forcer. Pour se rendre compte de cette force invisible, essayez de respirer à un mètre sous la surface d’une piscine au moyen d’un tuyau d’arrosage : vous verrez que cela est impossible !

Utiliser de l’air comprimé est donc nécessaire mais n’est pas sans risque. Les travaux du Commandant Cousteau, inventeur de ce système dans les années 60, l’ont largement montré conjointement aux recherches fondamentales pratiquées par la Marine Nationale.  Il est vrai que transporter une bouteille de 20 litres et de 200 bars de pression dans son dos nécessite quelques précautions d’usage et n’est pas anodin : cela implique des révisions régulières du matériel et notamment des surfaces des bouteilles, appelées « bloc ». Mais les contraintes ne se limitent pas au niveau technique : en effet, Cousteau s’est vite rendu compte, lors de ses plongées, que l’air comprimé qu’il respirait en profondeur, avait un impact sur sa physiologie et sur son corps. L’air est composé de 78% d’azote, 21% de dioxygène et 1% de gaz rares, comprimé ou non.

air

L’azote que nous respirons à la surface n’est qu’une sorte de « diluant » qui n’est pas consommé et intégré par notre organisme. En revanche, dès lors que la pression augmente au fur et à mesure que le plongeur descend, cet azote va quand même entrer dans son corps. Mais comme il n’est pas utilisé, il va simplement se diluer dans le sang, aller se stocker et attendre.  Lors de la remontée, il va donc être intact et demander à sortir, l’idéal étant par la ventilation et les voies naturelles à l’inverse du stockage. Sauf qu’une remontée rapide, donc une décompression rapide, peut provoquer l’effet « bouteille de champagne » et voir apparaitre des petites bulles d’azote dans le sang : il faut donc impérativement gérer sa vitesse de remontée, au besoin effectuer un ou plusieurs paliers (arrêts à un certaine profondeur) qui permettront à l’azote de s’évacuer tout seul et sortir en toute sécurité par les voies aériennes. Et c’est là où les ordinateurs de plongée rentrent en action …

 Principe de fonctionnement d’un ordinateur de plongée

L’ordinateur de plongée va permettre d’optimiser son temps de plongée en sécurité, en calculant en temps réel la décompression que va devoir effectuer le plongeur.  Auparavant, on calculait ces temps à l’aide de tables de décompression (MN90 en France) à partir de la durée totale de la plongée et de sa profondeur maximale atteinte : un tableau nous donne alors la profondeur et la durée des paliers de décompression à effectuer. Ce calcul est volontairement  le plus pénalisant (plongée dite « carrée » en raison de la forme de sa courbe en rouge sur le schéma ci-dessous) afin d’assurer la sécurité de la décompression. Un ordinateur va, lui, découper toute la plongée en tranches d’une durée inférieure à 30 secondes (courbe jaune ci-dessous) et va donc être beaucoup plus précis dans le calcul des paramètres. On va donc se pouvoir se permettre d’anticiper la plongée et de raisonner non plus sur le temps écoulé, mais sur le temps restant, ce qui permettra de mieux appréhender les paliers et la réserve d’air restant à disposition dans la bouteille.

computer-profile

Différence des calculs entre une table (rouge) et un ordinateur en temps réel (jaune)

Un ordinateur est composé d’un boitier étanche et résistant à une pression importante afin d’éviter les entrées d’eau en grande profondeur. Il contient une source d’énergie (pile ou batterie rechargeable) et embarque un microprocesseur qui va procéder à des calculs mathématiques statistiques selon un programme qui est installé. Le tout est traité et affiché sur un écran, à LED ou à cristaux liquides, en noir et blanc ou en couleur selon les modèles. Il peut aussi être équipé d’un rétroéclairage, d’une mise en route automatique par capteur sensitif, et d’une mise en veille automatique. Il va aussi consigner toutes les plongées et les archiver dans un journal, qui pourra être accessible soit en lecture directe, mais aussi de plus en plus via un ordinateur de bureau et un logiciel, ou sur des applications mobiles spécifiques.

Les ordinateurs de plongée actuels embarquent donc pour fonctionner toute une série de capteurs qui mesurent en temps réel, entre autres, l’heure d’immersion, l’heure de sortie, la durée entre deux plongées, la pression ambiante et la température de l’eau, la pression restante et la consommation du plongeur si il est équipé un capteur de pression, les efforts du plongeur et la prévention de l’essoufflement si il est équipé d’une ceinture cardiographique, un magnétomètre pour mesurer l’orientation par rapport au nord magnétique, ils peuvent aussi gérer plusieurs mélanges gazeux de nature différente, gérer le passage d’une bouteille à une autre en cours de plongée, etc. Chaque ordinateur de plongée est donc personnel et indique à son propriétaire des paramètres précis qui lui sont indispensables pour assurer sa sécurité.

Ordinateur et son capteur de pression bouteille

Ordinateur et son capteur de pression bouteille

Les ordinateurs de plongée sont donc plus ou moins complexes, et une gamme large permet au débutant comme au plongeur TECH de trouver son bonheur. Voici ci-dessous un tableau des principaux ordinateurs disponibles sur le marché en 2014, classés par ordre de complexité et fonctionnalité (entry: débutant, Technical : expert)

 

Mais sur quoi reposent les calculs et quels sont les modèles arithmétiques originaux ?

L’ordinateur de plongée se base sur des protocoles standards de décompression et des études statistiques. Des modèles mathématiques ont été établis selon des profils spécifiques de plongée et des facteurs extérieurs comme la pression, la température, les plongées précédentes, etc… Selon le profil physique des plongeurs et les caractéristiques de la plongée, il peut être parfois important de sélectionner manuellement un profil de dureté (augmentation des paliers et diminution du temps de plongée avant palier) pour éviter tout accident en fonction de ses propres critères. De plus, comme le calcul de la décompression s’effectue au plus juste, deux plongeurs avec les mêmes ordinateurs et les mêmes réglages peuvent avoir des obligations de décompression différentes s’ils n’ont pas été systématiquement à la même profondeur. Les algorithmes de calcul sont principalement issus des calculs de Albert Bühlmann, eux même basés sur les travaux de Haldane et de Workman, les pionniers en la matière. Citons par exemple le modèle ZHL-8 modifié, ZHL-16 B ou encore C avec GF, VPM ou RGBM. Un des pionniers du calcul numérique de la décompression fut Hannes Keller dont les travaux contribuèrent grandement à l’évolution rapide des ordinateurs de plongée modernes.

Principalement, le plongeur va donc pouvoir accéder en temps réel sur son ordinateur à :

  • sa profondeur instantanée
  • sa durée d’immersion (date, heure, etc)
  • le temps restant avant le début de palier
  • de sa vitesse de remontée avec une alarme visuelle et sonore
  • de la profondeur des paliers et de leur durée si il y en a
  • la température de l’eau (si équipé)
  • d’une boussole numérique (si équipé)
  • de la pression restant dans sa bouteille (si équipé)
  • de la pression dans les bouteilles de ses équipiers (si équipé)
  • de l’affichage de sa courbe de plongée sous forme graphique
  • de sa fréquence cardiaque (si équipé)
  • de sa saturation par compartiment (selon les modèles)
  • à l’intervalle durant lequel il est déconseillé de prendre l’avion…

 

Plongeur technique multigaz

Plongeur technique multigaz

L’avancée du numérique et l’inter connectabilité des dispositifs

La principale avancée des ordinateurs de plongée réside dans la miniaturisation des dispositifs. En effet, l’augmentation de la puissance des microprocesseurs et des calculateurs, couplée à l’explosion des capacités de stockage mémoire et des fréquences des bus numériques, permettent aujourd’hui des opérations plus poussées en étant encore plus rapide. Les capacités d’analyse via l’intégration des variables et des mesures effectuées par les capteurs sont donc plus rapidement traitées et « statistiquées » selon l’algorithme installé dans l’appareil. Les matériaux sont aussi plus résistants, aux chocs mais aussi à la pression que l’eau peut appliquer à grande profondeur. Parlons aussi de la connectique. Les premiers modèles connectables ont utilisé avec succès l’IrdA (liaison de données par LED infrarouge). L’avantage était de tout intégrer dans les boitiers en les maintenant parfaitement étanches puisque sans ouverture. On constate désormais la possibilité de connecter nos appareils avec les dernières technologies sans fil, comme le WiFi ou le Blutooth. L’IrDA est petit à petit délaissé par les constructeurs principalement en raison du faible débit des données en transmission. L’apparition des nouvelles prises USB3 en format micro, permet aussi de proposer une petite prise filaire qu’il sera facile de protéger : en effet, la force d’une pression est proportionnelle à la surface sur laquelle elle est appliquée. Un petit capuchon étanche résistera beaucoup plus qu’un plus large, avec des risques d’inondation pour autant réduits.

DiveMate_Tablet

Ceci permet aussi d’utiliser des batteries rechargeables et d’offrir une autonomie accrue (les ordinateurs sont souvent gourmands en énergie), de transférer à vocation pédagogique ses profils de plongée sur les applications dédiées, et même d’appliquer des mises à jour du firmware des appareils, souvent téléchargeables en ligne sur les sites internet des constructeurs. On voit aussi ces dernières années une déclinaison des interfaces homme/machine et une prise en compte bien supérieure de l’aspect Ergonomie des ordinateurs : on retrouve des ordinateurs complets embarqués sous forme de console directement en bout du flexible du manomètre de pression, voire même la technologie VTH (Vision tête haute) comme dans l’aviation ou les automobiles. Nous en sommes encore à l’heure actuelle à un écran incorporé dans certains masques de plongée (photo ci-dessous), mais il est moins confortable car plus lourd qu’un masque classique.

Masque Oceanic 2

On peut s’autoriser à penser que d’ici quelques années, nous verrons l’apparition sur le marché d’écrans translucides flexibles qui permettront de projeter les données principales sur les verres du masque. On peut aussi penser à des systèmes interconnectés et en surveillance automatisée, comme les ARVO en montagne : un appareil détectant une probabilité montante d’une situation d’urgence déclenchera une alarme directement sur les appareils des plongeurs accompagnants. On gagnera donc de précieuses secondes sur l’intervention et l’assistance de la personne en difficulté. Il en est de même pour la transmission des données en temps réel, en direction du bateau ou du directeur de plongée, des constantes vitales du plongeur, des données de décompression, etc. Ceci existe déjà au niveau militaire mais reste très onéreux.

Bref, tout reste encore à faire et cette technologie au service de la sécurité des plongeurs n’en est encore qu’à ses balbutiements.

En cette période de rentrée, si je vous propose de conserver un peu de soleil, ou d’en faire venir chez vous. Et tenez vous bien : à base de rhum l’artisanal !  En effet, j’ai eu récemment l’occasion de découvrir un site que je vous recommande chaudement.

Si vous aimez les apéritifs gouteux, les matières noblement travaillées, de l’originalité dans la conception et les saveurs… alors les rhums de Cédric sont faits pour vous !!! Mangue passion, pomme gingembre, carambole passion, ananas victoria… ne sont que certaines macérations parmi d’autres dont Cédric, maitre artisan en la matière a le secret depuis 2002.

Féru de Punch au Rhum, Cédric BREMENT, issu d’une formation en agroalimentaire, se teste à la conception et aux assemblage pour sa consommation personnelle. Vite pris au jeu et grâce aux retours positifs de son entourage, il décide d’en faire son métier et se lance sur le marché. Ancré dans de solides valeurs et selon un concept original et qualitatif, il lance sa boutique en ligne qui permet aujourd’hui de pouvoir commander partout en France son punch de qualité. Au dela de la communication et de la vente en ligne, la toile est un élément qui permet d’avoir un réel écho de la vision du consommateur sur les produits. Il est important pour Cédric d’avoir ces retours pour être en mesure de piloter/créer de manière plus sereine.

IMG-20140228-00310

La gamme présentée au départ était issue des meilleures macérations fabriquées pendant ses 10 années de producteur amateur. La philosophie est de ne travailler qu’avec du fruit frais macéré dans un rhum agricole AOC de Martinique. L’objectif initial étant de redonner ses lettres de noblesse à un produit trop souvent galvaudé. Le savoir faire provient de la recette et de la recherche permanente de spécificité dans les matières premières. La gamme continue d’ évoluer en proposant des concepts nouveaux mais toujours dans le but de valoriser des matières premières, des histoires, des terroirs…… comme la macération plusieurs mois de certaines bouteilles en marais salant. Pourquoi? Au départ, le constat a été fait que le sel est un exhausteur de goût donc il était intéressant pour Cédric de mesurer quel impact cela peut avoir dans le concept « rhum arrangé ».

IMG_6226

Sortie des bouteilles après macération

IMG_6211

Quand on lui pose la question sur la législation française en matière d’alcool, Cédric répond que la vente d’alcool n’est pas contraignante en soit – la contrainte est vraiment la législation, les obligations liées ainsi que la fiscalité qui est très importante et très particulière pour le rhum. Malgré cela, il garde le cap et continuera à proposer des créations et des innovations pour le plus grand plaisir de nos palais, comme la dernière création Pomme Cacao, que je m’emploierai surement à tester un de ces jours.

A noter que vous pouvez retrouver sa production dans différents bars, commerces, cavistes et restaurants… mais aussi sur son site internet : http://lesrhumsdeced.fr et sa boutique en ligne : http://lesrhumsdeced.fr/la-boutique/

Personnellement, j’ai testé le Pomme Gingembre, et la fameuse production limitée Point G en marais salant, et j’avoue que j’ai vraiment été agréablement surpris de la richesse des saveurs. De plus, il faut signaler qu’un certain nombre de ses créations a été récompensé lors de concours des vins et c’est bien un emblème de qualité. Pour les amateurs de produits BIO, vous pourrez aussi trouver votre bonheur !

Voilà donc une excellente initiative créative, et un bon état d’esprit de produit et de qualité qui méritent d’être soulignés et surtout d’être découvert si vous êtes amateurs comme moi d’Epicure et de ses acolytes…

IMG-20140228-00311
 NB: L’abus d’alcool est dangereux pour la santé. A consommer avec modération.

 

Place aux sportifs aujourd’hui, puisque nous allons parler de l’ outil STRAVA, qui leur est dédié.

Strava est un site internet et une application qui permet aux sportifs pratiquant des sports de fond tels que le cyclisme, le jogging, le trail, la natation, etc…   de pouvoir suivre leur activités et de comparer leur résultats avec leur amis. Cette application créée en 2012 est américaine, la marque STRAVA tient ses quartiers à San Francisco en Californie. Comme beaucoup de sites du même type, elle propose un service basique gratuit, et un service premium qui comprend plus de fonctionnalités et plus d’options à disposition de ses membres. Son succès est important notamment par le fait que les utilisateurs sont à la fois des amateurs, mais aussi des professionnels qui « partagent » leur performance en ligne, et ainsi entretiennent l’esprit de challenge.

Le concept est très simple. Vous vous créez un compte. C’est gratuit. Vous installez l’application (gratuite elle-aussi) sur votre téléphone intelligent ou sur un Garmin. La fonction GPS est nécessaire. Une fois cela fait, vous allez rouler, en n’oubliant pas de partir votre GPS qui enregistrera donc votre parcours et d’autres données. Une fois rentré chez vous, vous téléchargez le tout sur le site de Strava et le partagez avec les petits copains que vous aurez rejoint en créant ainsi votre communauté, qui peut aussi être composée des membres de votre équipe cycliste par exemple, ou de vos partenaires de club ou d’entrainement…

strava-home

Compatible pour smartphones, gps, et sur le site internet de l’application…

Avec Strava, presque plus besoin d’organiser des compétitions: c’est la compétition qui vient à vous et ce, où et quand vous le désirez. Strava vous mets en compétition avec les autres sur certains tronçons sélectionnés, habituellement les bosses de votre secteur. Évidemment, le petit jeu est d‘établir le meilleur temps du dit-tronçon, et ainsi avoir le titre convoité de KOM, ou “King of the Mountain”. Mais attention, un titre de KOM peut être très éphémère! Vos petits copains voudront vous reprendre rapidement le titre convoité et iront probablement se faire péter les varices, question de vous battre, ne serait-ce que d’une petite seconde. Rapidement donc, vos sorties d’entrainement pourront se transformer en des séances très spécifiques dont l’unique but sera de tenter de réaliser le meilleur temps sur un tronçon bien particulier près de chez vous.

Nous entrons dans le cyclisme 2.0 !!! Strava est parfois présenté comme le “réseau social des cyclistes”. Un surnom qui résume à merveille les fonctionnalités de cet outil. Pour faire simple, Strava permet de collecter des données GPS et ainsi de suivre l’évolution de ses performances. Quand un cycliste va s’entraîner, il lance l’application qui enregistre notamment son parcours, sa vitesse et la distance parcourue. Et c’est là où STRAVA se démarque des autre système classique : c’est que le cycliste peut ensuite mettre en ligne ses performances de son choix. D’où l’étiquette de réseau social, puisque ces performances sont vues par l’ensemble des personnes qui “suivent” (le système est comparable à celui de Twitter) le compte Strava du coureur. L’autre point fort de Strava, c’est que chacun peut créer des “segments”. À savoir un tronçon de parcours, plus ou moins long, que l’utilisateur décide de “baliser”. Une fois le segment créé, tous les passages d’utilisateurs seront enregistrés. Très utile pour comparer ses performances sur une portion de route où l’on se sent à l’aise. C’est également une façon de repousser ses limites : si l’on a tendance parfois à relâcher ses efforts quand on roule sans repères chronométriques, le fait d’avoir des performances déjà établies permet d’aider à repousser ses limites.

Stravakom

Exemple de référencement des KOM sur des segments donnés…

On peut se demander quel est le profil type d’un utilisateur de Strava ! Difficile d’en dégager un, tant les disparités sont fortes entre les membres de la “communauté”. L’utilisateur le plus célèbre de l’application est ainsi Lance Armstrong, qui a longtemps battu le record de nombreux segments sous un pseudo et continue de le faire, désormais sous son vrai nom. Des cyclistes professionnels toujours en activité sont également très actifs sur Strava à l’image du Français Thibaut Pinot, Alexandre Geniez de l’équipe PDJ, Romain Bardet chez AG2R La Mondiale, mais aussi de Laurens Ten Dam, Jan Baeklands chez Omega Pharma Quickstep, Lars Boom de chez Belkin ou encore le célèbre sprinter Mark Cavendish. Derrière ces têtes d’affiche, on trouve une multitude d’inconnus. Là encore, les profils sont variés, allant du coureur amateur de très bon niveau jusqu’au cycliste occasionnel. Malgré l’écart de niveau entre chacun, tous peuvent rêver à un titre de King of the Mountain (Roi de la Montagne, en VF), qui récompense la personne qui détient le meilleur temps sur un segment, de préférence une côte. On leur conseillera évidemment d’éviter de viser le record de l’Alpe d’Huez, deuxième segment le plus couru au monde et numéro 1 en France.

L’application est téléchargeable gratuitement sur les boutiques des différents terminaux (IOS, Androïd, etc) et le site internet sur l’adresse suivante : www.strava.com

 


Ecoutez le podcast en audio :

Bon nombre d’entre nous utilisons quotidiennement les connexions dites sans-fil, en Wifi ou en Bluetooth. D’autant facilité par la généralisation des mobiles, les connexions sans-fils servent aujourd’hui à bon nombre de terminaux ou d’application, mais d’où viennent-elles, quelles sont leur différences et que se cache-t-il derrière des appellations qui nous semblent familières ?

Pour bien commencer je vais vous poser une petite question dont la réponse va surement vous surprendre : Savez vous quand a eu lieu la première connexion sans-fil de l’histoire ?  On pourrait en effet penser que les connexions sans-fil sont apparues avec l’internet mais pas du tout ! C’est en 1896 qu’à eu lieu la première connexion sans-fil, réalisée par un certain Guglielmo Marconi, qui s’est inspiré des travaux du célèbre Nikola Tesla, inventeur de la télégraphie dans fil. Cet Italien recevra le prix nobel de physique en 1909 justement pour ses travaux sur les liaisons sans fil. Et pour la petite histoire, il avait en tête de radio diffuser un message du pape Pi XI. Il s’agissait là des premiers essais de radio-transmission, dont la première officielle aura lieu en 1920 en Angleterre. Ces nouvelles prouesses technologiques vont changer nos manières de communiquer et donc impacter énormément notre société. C’est D’ailleurs ce même Marconi qui fondera la célèbre BBC à Londres.

Les première transmissions de données ont lieu en 1903 : première transmission télégraphique, en morse… puis 1924 avec les premières retransmissions en ondes courtes, par réflexion sur les couches de l’atmosphère… on note aussi que Marconi décèdera en 1937, l’année d’apparition des premiers radars. En ce qui concerne notre internet actuel, la norme 802 qu’on retrouve dans la dénomination du célèbre Wi-Fi apparait en 1980.

05249496-photo-logo-wi-fi-certifiedMais savez-vous ce que veux dire le WiFi et comment fonctionne-t-il ?  Le terme « Wi-Fi » est largement connu pour être la contraction de « Wireless Fidelity », mais c’est une explication erronée. Il s’agit en réalité d’une marque ! Et oui : Wi-Fi est une marque détenue par le consortium Wi-Fi Alliance. Un constructeur informatique produisant un produit compatible avec une des normes IEEE 802.11 doit demander à Wi-Fi Alliance le droit d’apposer le nom Wi-Fi et le logo correspondant. Sur un équipement que l’on souhaite acheter, le logo Wi-Fi blanc et noir, ou la mention du standard « IEEE 802.11 », garantit que le matériel est compatible avec la technique de réseau sans fil « IEEE 802.11 ». Le Wi-Fi est un ensemble de protocoles de communicationsans fil régi par les normes du groupe IEEE 802.11. Un réseau Wi-Fi permet de relier sans fil plusieurs appareils informatiques (ordinateur, routeur, décodeur Internet, etc.) au sein d’un réseau informatique afin de permettre la transmission de données entre eux. Cela est donc vrai pour internet mais aussi pour votre réseau domestique ou vos périphériques comme les imprimantes WiFi ou les mobiles… Les utilisateurs des hotspots, les point d’accès public WiFi, peuvent aussi se connecter dans des cafés, des hôtels, des aéroports, etc., et accéder à Internet mais aussi bénéficier de tous les services liés à Internet.

Bluetooth_-_logoParlons de son concurrent indirect car un peu différent : le Bluetooth.  C’est une spécification de l’industrie des télécommunications. Elle utilise une technique radio courte distance destinée à simplifier les connexions entre les appareils électroniques. Les premiers appareils utilisant la version 4.0 de cette technologie sont apparus début 2010. Le nom « Bluetooth » est directement inspiré du roi danoisHarald Ier surnommé « Harald à la dent bleue » (en anglais Harald Bluetooth), connu pour avoir réussi à unifier les États du Danemark, de Norvège et de Suède. C’est d’ailleurs Ericsonn, fabricant suédois qui est l’initiateur du Bluetooth tel qu’on le connait… Dans sa version actuelle, largement répandue, essentiellement dans les appareils mobiles, comme les téléphones portables, la liaison Bluetooth exploite les caractéristiques suivantes : très faible consommation d’énergie, très faible portée (sur un rayon de l’ordre d’une dizaine de mètres), faible débit, très bon marché et peu encombrant… En conséquence, il sera présent sur des appareils fonctionnant souvent sur batterie, désirant échanger une faible quantité de données sur une courte distance comme les téléphones portables (presque généralisé), où il sert essentiellement à la liaison avec une oreillette ou à l’échange de fichiers, ou encore comme MODEM…, sur les ordinateurs portables, essentiellement pour communiquer avec les téléphones, sur les périphériques divers, comme des claviers, pour faciliter la saisie sur les appareils qui en sont dépourvus…

Pour résumer, un sert pour de la distance moyenne et du débit, et l’autre pour de la courte distance avec peu de débit … Le WiFi sera performant, on pourra le sécuriser au moyen de clés de cryptage, et il aura une portée très raisonnable. Le Bluetooth sera beaucoup plus limité en distance, mais plus facilement appairable (aisance à le connecter avec un autre appareil au moyen d’un simple code), et avec une économie en énergie plus conséquente. Vous voyez que chaque technologie va donc être complémentaire de l’autre, et de nombreuses innovations et progrès sont encore entrain d’arriver…


Ecoutez le podcast en audio :

Aujourd’hui, nous allons parler météorologie . Quel temps fera-t-il demain ? C’est une des questions les plus posées et elle est désormais traitée grâce au numérique. Première question  : comment prédit-on la météo ?

Et bien , vous faites surement partie des personnes qui se posent la question de savoir comment est que les météorologues font pour estimer les évolutions du ciel, et élaborer leur prévisions. D’ailleurs parlons de prévisions météo : c’est une application des connaissances en météorologie et des techniques modernes de prises de données et d’informatique pour prévoir l’état de l’atmosphère à un temps ultérieur. Mais les premières prévisions remontent à l’aube de l’humanité, avec les devis et les oracles, qui tentaient déjà de prédire la pluie ou le soleil, avec des techniques beaucoup plus rudimentaires. Mais  quel est leur champ d’application dans les prévisions météo et quels outils utilise-t-on ?

Tout d’abord, pour parler des outils, il faut parler de la problématique. Il existe des lois précises qui permettent de calculer les évolutions de la météo. Ces lois régissant le comportement de l’atmosphère sont dérivées de ce qu’on appelle la mécanique des fluides. En gros ce sont des modèles mathématiques, qui incorporent une immensité de données et de variables qui permettent de calculer, au moyen de super-ordinateurs, des équations complexes et de les résoudre. Ceci affine la précision des prévisions. Pour compléter les données, il faut dire que la modernisation des communications depuis 30 ans, et notamment des transferts de données numériques, ont révolutionné la chose : comme par exemple la mesure automatisée des températures, des précipitations et leur envoi en instantané sur des serveurs de stockage et de calcul, l’utilisation des radars météo qui constituent désormais un réseau international, et le croisement des données entre les pays. Il y a donc différentes étapes pour prévoir la météo, car sans données initiales, on ne peut rien faire.

189_station_meteo

Une station météo automatisée…

La phase initiale s’appelle tout simplement l’acquisition des données. Les données sont acquises par un ensemble de systèmes qui donnent la pression, la température, l’humidité, la direction et vitesse du vent, les précipitations, les conditions nuageuses, etc, à la surface et en altitude. Ces systèmes ont chacun leur fréquence de prise de donnée et peuvent être des stations au sol, automatisées ou non, des services météo d’aéroport, des bouées fixes ou dérivantes dans le océans, des ballons-sonde en altitude, des radars météo et même des satellites spécialisés en orbite défilante ou géostationnaire autour de la Terre, comme Météor, Météosat ou Cosmos.

meteosat

Le satellite Météosat…

Ensuite c’est un météorologue qui rentre en action : il va analyser les données et appliquer des techniques expérimentales pour estimer le déplacement et le comportement des systèmes atmosphériques. Ou bien c’est un méga-ordinateur, qui va procéder à des calculs très poussés, avec des probabilités plus ou moins importantes. Et souvent, un prévisionniste synthétise les résultats obtenus qu’il croise avec les siens pour obtenir l’estimation la plus fiable possible. Et comme les modèles ne sont jamais parfaits, c’est pour cela que parfois, « la météo se trompe » comme on aime à le dire… Genre le jour où vous laissez votre parapluie à la maison et qu’il se met à pleuvoir de manière inattendue.

En effet, tout n’est que simulation et parfois la réalité est bien différente. Il arrive souvent que différents modèles suggèrent différentes solutions. Cela est dû à la façon dont les équations de l’atmosphère sont intégrées dans un modèle, à sa résolution et à l’état de l’atmosphère qui est parfois très instable et susceptible de grands changements à partir de petites variations de l’analyse initiale. Le prévisionniste compare son scénario avec les résultats obtenus par le ou les modèles numériques. Il peut ainsi se faire une idée des forces et des faiblesses des solutions qu’ils proposent et choisir la meilleure. Il utilise aussi pour cela les images satellitaires, celles des radars météorologiques, ainsi que toute autre donnée récente.  Comme ce qu’on voit à la télévision : c’est en effet une des formes de présentation des prévisions.

cartesat

Une carte colorisée et modélisée numériquement…

Une fois arrivé à une solution, le prévisionniste doit mettre celle-ci sous forme utile pour l’usager comme par exemple en direction des médias : journaux, bulletins télévisés, radios, services météorologiques nationaux tels que Radiométéo au Canada, etc. qui oeuvrent pour sa diffusion à l’attention d’autres utilisateurs directs), mais aussi à destination du grand public pour le tourisme, la vie quotidienne… Il doit aussi penser aux pilotes et navigants aériens, amateurs ou professionnels avec des informations plus techniques dont ils ont besoin, aux marins, amateurs ou professionnels, ou encore aux usagers spécialisés tels que  les déneigeurs, les compagnies d’électricité, etc. pour leur permettre d’ adapter leurs activités… Chacun d’eux reçoit des produits sous la forme la plus utile pour leur opération. Ce sont traditionnellement des cartes ou des textes mais plus récemment, avec l’internet, des graphiques de tendances ou tout autre produit graphique. On se rend bien compte que l’explosion des technologies numériques est désormais essentielle et indispensable dans la prévision de la météo, et on peut aussi penser que les évolutions de demain permettront encore d’affiner les résultats. Mais n’oublions pas non plus que Dame Nature a aussi son caractère propre et parfois très imprévisible…


Ecoutez le podcast en audio :

Si il y a un phénomène numérique secoué par l’actualité, c’est bien le secteur des drones civils, ces petits engins télé-pilotés pouvant ou non prendre des photos ou des vidéos aériennes. Le marché explose depuis ces deux dernières années, mais où en sommes-nous vraiment par rapport à la réglementation en vigueur. Rappelons rapidement ce que nous dit la loi. et quelle est la définition d’un drone.

D’après la règlementation de la DGAC, la direction générale de l’aviation civile, ce qu’on appelle communément drone est un aérodyne, donc un objet volant plus lourd que l’air, sans pilote embarqué, donc télécommandé, et qui emporte une charge utile. Cette charge utile peut être des appareils de prise de vue ou de mesure, ou même des armes dans le cas de drones militaires à vocation de combat ou d’appui tactique.

droneune-333848-jpg_212416

Un drone militaire armé de l’ US Air Force

Le marché mondial des drones civils est en perpétuelle augmentation, plus de 70% annuelle, il a dépassé les 100 millions d’€ en 2013. Et d’après le cabinet Xerfi chargé de l’étude, il devrait tripler d’ici 3 ans et dépasser les 300 millions d’€ d’ici fin 2015.  On voit que de plus en plus de drônes « grand public » sont lancés sur le marché sur des sites d’aéromodélisme. Cela veut-il induire que n’importe qui peut en commander un et l’utiliser librement ?

La réponse est ambiguë : Oui et non… Il faut déjà faire une distinction de taille entre la finalité de ces drones. En gros, est ce que votre appareil est équipé d’un capteur, pour prendre des photos ou des vidéos ? ou bien est-ce juste l’engin seul ? Dans ce dernier cas, il rentrera dans la catégorie de l’aéromodélisme pur et simple, et en sera soumis aux mêmes règles. En revanche, s’ il est équipé d’un dispositif de captation d’images, il ne rentre plus dans cette catégorie et la réglementation se durcit considérablement, notamment pour des raisons de droit de l’image. Prenons le cas le plus simple, où le drone est utilisé « exclusivement à des fins de loisir ou de compétition par un télépilote qui est à tout instant en mesure de contrôler directement sa trajectoire pour éviter les obstacles et les autres aéronefs« , l’engin est dit « aéromodèle« , et dispose d’un régime simplifié s’il pèse moins de 25 kg. Le pilote a tout le loisir de le faire fonctionner chez lui tout en maintenant se maitrise sans risque aux biens ou aux tiers.

Mais je vous vois venir : vous voulez faire des photos de votre maison 😉  Alors dans ce cas, il faut savoir que tout drone équipé d’un appareil photo ou d’une caméra tombe dans une autre catégorie, beaucoup plus réglementée, du fait qu’il peut être utilisé pour la surveillance ou la photographie aérienne, jugée sensible. Par ailleurs l’article D113-10 du code de l’aviation civile interdit sauf dérogations « la prise de vue aérienne par appareil photographique, cinématographique ou par tout autre capteur des zones dont la liste est fixée par arrêté interministériel« . « Il appartient au pilote et à son employeur éventuel de s’assurer, auprès des organismes (compétents), de la possibilité d’effectuer librement des prises de vues aériennes« , ajoute le code. C’est donc clair : la mise en service sauvage d’un drone pour prise d’images est formellement interdite en France.

Cependant, deux arrêtés de 2012 distinguent 4 situations types, qui détermineront les catégories, nommées Scénarios.

scénarios

Récapitulatif des conditions réglementaires selon les scénarios

Pilotage d’un drone « en vue » hors zone peuplée. Lorsque la personne qui dispose de la télécommande conserve une vue directe sur le drone, et si celui-ci ne s’éloigne pas à plus de 100 mètres du pilote sur un plan horizontal, il est possible de faire voler des drones de 25kg maximum, dans les zones qui ne comptent pas d’habitations. Il faut toutefois se limiter à une hauteur de 150 mètres, et suivre des règles complémentaires dans les zones situées à proximité d’un aéroport.

Pour le Pilotage d’un drone « hors vue directe, hors zone peuplée » Le vol est libre, en dehors des espaces aériens contrôlés ou réglementés, et à distance des aéroports, pour les drones de 25 kg maximum, à une distance horizontale maximale de 1 km, et une hauteur inférieure à 50 mètres par rapport au niveau du sol ou du point culminant des obstacles artificiels. Aucune personne ne doit se situer dans la zone survolée.  Dans cette catégorie, des autorisations particulières doivent être délivrées, notamment au regard des spécifications techniques du drone. Certains constructeurs bénéficient d’attestations de conception type, mais ce n’est pas le cas pour beaucoup des drones de loisirs, comme les fameux Parrot.

Rentrons ensuite dans le Pilotage d’un drone « à vue en zone peuplée » Sont autorisés les aérostats (plus légers que l’air) de moins de 25kg, et les drones de moins de 4 kg qui génèrent moins de 70 joules à l’impact, évoluant à moins de 150 mètres de hauteur, et 100 mètres de distance horizontale. Là aussi, il faudra s’enquérir des démarches à suivre auprès de la Direction générale de l’aviation civile (DGAC).

Et enfin pour le Pilotage d’un drone pour des activités réglementées, c’est-à-dire certaines activités particulières réalisées à l’aide de drones, nécessitent des autorisations spéciales. C’est le cas notamment pour les traitements agricoles, relevés topographiques, la surveillance aérienne, ou encore… la photographie aérienne. Dans tous les cas, une distance horizontale minimale de 30 m doit être conservée pendant tout le vol avec les personnes qui ne sont pas liées au pilotage du drone. Notez que les autorisations de prise de vues sont traitées et délivrées après dépôt d’un dossier auprès des préfectures dont dépend la mise en œuvre du drone. En gros, et selon les textes, vous n’avez théoriquement pas le droit de prendre un édifice ou des personnes vues du haut et encore moins de publier ces vidéos sur Internet, sans avoir au préalable obtenu ces autorisations par l’administration. Donc prudence car il est fort à parier que les abus seront durement sanctionnés comme exemple pour les contrevenants. Je vous invite vivement à consulter le site du ministère du développement durable consacré aux drones, site qui vous fournira les démarches à suivre pour obtenir les autorisations, qui vous indiquera les conditions et rappellera la réglementation en vigueur. L’adresse est : http://www.developpement-durable.gouv.fr/ et vous trouverez cela dans Drones-civils-loisir-aeromodelisme


Ecoutez le podcast en audio :

Aujourd’hui, nous allons parler compression, ou plus exactement fichiers compressés. Pourquoi la compression ? Comment compresser ? Nous allons décortiquer les choses simplement avec la première question qu’on peut se poser, peut-être pour les novices : Qu’est-ce que la compression ?

La compression de données ou codage de source est l’opération informatique consistant à transformer une suite de bits A en une suite de bits B, plus courte mais pouvant restituer les mêmes informations en utilisant un algorithme particulier. C’est une opération de codage, elle raccourcit la taille (de transmission ou de stockage) des données au prix d’un effort de compression et de décompression. La décompression est l’opération inverse de la compression.

compresion

Il y a 3 type de compression : la compression sans perte, la compression avec perte et la compression presque sans perte. Ils emploient des algorithmes différents. La compression est dite sans perte lorsqu’il n’y a aucune perte de données sur l’information d’origine. Il y a autant d’information après la compression qu’avant, elle est seulement réécrite d’une manière plus concise (c’est par exemple le cas de la compression gzip pour n’importe quel type de données ou du format PNG pour des images synthétiques destinées au Web2). La compression sans perte est dite aussi compactage. La compression avec pertes ne s’applique qu’aux données « perceptibles », en général sonores ou visuelles, qui peuvent subir une modification, parfois importante, sans que cela ne soit perceptible par un humain. La perte d’information est irréversible, il est impossible de retrouver les données d’origine après une telle compression. La compression avec perte est pour cela parfois appelée compression irréversible ou non conservative. Nous en avons parlé dans une chronique précédente consacrée aux formats des fichiers audio, que vous pouvez réécouter dans nos archives si cela vous intéresse. Enfin, les méthodes de compression sans perte significative sont un sous-ensemble des méthodes de compression avec perte, parfois distinguées de ces dernières. La compression sans perte significative peut être vue comme un intermédiaire entre la compression conservative et la compression non conservative, dans le sens où elle permet de conserver toute la signification des données d’origine, tout en éliminant une partie de leur information.

Les formats de fichier de compression sans perte sont connus grâce à l’extension ajoutée à la fin du nom de fichier (« nomdefichier.zip » par exemple), d’où leur dénomination très abrégée. Les formats les plus courants sont : 7z, ace, arc, arj qui date déjà de quelques dizaines d’année ,bz, bz2 (tar peut être utilisé pour créer les archives de ce type notamment sous Mac OSX), cab utilisé par Microsoft comme les mises à jour de windows, gzip pour les bases données, gz (qui est un fichier à une seule entrée, tar peut être utilisé pour créer les archives de ce type), lzh, rar qui est assez connu, RK, uha, xz, Z (surtout sous Unix), zip, zoo, APE ou FLAC pour les flux audio.
Bien qu’il soit possible de le faire, ce n’est pas dans l’intérêt de l’utilisateur de compresser fichier par fichier. Les logiciels sont capables de regrouper et de compresser plusieurs fichiers ou même des répertoires ou des sous-dossiers, en même temps et dans un seul et même fichier dit d’archive. C’est le fameux fichier compressé. Et lors de sa décompression, on retrouvera les différents fichiers à l’identique tels qu’ils étaient avant la procédure.

Abordons maintenant ce qu’on appelle le taux de compression. Et bien en réalité, l’efficacité de compression va dépendre de la nature des fichiers que vous compressez. Le taux de compression est relié au rapport entre la taille du fichier comprimé et la taille du fichier initial . Le taux de compression est généralement exprimé en pourcentage. Un taux de 50 % signifie que la taille du fichier comprimé est la moitié de . La formule pour calculer ce taux est : .\tau=1-(b/a)  L’algorithme utilisé pour transformer en est destiné à obtenir un résultat de taille inférieure à . Il peut paradoxalement produire parfois un résultat de taille supérieure : dans le cas des compressions sans pertes, il existe toujours des données incompressibles, pour lesquelles le flux compressé est de taille supérieure ou égale au flux d’origine.

Question logiciels, vous en avez des payants sous licence comme WinRar ou WinZip pour les plus connus, mais aussi des gratuits comme Quickzip, ou encore Izarc ou 7-zip qui permettent simplifier les opérations basiques, et qui fonctionnent très bien. Il faut juste s’assurer de leur compatibilité selon vos différents systèmes d’exploitation. Et pour les adeptes de l’humour technologique, vous avez NABOB, qui est une parodie d’outil de compression permettant de ramener n’importe quel volume de données à un seul octet ; et bien entendu, il ne permet pas de décompresser, mais en revanche il compresse très bien 😉


Ecoutez le podcast en audio :