Jouez les prévisionnistes météo avec WindyTV

Du business à la météo, la naissance de Windy TV

Comme son nom l’indique, Windy TV est une plateforme en ligne dédiée à l’affichage des vents et des principales observations météorologiques courantes. On peut se demander le pourquoi d’un énième site météo, puisque des entités nationales sont déjà aux commandes de tels outils, comma par exemple Météo France qui a la charge de traiter, modéliser puis de fournir des informations dans l’hexagone, en direction de ses utilisateurs (aviation, marine, professionnels…) et des médias. Une des réponses tient tout simplement en l’ergonomie et la convivialité d’utilisation de Windy TV dans son interface et sa lisibilité. : tout est fluide, dynamique, réactualisé, simple et intuitif !

Cette idée est née initialement pour les besoins d’une société qui fabriquait des éoliennes en Australie. Un besoin naturel d’avoir les dernières prévisions était nécessaire aussi bien pour l’installation des appareils que pour leur exploitation. Cette société a donc fait appel au développeur tchèque Ondřej Procházka, également pratiquant du vol libre en parapente, afin de trouver un moyen permettant de s’appuyer sur les données collectées auprès des différents organismes météorologiques, et qui permettraient de fournir une vision globale rapide de la situation à un endroit donné sur le globe. C’est ainsi qu’est née le site de Windy TV, décliné ensuite en application sous beaucoup de standards (IOS, Android, Windows…)

L’interface du site de Windy TV

L’interface de Windy TV est poussée à son plus simple appareil : donner une vision rapide, en un clin d’œil.  Elle centre via la géolocalisation de sa connexion internet sur la zone dans laquelle l’utilisateur se trouve, et charge les observations en cours.

En haut à gauche, on peut trouver un encart qui concerne la tendance à venir dans les prochaines 72 heures, au nouveau de la prévision générale du temps, des précipitations, de la température, de la force du vent… On trouve aussi une barre de recherche pratique pour aller se centrer sur un point géographique particulier.

L’interface de Windy TV

Sur la droite, de haut en bas, on trouve l’échelle des options qui permet de naviguer dans les différents modes d’affichage, celui par défaut étant les vents en surface et leur gradient, représentés par des couleurs nuancées. Mais on pourra aussi aller afficher les précipitations, les pressions, les températures, la couverture nuageuse, les isothermes… et même les vagues pour nos amis véliplanchistes, surfer ou Kitesurfer… D’autres options d’affichages permettent de proposer des légendes supplémentaires sur les cartes, comme l’emplacement des aéroports, des emplacements de parapentes ou de planche à voile…

Enfin dans la partie inférieure, on trouve une frise d’animation qui permettra de déclencher la lecture de l’évolution prévue par succession d’images animées successives, et plutôt intéressantes pour procéder à ses propres prévisions.

Comment sont établies les prévisions ?

3 modèles sont compilés dans Windy TV, et permettent justement d’affiner les prévisions en allant chercher le modèle qui conviendrait le mieux à ses attentes.

  • On trouvera le traditionnel GSF (Global Forecast System) américain utilisé par le National Service Weather, l’équivalent du Météo France aux Etats-Unis. Il se base sur des images satellitaires d’observation dans le visible et l’infrarouge et permet de descendre à des résolutions de l’ordre de la vingtaine de kilomètres en précision.
  • Le modèle européen est celui de L’European Centre for Medium-Range Weather Forecasts (ECMWF) et dispose, grâce à une coopération étatique, d’une résolution moyenne de 9 kilomètres sur l’ensemble de l’Europe.
  • Le troisième modèle à disposition est le NEMS, le modèle européen basé sur les suisses de Météoblue. ce modèle est, excusez du peu, du modèle le plus précis, avec une résolution pouvant descendre à 4 kilomètres sur l’Europe de l’ouest avec ses satellites géostationnaires.

Conclusion pratique

Grâce à l’ensemble de ces données, l’utilisateur peut donc avoir accès à une grande partie des informations météo dans l’instant et donc commencer à se faire ses propres projections en fonction de ses besoins (sous réserve de disposer d’un minimum de connaissances en météorologie). Les niveaux de détail et de mesure sont suffisants aussi pour visualiser des phénomènes caractéristiques météorologiques sur toute la surface de la planète, comme l’évolution des anticyclones selon les saisons, les évolutions de la zone de convergence intertropicale (ZCIT), des différents jets stream, courant de haute altitude, si on joue un peu avec les couches supérieures de la troposphère.On peut aussi aller observer des phénomènes cycloniques ou ouragantesques, comme ceux qui ont frappé les Antilles en septembre 2017, nettement visibles sur les cartes (voir ci-dessous).

Windy TV est donc un outil simple et accessible à tous, et vous permettra de voyager sur la planète directement depuis vos écrans ou depuis vos smartphones, et de jouer les météorologistes pour vous et vos proches, de manière rapide. C’est aussi un outil très pratique pour travailler sa géographie, et comprendre un peu mieux la circulation générale des vents et des courants autour de la Terre. Je vous encourage à aller visiter ces sites, très riches en enseignements et qui vous permettront sans doute de mieux appréhender la météo dans son ensemble. Je profite aussi de cet article pour remercier ma référente météo en la matière, Hélène.C, qui de part son enseignement, son expertise et sa pédagogie, a su m’apporter une vision globale en la matière.

Carte interactive intégrée depuis le site :

Les ordinateurs de plongée, des merveilles de technologie au service de la sécurité

Qu’elle soit professionnelle ou de loisir, la plongée subaquatique est régie par des contraintes physiques et réglementaires qui se veulent proches, ou très proches partout dans le monde. Comme beaucoup d’activités, le développement informatique, l’apogée de la miniaturisation, les progrès effectués sur les écrans et sur l’affichage, sur les évolutions de l’interface homme/machine,etc.  ont largement impacté la pratique courante de la plongée. C’est le cas notamment de la sécurité dans la pratique d’activités subaquatiques, puisque l’arrivée sur le marché des ordinateurs de plongée dans les années 1980/1990 et leur constante évolution permettent aujourd’hui d’aborder différemment les choses.

Les origines des ordinateurs de plongée et un peu de thermodynamique…

On sait tous qu’un plongeur loisir plonge avant tout pour décompresser de sa vie Ô combien si stressante, mais le terme de décompression prend aussi tout son sens lorsqu’il désire remonter à la surface, à la fin de sa plongée. En effet, le plongeur, pour respirer sous l’eau, embarque une bouteille dans laquelle est comprimé de l’air à haute pression (environ 200 bars, soit 20 fois la pression de votre station de gonflage pour gonfler vos pneus de voiture). Afin d’être en mesure de respirer cet air sans se déchirer les poumons, le plongeur va adapter des détendeurs qui vont permettre de réduire la pression en sortie, et de transformer cet air respirable lorsqu’il évoluera sous l’eau. On appelle cela les étages du détendeur : un premier étage va diminuer la pression de 200 bars à environ 8 à 10 bars au dessus de la pression ambiante, et un deuxième étage situé devant la bouche du plongeur, va diminuer la pression restante à la pression ambiante, c’est à dire à celle du milieu dans lequel le plongeur évolue.

detendeur

En effet, dés lors que vous vous immergez à une profondeur supérieure à 50 cm, la pression de l’eau sur votre corps est telle que les muscles de votre cage thoracique ne sont plus suffisamment puissants pour la contrer. Il faut donc une « assistance » qui est délivrée par la surpression de l’air en sortie du détendeur, qui va l’adapter au moyen d’une membrane flexible. Quand le plongeur inspire, la dépression générée tire sur la membrane qui actionne un levier qui laisse passer l’air sous pression et alimente ainsi les poumons sans avoir à forcer. Pour se rendre compte de cette force invisible, essayez de respirer à un mètre sous la surface d’une piscine au moyen d’un tuyau d’arrosage : vous verrez que cela est impossible !

Utiliser de l’air comprimé est donc nécessaire mais n’est pas sans risque. Les travaux du Commandant Cousteau, inventeur de ce système dans les années 60, l’ont largement montré conjointement aux recherches fondamentales pratiquées par la Marine Nationale.  Il est vrai que transporter une bouteille de 20 litres et de 200 bars de pression dans son dos nécessite quelques précautions d’usage et n’est pas anodin : cela implique des révisions régulières du matériel et notamment des surfaces des bouteilles, appelées « bloc ». Mais les contraintes ne se limitent pas au niveau technique : en effet, Cousteau s’est vite rendu compte, lors de ses plongées, que l’air comprimé qu’il respirait en profondeur, avait un impact sur sa physiologie et sur son corps. L’air est composé de 78% d’azote, 21% de dioxygène et 1% de gaz rares, comprimé ou non.

air

L’azote que nous respirons à la surface n’est qu’une sorte de « diluant » qui n’est pas consommé et intégré par notre organisme. En revanche, dès lors que la pression augmente au fur et à mesure que le plongeur descend, cet azote va quand même entrer dans son corps. Mais comme il n’est pas utilisé, il va simplement se diluer dans le sang, aller se stocker et attendre.  Lors de la remontée, il va donc être intact et demander à sortir, l’idéal étant par la ventilation et les voies naturelles à l’inverse du stockage. Sauf qu’une remontée rapide, donc une décompression rapide, peut provoquer l’effet « bouteille de champagne » et voir apparaitre des petites bulles d’azote dans le sang : il faut donc impérativement gérer sa vitesse de remontée, au besoin effectuer un ou plusieurs paliers (arrêts à un certaine profondeur) qui permettront à l’azote de s’évacuer tout seul et sortir en toute sécurité par les voies aériennes. Et c’est là où les ordinateurs de plongée rentrent en action …

 Principe de fonctionnement d’un ordinateur de plongée

L’ordinateur de plongée va permettre d’optimiser son temps de plongée en sécurité, en calculant en temps réel la décompression que va devoir effectuer le plongeur.  Auparavant, on calculait ces temps à l’aide de tables de décompression (MN90 en France) à partir de la durée totale de la plongée et de sa profondeur maximale atteinte : un tableau nous donne alors la profondeur et la durée des paliers de décompression à effectuer. Ce calcul est volontairement  le plus pénalisant (plongée dite « carrée » en raison de la forme de sa courbe en rouge sur le schéma ci-dessous) afin d’assurer la sécurité de la décompression. Un ordinateur va, lui, découper toute la plongée en tranches d’une durée inférieure à 30 secondes (courbe jaune ci-dessous) et va donc être beaucoup plus précis dans le calcul des paramètres. On va donc se pouvoir se permettre d’anticiper la plongée et de raisonner non plus sur le temps écoulé, mais sur le temps restant, ce qui permettra de mieux appréhender les paliers et la réserve d’air restant à disposition dans la bouteille.

computer-profile
Différence des calculs entre une table (rouge) et un ordinateur en temps réel (jaune)

Un ordinateur est composé d’un boitier étanche et résistant à une pression importante afin d’éviter les entrées d’eau en grande profondeur. Il contient une source d’énergie (pile ou batterie rechargeable) et embarque un microprocesseur qui va procéder à des calculs mathématiques statistiques selon un programme qui est installé. Le tout est traité et affiché sur un écran, à LED ou à cristaux liquides, en noir et blanc ou en couleur selon les modèles. Il peut aussi être équipé d’un rétroéclairage, d’une mise en route automatique par capteur sensitif, et d’une mise en veille automatique. Il va aussi consigner toutes les plongées et les archiver dans un journal, qui pourra être accessible soit en lecture directe, mais aussi de plus en plus via un ordinateur de bureau et un logiciel, ou sur des applications mobiles spécifiques.

Les ordinateurs de plongée actuels embarquent donc pour fonctionner toute une série de capteurs qui mesurent en temps réel, entre autres, l’heure d’immersion, l’heure de sortie, la durée entre deux plongées, la pression ambiante et la température de l’eau, la pression restante et la consommation du plongeur si il est équipé un capteur de pression, les efforts du plongeur et la prévention de l’essoufflement si il est équipé d’une ceinture cardiographique, un magnétomètre pour mesurer l’orientation par rapport au nord magnétique, ils peuvent aussi gérer plusieurs mélanges gazeux de nature différente, gérer le passage d’une bouteille à une autre en cours de plongée, etc. Chaque ordinateur de plongée est donc personnel et indique à son propriétaire des paramètres précis qui lui sont indispensables pour assurer sa sécurité.

Ordinateur et son capteur de pression bouteille
Ordinateur et son capteur de pression bouteille

Les ordinateurs de plongée sont donc plus ou moins complexes, et une gamme large permet au débutant comme au plongeur TECH de trouver son bonheur. Voici ci-dessous un tableau des principaux ordinateurs disponibles sur le marché en 2014, classés par ordre de complexité et fonctionnalité (entry: débutant, Technical : expert)

 

Mais sur quoi reposent les calculs et quels sont les modèles arithmétiques originaux ?

L’ordinateur de plongée se base sur des protocoles standards de décompression et des études statistiques. Des modèles mathématiques ont été établis selon des profils spécifiques de plongée et des facteurs extérieurs comme la pression, la température, les plongées précédentes, etc… Selon le profil physique des plongeurs et les caractéristiques de la plongée, il peut être parfois important de sélectionner manuellement un profil de dureté (augmentation des paliers et diminution du temps de plongée avant palier) pour éviter tout accident en fonction de ses propres critères. De plus, comme le calcul de la décompression s’effectue au plus juste, deux plongeurs avec les mêmes ordinateurs et les mêmes réglages peuvent avoir des obligations de décompression différentes s’ils n’ont pas été systématiquement à la même profondeur. Les algorithmes de calcul sont principalement issus des calculs de Albert Bühlmann, eux même basés sur les travaux de Haldane et de Workman, les pionniers en la matière. Citons par exemple le modèle ZHL-8 modifié, ZHL-16 B ou encore C avec GF, VPM ou RGBM. Un des pionniers du calcul numérique de la décompression fut Hannes Keller dont les travaux contribuèrent grandement à l’évolution rapide des ordinateurs de plongée modernes.

Principalement, le plongeur va donc pouvoir accéder en temps réel sur son ordinateur à :

  • sa profondeur instantanée
  • sa durée d’immersion (date, heure, etc)
  • le temps restant avant le début de palier
  • de sa vitesse de remontée avec une alarme visuelle et sonore
  • de la profondeur des paliers et de leur durée si il y en a
  • la température de l’eau (si équipé)
  • d’une boussole numérique (si équipé)
  • de la pression restant dans sa bouteille (si équipé)
  • de la pression dans les bouteilles de ses équipiers (si équipé)
  • de l’affichage de sa courbe de plongée sous forme graphique
  • de sa fréquence cardiaque (si équipé)
  • de sa saturation par compartiment (selon les modèles)
  • à l’intervalle durant lequel il est déconseillé de prendre l’avion…

 

Plongeur technique multigaz
Plongeur technique multigaz
L’avancée du numérique et l’inter connectabilité des dispositifs

La principale avancée des ordinateurs de plongée réside dans la miniaturisation des dispositifs. En effet, l’augmentation de la puissance des microprocesseurs et des calculateurs, couplée à l’explosion des capacités de stockage mémoire et des fréquences des bus numériques, permettent aujourd’hui des opérations plus poussées en étant encore plus rapide. Les capacités d’analyse via l’intégration des variables et des mesures effectuées par les capteurs sont donc plus rapidement traitées et « statistiquées » selon l’algorithme installé dans l’appareil. Les matériaux sont aussi plus résistants, aux chocs mais aussi à la pression que l’eau peut appliquer à grande profondeur. Parlons aussi de la connectique. Les premiers modèles connectables ont utilisé avec succès l’IrdA (liaison de données par LED infrarouge). L’avantage était de tout intégrer dans les boitiers en les maintenant parfaitement étanches puisque sans ouverture. On constate désormais la possibilité de connecter nos appareils avec les dernières technologies sans fil, comme le WiFi ou le Blutooth. L’IrDA est petit à petit délaissé par les constructeurs principalement en raison du faible débit des données en transmission. L’apparition des nouvelles prises USB3 en format micro, permet aussi de proposer une petite prise filaire qu’il sera facile de protéger : en effet, la force d’une pression est proportionnelle à la surface sur laquelle elle est appliquée. Un petit capuchon étanche résistera beaucoup plus qu’un plus large, avec des risques d’inondation pour autant réduits.

DiveMate_Tablet

Ceci permet aussi d’utiliser des batteries rechargeables et d’offrir une autonomie accrue (les ordinateurs sont souvent gourmands en énergie), de transférer à vocation pédagogique ses profils de plongée sur les applications dédiées, et même d’appliquer des mises à jour du firmware des appareils, souvent téléchargeables en ligne sur les sites internet des constructeurs. On voit aussi ces dernières années une déclinaison des interfaces homme/machine et une prise en compte bien supérieure de l’aspect Ergonomie des ordinateurs : on retrouve des ordinateurs complets embarqués sous forme de console directement en bout du flexible du manomètre de pression, voire même la technologie VTH (Vision tête haute) comme dans l’aviation ou les automobiles. Nous en sommes encore à l’heure actuelle à un écran incorporé dans certains masques de plongée (photo ci-dessous), mais il est moins confortable car plus lourd qu’un masque classique.

Masque Oceanic 2

On peut s’autoriser à penser que d’ici quelques années, nous verrons l’apparition sur le marché d’écrans translucides flexibles qui permettront de projeter les données principales sur les verres du masque. On peut aussi penser à des systèmes interconnectés et en surveillance automatisée, comme les ARVO en montagne : un appareil détectant une probabilité montante d’une situation d’urgence déclenchera une alarme directement sur les appareils des plongeurs accompagnants. On gagnera donc de précieuses secondes sur l’intervention et l’assistance de la personne en difficulté. Il en est de même pour la transmission des données en temps réel, en direction du bateau ou du directeur de plongée, des constantes vitales du plongeur, des données de décompression, etc. Ceci existe déjà au niveau militaire mais reste très onéreux.

Bref, tout reste encore à faire et cette technologie au service de la sécurité des plongeurs n’en est encore qu’à ses balbutiements.

Un petit rhum arrangé à domicile ?

En cette période de rentrée, si je vous propose de conserver un peu de soleil, ou d’en faire venir chez vous. Et tenez vous bien : à base de rhum l’artisanal !  En effet, j’ai eu récemment l’occasion de découvrir un site que je vous recommande chaudement.

Si vous aimez les apéritifs gouteux, les matières noblement travaillées, de l’originalité dans la conception et les saveurs… alors les rhums de Cédric sont faits pour vous !!! Mangue passion, pomme gingembre, carambole passion, ananas victoria… ne sont que certaines macérations parmi d’autres dont Cédric, maitre artisan en la matière a le secret depuis 2002.

Féru de Punch au Rhum, Cédric BREMENT, issu d’une formation en agroalimentaire, se teste à la conception et aux assemblage pour sa consommation personnelle. Vite pris au jeu et grâce aux retours positifs de son entourage, il décide d’en faire son métier et se lance sur le marché. Ancré dans de solides valeurs et selon un concept original et qualitatif, il lance sa boutique en ligne qui permet aujourd’hui de pouvoir commander partout en France son punch de qualité. Au dela de la communication et de la vente en ligne, la toile est un élément qui permet d’avoir un réel écho de la vision du consommateur sur les produits. Il est important pour Cédric d’avoir ces retours pour être en mesure de piloter/créer de manière plus sereine.

IMG-20140228-00310

La gamme présentée au départ était issue des meilleures macérations fabriquées pendant ses 10 années de producteur amateur. La philosophie est de ne travailler qu’avec du fruit frais macéré dans un rhum agricole AOC de Martinique. L’objectif initial étant de redonner ses lettres de noblesse à un produit trop souvent galvaudé. Le savoir faire provient de la recette et de la recherche permanente de spécificité dans les matières premières. La gamme continue d’ évoluer en proposant des concepts nouveaux mais toujours dans le but de valoriser des matières premières, des histoires, des terroirs…… comme la macération plusieurs mois de certaines bouteilles en marais salant. Pourquoi? Au départ, le constat a été fait que le sel est un exhausteur de goût donc il était intéressant pour Cédric de mesurer quel impact cela peut avoir dans le concept « rhum arrangé ».

IMG_6226
Sortie des bouteilles après macération

IMG_6211

Quand on lui pose la question sur la législation française en matière d’alcool, Cédric répond que la vente d’alcool n’est pas contraignante en soit – la contrainte est vraiment la législation, les obligations liées ainsi que la fiscalité qui est très importante et très particulière pour le rhum. Malgré cela, il garde le cap et continuera à proposer des créations et des innovations pour le plus grand plaisir de nos palais, comme la dernière création Pomme Cacao, que je m’emploierai surement à tester un de ces jours.

A noter que vous pouvez retrouver sa production dans différents bars, commerces, cavistes et restaurants… mais aussi sur son site internet : http://lesrhumsdeced.fr et sa boutique en ligne : http://lesrhumsdeced.fr/la-boutique/

Personnellement, j’ai testé le Pomme Gingembre, et la fameuse production limitée Point G en marais salant, et j’avoue que j’ai vraiment été agréablement surpris de la richesse des saveurs. De plus, il faut signaler qu’un certain nombre de ses créations a été récompensé lors de concours des vins et c’est bien un emblème de qualité. Pour les amateurs de produits BIO, vous pourrez aussi trouver votre bonheur !

Voilà donc une excellente initiative créative, et un bon état d’esprit de produit et de qualité qui méritent d’être soulignés et surtout d’être découvert si vous êtes amateurs comme moi d’Epicure et de ses acolytes…

IMG-20140228-00311
 NB: L’abus d’alcool est dangereux pour la santé. A consommer avec modération.

 

STRAVA, le challenge des sportifs

Place aux sportifs aujourd’hui, puisque nous allons parler de l’ outil STRAVA, qui leur est dédié.

Strava est un site internet et une application qui permet aux sportifs pratiquant des sports de fond tels que le cyclisme, le jogging, le trail, la natation, etc…   de pouvoir suivre leur activités et de comparer leur résultats avec leur amis. Cette application créée en 2012 est américaine, la marque STRAVA tient ses quartiers à San Francisco en Californie. Comme beaucoup de sites du même type, elle propose un service basique gratuit, et un service premium qui comprend plus de fonctionnalités et plus d’options à disposition de ses membres. Son succès est important notamment par le fait que les utilisateurs sont à la fois des amateurs, mais aussi des professionnels qui « partagent » leur performance en ligne, et ainsi entretiennent l’esprit de challenge.

Le concept est très simple. Vous vous créez un compte. C’est gratuit. Vous installez l’application (gratuite elle-aussi) sur votre téléphone intelligent ou sur un Garmin. La fonction GPS est nécessaire. Une fois cela fait, vous allez rouler, en n’oubliant pas de partir votre GPS qui enregistrera donc votre parcours et d’autres données. Une fois rentré chez vous, vous téléchargez le tout sur le site de Strava et le partagez avec les petits copains que vous aurez rejoint en créant ainsi votre communauté, qui peut aussi être composée des membres de votre équipe cycliste par exemple, ou de vos partenaires de club ou d’entrainement…

strava-home
Compatible pour smartphones, gps, et sur le site internet de l’application…

Avec Strava, presque plus besoin d’organiser des compétitions: c’est la compétition qui vient à vous et ce, où et quand vous le désirez. Strava vous mets en compétition avec les autres sur certains tronçons sélectionnés, habituellement les bosses de votre secteur. Évidemment, le petit jeu est d‘établir le meilleur temps du dit-tronçon, et ainsi avoir le titre convoité de KOM, ou “King of the Mountain”. Mais attention, un titre de KOM peut être très éphémère! Vos petits copains voudront vous reprendre rapidement le titre convoité et iront probablement se faire péter les varices, question de vous battre, ne serait-ce que d’une petite seconde. Rapidement donc, vos sorties d’entrainement pourront se transformer en des séances très spécifiques dont l’unique but sera de tenter de réaliser le meilleur temps sur un tronçon bien particulier près de chez vous.

Nous entrons dans le cyclisme 2.0 !!! Strava est parfois présenté comme le “réseau social des cyclistes”. Un surnom qui résume à merveille les fonctionnalités de cet outil. Pour faire simple, Strava permet de collecter des données GPS et ainsi de suivre l’évolution de ses performances. Quand un cycliste va s’entraîner, il lance l’application qui enregistre notamment son parcours, sa vitesse et la distance parcourue. Et c’est là où STRAVA se démarque des autre système classique : c’est que le cycliste peut ensuite mettre en ligne ses performances de son choix. D’où l’étiquette de réseau social, puisque ces performances sont vues par l’ensemble des personnes qui “suivent” (le système est comparable à celui de Twitter) le compte Strava du coureur. L’autre point fort de Strava, c’est que chacun peut créer des “segments”. À savoir un tronçon de parcours, plus ou moins long, que l’utilisateur décide de “baliser”. Une fois le segment créé, tous les passages d’utilisateurs seront enregistrés. Très utile pour comparer ses performances sur une portion de route où l’on se sent à l’aise. C’est également une façon de repousser ses limites : si l’on a tendance parfois à relâcher ses efforts quand on roule sans repères chronométriques, le fait d’avoir des performances déjà établies permet d’aider à repousser ses limites.

Stravakom
Exemple de référencement des KOM sur des segments donnés…

On peut se demander quel est le profil type d’un utilisateur de Strava ! Difficile d’en dégager un, tant les disparités sont fortes entre les membres de la “communauté”. L’utilisateur le plus célèbre de l’application est ainsi Lance Armstrong, qui a longtemps battu le record de nombreux segments sous un pseudo et continue de le faire, désormais sous son vrai nom. Des cyclistes professionnels toujours en activité sont également très actifs sur Strava à l’image du Français Thibaut Pinot, Alexandre Geniez de l’équipe PDJ, Romain Bardet chez AG2R La Mondiale, mais aussi de Laurens Ten Dam, Jan Baeklands chez Omega Pharma Quickstep, Lars Boom de chez Belkin ou encore le célèbre sprinter Mark Cavendish. Derrière ces têtes d’affiche, on trouve une multitude d’inconnus. Là encore, les profils sont variés, allant du coureur amateur de très bon niveau jusqu’au cycliste occasionnel. Malgré l’écart de niveau entre chacun, tous peuvent rêver à un titre de King of the Mountain (Roi de la Montagne, en VF), qui récompense la personne qui détient le meilleur temps sur un segment, de préférence une côte. On leur conseillera évidemment d’éviter de viser le record de l’Alpe d’Huez, deuxième segment le plus couru au monde et numéro 1 en France.

L’application est téléchargeable gratuitement sur les boutiques des différents terminaux (IOS, Androïd, etc) et le site internet sur l’adresse suivante : www.strava.com

Quid des connexions sans-fil ?

Bon nombre d’entre nous utilisons quotidiennement les connexions dites sans-fil, en Wifi ou en Bluetooth. D’autant facilité par la généralisation des mobiles, les connexions sans-fils servent aujourd’hui à bon nombre de terminaux ou d’application, mais d’où viennent-elles, quelles sont leur différences et que se cache-t-il derrière des appellations qui nous semblent familières ?

Pour bien commencer je vais vous poser une petite question dont la réponse va surement vous surprendre : Savez vous quand a eu lieu la première connexion sans-fil de l’histoire ?  On pourrait en effet penser que les connexions sans-fil sont apparues avec l’internet mais pas du tout ! C’est en 1896 qu’à eu lieu la première connexion sans-fil, réalisée par un certain Guglielmo Marconi, qui s’est inspiré des travaux du célèbre Nikola Tesla, inventeur de la télégraphie dans fil. Cet Italien recevra le prix nobel de physique en 1909 justement pour ses travaux sur les liaisons sans fil. Et pour la petite histoire, il avait en tête de radio diffuser un message du pape Pi XI. Il s’agissait là des premiers essais de radio-transmission, dont la première officielle aura lieu en 1920 en Angleterre. Ces nouvelles prouesses technologiques vont changer nos manières de communiquer et donc impacter énormément notre société. C’est D’ailleurs ce même Marconi qui fondera la célèbre BBC à Londres.

Les première transmissions de données ont lieu en 1903 : première transmission télégraphique, en morse… puis 1924 avec les premières retransmissions en ondes courtes, par réflexion sur les couches de l’atmosphère… on note aussi que Marconi décèdera en 1937, l’année d’apparition des premiers radars. En ce qui concerne notre internet actuel, la norme 802 qu’on retrouve dans la dénomination du célèbre Wi-Fi apparait en 1980.

05249496-photo-logo-wi-fi-certifiedMais savez-vous ce que veux dire le WiFi et comment fonctionne-t-il ?  Le terme « Wi-Fi » est largement connu pour être la contraction de « Wireless Fidelity », mais c’est une explication erronée. Il s’agit en réalité d’une marque ! Et oui : Wi-Fi est une marque détenue par le consortium Wi-Fi Alliance. Un constructeur informatique produisant un produit compatible avec une des normes IEEE 802.11 doit demander à Wi-Fi Alliance le droit d’apposer le nom Wi-Fi et le logo correspondant. Sur un équipement que l’on souhaite acheter, le logo Wi-Fi blanc et noir, ou la mention du standard « IEEE 802.11 », garantit que le matériel est compatible avec la technique de réseau sans fil « IEEE 802.11 ». Le Wi-Fi est un ensemble de protocoles de communicationsans fil régi par les normes du groupe IEEE 802.11. Un réseau Wi-Fi permet de relier sans fil plusieurs appareils informatiques (ordinateur, routeur, décodeur Internet, etc.) au sein d’un réseau informatique afin de permettre la transmission de données entre eux. Cela est donc vrai pour internet mais aussi pour votre réseau domestique ou vos périphériques comme les imprimantes WiFi ou les mobiles… Les utilisateurs des hotspots, les point d’accès public WiFi, peuvent aussi se connecter dans des cafés, des hôtels, des aéroports, etc., et accéder à Internet mais aussi bénéficier de tous les services liés à Internet.

Bluetooth_-_logoParlons de son concurrent indirect car un peu différent : le Bluetooth.  C’est une spécification de l’industrie des télécommunications. Elle utilise une technique radio courte distance destinée à simplifier les connexions entre les appareils électroniques. Les premiers appareils utilisant la version 4.0 de cette technologie sont apparus début 2010. Le nom « Bluetooth » est directement inspiré du roi danoisHarald Ier surnommé « Harald à la dent bleue » (en anglais Harald Bluetooth), connu pour avoir réussi à unifier les États du Danemark, de Norvège et de Suède. C’est d’ailleurs Ericsonn, fabricant suédois qui est l’initiateur du Bluetooth tel qu’on le connait… Dans sa version actuelle, largement répandue, essentiellement dans les appareils mobiles, comme les téléphones portables, la liaison Bluetooth exploite les caractéristiques suivantes : très faible consommation d’énergie, très faible portée (sur un rayon de l’ordre d’une dizaine de mètres), faible débit, très bon marché et peu encombrant… En conséquence, il sera présent sur des appareils fonctionnant souvent sur batterie, désirant échanger une faible quantité de données sur une courte distance comme les téléphones portables (presque généralisé), où il sert essentiellement à la liaison avec une oreillette ou à l’échange de fichiers, ou encore comme MODEM…, sur les ordinateurs portables, essentiellement pour communiquer avec les téléphones, sur les périphériques divers, comme des claviers, pour faciliter la saisie sur les appareils qui en sont dépourvus…

Pour résumer, un sert pour de la distance moyenne et du débit, et l’autre pour de la courte distance avec peu de débit … Le WiFi sera performant, on pourra le sécuriser au moyen de clés de cryptage, et il aura une portée très raisonnable. Le Bluetooth sera beaucoup plus limité en distance, mais plus facilement appairable (aisance à le connecter avec un autre appareil au moyen d’un simple code), et avec une économie en énergie plus conséquente. Vous voyez que chaque technologie va donc être complémentaire de l’autre, et de nombreuses innovations et progrès sont encore entrain d’arriver…

Écoutez la chronique en podcast ici :

La météorologie : une application concrète du numérique

Aujourd’hui, nous allons parler météorologie . Quel temps fera-t-il demain ? C’est une des questions les plus posées et elle est désormais traitée grâce au numérique. Première question  : comment prédit-on la météo ?

Et bien , vous faites surement partie des personnes qui se posent la question de savoir comment est que les météorologues font pour estimer les évolutions du ciel, et élaborer leur prévisions. D’ailleurs parlons de prévisions météo : c’est une application des connaissances en météorologie et des techniques modernes de prises de données et d’informatique pour prévoir l’état de l’atmosphère à un temps ultérieur. Mais les premières prévisions remontent à l’aube de l’humanité, avec les devis et les oracles, qui tentaient déjà de prédire la pluie ou le soleil, avec des techniques beaucoup plus rudimentaires. Mais  quel est leur champ d’application dans les prévisions météo et quels outils utilise-t-on ?

Tout d’abord, pour parler des outils, il faut parler de la problématique. Il existe des lois précises qui permettent de calculer les évolutions de la météo. Ces lois régissant le comportement de l’atmosphère sont dérivées de ce qu’on appelle la mécanique des fluides. En gros ce sont des modèles mathématiques, qui incorporent une immensité de données et de variables qui permettent de calculer, au moyen de super-ordinateurs, des équations complexes et de les résoudre. Ceci affine la précision des prévisions. Pour compléter les données, il faut dire que la modernisation des communications depuis 30 ans, et notamment des transferts de données numériques, ont révolutionné la chose : comme par exemple la mesure automatisée des températures, des précipitations et leur envoi en instantané sur des serveurs de stockage et de calcul, l’utilisation des radars météo qui constituent désormais un réseau international, et le croisement des données entre les pays. Il y a donc différentes étapes pour prévoir la météo, car sans données initiales, on ne peut rien faire.

189_station_meteo
Une station météo automatisée…

La phase initiale s’appelle tout simplement l’acquisition des données. Les données sont acquises par un ensemble de systèmes qui donnent la pression, la température, l’humidité, la direction et vitesse du vent, les précipitations, les conditions nuageuses, etc, à la surface et en altitude. Ces systèmes ont chacun leur fréquence de prise de donnée et peuvent être des stations au sol, automatisées ou non, des services météo d’aéroport, des bouées fixes ou dérivantes dans le océans, des ballons-sonde en altitude, des radars météo et même des satellites spécialisés en orbite défilante ou géostationnaire autour de la Terre, comme Météor, Météosat ou Cosmos.

meteosat
Le satellite Météosat…

Ensuite c’est un météorologue qui rentre en action : il va analyser les données et appliquer des techniques expérimentales pour estimer le déplacement et le comportement des systèmes atmosphériques. Ou bien c’est un méga-ordinateur, qui va procéder à des calculs très poussés, avec des probabilités plus ou moins importantes. Et souvent, un prévisionniste synthétise les résultats obtenus qu’il croise avec les siens pour obtenir l’estimation la plus fiable possible. Et comme les modèles ne sont jamais parfaits, c’est pour cela que parfois, « la météo se trompe » comme on aime à le dire… Genre le jour où vous laissez votre parapluie à la maison et qu’il se met à pleuvoir de manière inattendue.

En effet, tout n’est que simulation et parfois la réalité est bien différente. Il arrive souvent que différents modèles suggèrent différentes solutions. Cela est dû à la façon dont les équations de l’atmosphère sont intégrées dans un modèle, à sa résolution et à l’état de l’atmosphère qui est parfois très instable et susceptible de grands changements à partir de petites variations de l’analyse initiale. Le prévisionniste compare son scénario avec les résultats obtenus par le ou les modèles numériques. Il peut ainsi se faire une idée des forces et des faiblesses des solutions qu’ils proposent et choisir la meilleure. Il utilise aussi pour cela les images satellitaires, celles des radars météorologiques, ainsi que toute autre donnée récente.  Comme ce qu’on voit à la télévision : c’est en effet une des formes de présentation des prévisions.

cartesat
Une carte colorisée et modélisée numériquement…

Une fois arrivé à une solution, le prévisionniste doit mettre celle-ci sous forme utile pour l’usager comme par exemple en direction des médias : journaux, bulletins télévisés, radios, services météorologiques nationaux tels que Radiométéo au Canada, etc. qui oeuvrent pour sa diffusion à l’attention d’autres utilisateurs directs), mais aussi à destination du grand public pour le tourisme, la vie quotidienne… Il doit aussi penser aux pilotes et navigants aériens, amateurs ou professionnels avec des informations plus techniques dont ils ont besoin, aux marins, amateurs ou professionnels, ou encore aux usagers spécialisés tels que  les déneigeurs, les compagnies d’électricité, etc. pour leur permettre d’ adapter leurs activités… Chacun d’eux reçoit des produits sous la forme la plus utile pour leur opération. Ce sont traditionnellement des cartes ou des textes mais plus récemment, avec l’internet, des graphiques de tendances ou tout autre produit graphique. On se rend bien compte que l’explosion des technologies numériques est désormais essentielle et indispensable dans la prévision de la météo, et on peut aussi penser que les évolutions de demain permettront encore d’affiner les résultats. Mais n’oublions pas non plus que Dame Nature a aussi son caractère propre et parfois très imprévisible…

Écoutez la chronique en podcast ici :

Les drones civils : où en sommes-nous ?

Si il y a un phénomène numérique secoué par l’actualité, c’est bien le secteur des drones civils, ces petits engins télé-pilotés pouvant ou non prendre des photos ou des vidéos aériennes. Le marché explose depuis ces deux dernières années, mais où en sommes-nous vraiment par rapport à la réglementation en vigueur. Rappelons rapidement ce que nous dit la loi. et quelle est la définition d’un drone.

D’après la règlementation de la DGAC, la direction générale de l’aviation civile, ce qu’on appelle communément drone est un aérodyne, donc un objet volant plus lourd que l’air, sans pilote embarqué, donc télécommandé, et qui emporte une charge utile. Cette charge utile peut être des appareils de prise de vue ou de mesure, ou même des armes dans le cas de drones militaires à vocation de combat ou d’appui tactique.

droneune-333848-jpg_212416
Un drone militaire armé de l’ US Air Force

Le marché mondial des drones civils est en perpétuelle augmentation, plus de 70% annuelle, il a dépassé les 100 millions d’€ en 2013. Et d’après le cabinet Xerfi chargé de l’étude, il devrait tripler d’ici 3 ans et dépasser les 300 millions d’€ d’ici fin 2015.  On voit que de plus en plus de drônes « grand public » sont lancés sur le marché sur des sites d’aéromodélisme. Cela veut-il induire que n’importe qui peut en commander un et l’utiliser librement ?

La réponse est ambiguë : Oui et non… Il faut déjà faire une distinction de taille entre la finalité de ces drones. En gros, est ce que votre appareil est équipé d’un capteur, pour prendre des photos ou des vidéos ? ou bien est-ce juste l’engin seul ? Dans ce dernier cas, il rentrera dans la catégorie de l’aéromodélisme pur et simple, et en sera soumis aux mêmes règles. En revanche, s’ il est équipé d’un dispositif de captation d’images, il ne rentre plus dans cette catégorie et la réglementation se durcit considérablement, notamment pour des raisons de droit de l’image. Prenons le cas le plus simple, où le drone est utilisé « exclusivement à des fins de loisir ou de compétition par un télépilote qui est à tout instant en mesure de contrôler directement sa trajectoire pour éviter les obstacles et les autres aéronefs« , l’engin est dit « aéromodèle« , et dispose d’un régime simplifié s’il pèse moins de 25 kg. Le pilote a tout le loisir de le faire fonctionner chez lui tout en maintenant se maitrise sans risque aux biens ou aux tiers.

Mais je vous vois venir : vous voulez faire des photos de votre maison 😉  Alors dans ce cas, il faut savoir que tout drone équipé d’un appareil photo ou d’une caméra tombe dans une autre catégorie, beaucoup plus réglementée, du fait qu’il peut être utilisé pour la surveillance ou la photographie aérienne, jugée sensible. Par ailleurs l’article D113-10 du code de l’aviation civile interdit sauf dérogations « la prise de vue aérienne par appareil photographique, cinématographique ou par tout autre capteur des zones dont la liste est fixée par arrêté interministériel« . « Il appartient au pilote et à son employeur éventuel de s’assurer, auprès des organismes (compétents), de la possibilité d’effectuer librement des prises de vues aériennes« , ajoute le code. C’est donc clair : la mise en service sauvage d’un drone pour prise d’images est formellement interdite en France.

Cependant, deux arrêtés de 2012 distinguent 4 situations types, qui détermineront les catégories, nommées Scénarios.

scénarios
Récapitulatif des conditions réglementaires selon les scénarios

Pilotage d’un drone « en vue » hors zone peuplée. Lorsque la personne qui dispose de la télécommande conserve une vue directe sur le drone, et si celui-ci ne s’éloigne pas à plus de 100 mètres du pilote sur un plan horizontal, il est possible de faire voler des drones de 25kg maximum, dans les zones qui ne comptent pas d’habitations. Il faut toutefois se limiter à une hauteur de 150 mètres, et suivre des règles complémentaires dans les zones situées à proximité d’un aéroport.

Pour le Pilotage d’un drone « hors vue directe, hors zone peuplée » Le vol est libre, en dehors des espaces aériens contrôlés ou réglementés, et à distance des aéroports, pour les drones de 25 kg maximum, à une distance horizontale maximale de 1 km, et une hauteur inférieure à 50 mètres par rapport au niveau du sol ou du point culminant des obstacles artificiels. Aucune personne ne doit se situer dans la zone survolée.  Dans cette catégorie, des autorisations particulières doivent être délivrées, notamment au regard des spécifications techniques du drone. Certains constructeurs bénéficient d’attestations de conception type, mais ce n’est pas le cas pour beaucoup des drones de loisirs, comme les fameux Parrot.

Rentrons ensuite dans le Pilotage d’un drone « à vue en zone peuplée » Sont autorisés les aérostats (plus légers que l’air) de moins de 25kg, et les drones de moins de 4 kg qui génèrent moins de 70 joules à l’impact, évoluant à moins de 150 mètres de hauteur, et 100 mètres de distance horizontale. Là aussi, il faudra s’enquérir des démarches à suivre auprès de la Direction générale de l’aviation civile (DGAC).

Et enfin pour le Pilotage d’un drone pour des activités réglementées, c’est-à-dire certaines activités particulières réalisées à l’aide de drones, nécessitent des autorisations spéciales. C’est le cas notamment pour les traitements agricoles, relevés topographiques, la surveillance aérienne, ou encore… la photographie aérienne. Dans tous les cas, une distance horizontale minimale de 30 m doit être conservée pendant tout le vol avec les personnes qui ne sont pas liées au pilotage du drone. Notez que les autorisations de prise de vues sont traitées et délivrées après dépôt d’un dossier auprès des préfectures dont dépend la mise en œuvre du drone. En gros, et selon les textes, vous n’avez théoriquement pas le droit de prendre un édifice ou des personnes vues du haut et encore moins de publier ces vidéos sur Internet, sans avoir au préalable obtenu ces autorisations par l’administration. Donc prudence car il est fort à parier que les abus seront durement sanctionnés comme exemple pour les contrevenants. Je vous invite vivement à consulter le site du ministère du développement durable consacré aux drones, site qui vous fournira les démarches à suivre pour obtenir les autorisations, qui vous indiquera les conditions et rappellera la réglementation en vigueur. L’adresse est : http://www.developpement-durable.gouv.fr/ et vous trouverez cela dans Drones-civils-loisir-aeromodelisme

Écoutez la chronique en podcast ici :

Les fichiers compressés : pourquoi et comment la compression ?

Aujourd’hui, nous allons parler compression, ou plus exactement fichiers compressés. Pourquoi la compression ? Comment compresser ? Nous allons décortiquer les choses simplement avec la première question qu’on peut se poser, peut-être pour les novices : Qu’est-ce que la compression ?

La compression de données ou codage de source est l’opération informatique consistant à transformer une suite de bits A en une suite de bits B, plus courte mais pouvant restituer les mêmes informations en utilisant un algorithme particulier. C’est une opération de codage, elle raccourcit la taille (de transmission ou de stockage) des données au prix d’un effort de compression et de décompression. La décompression est l’opération inverse de la compression.

compresion

Il y a 3 type de compression : la compression sans perte, la compression avec perte et la compression presque sans perte. Ils emploient des algorithmes différents. La compression est dite sans perte lorsqu’il n’y a aucune perte de données sur l’information d’origine. Il y a autant d’information après la compression qu’avant, elle est seulement réécrite d’une manière plus concise (c’est par exemple le cas de la compression gzip pour n’importe quel type de données ou du format PNG pour des images synthétiques destinées au Web2). La compression sans perte est dite aussi compactage. La compression avec pertes ne s’applique qu’aux données « perceptibles », en général sonores ou visuelles, qui peuvent subir une modification, parfois importante, sans que cela ne soit perceptible par un humain. La perte d’information est irréversible, il est impossible de retrouver les données d’origine après une telle compression. La compression avec perte est pour cela parfois appelée compression irréversible ou non conservative. Nous en avons parlé dans une chronique précédente consacrée aux formats des fichiers audio, que vous pouvez réécouter dans nos archives si cela vous intéresse. Enfin, les méthodes de compression sans perte significative sont un sous-ensemble des méthodes de compression avec perte, parfois distinguées de ces dernières. La compression sans perte significative peut être vue comme un intermédiaire entre la compression conservative et la compression non conservative, dans le sens où elle permet de conserver toute la signification des données d’origine, tout en éliminant une partie de leur information.

Les formats de fichier de compression sans perte sont connus grâce à l’extension ajoutée à la fin du nom de fichier (« nomdefichier.zip » par exemple), d’où leur dénomination très abrégée. Les formats les plus courants sont : 7z, ace, arc, arj qui date déjà de quelques dizaines d’année ,bz, bz2 (tar peut être utilisé pour créer les archives de ce type notamment sous Mac OSX), cab utilisé par Microsoft comme les mises à jour de windows, gzip pour les bases données, gz (qui est un fichier à une seule entrée, tar peut être utilisé pour créer les archives de ce type), lzh, rar qui est assez connu, RK, uha, xz, Z (surtout sous Unix), zip, zoo, APE ou FLAC pour les flux audio.
Bien qu’il soit possible de le faire, ce n’est pas dans l’intérêt de l’utilisateur de compresser fichier par fichier. Les logiciels sont capables de regrouper et de compresser plusieurs fichiers ou même des répertoires ou des sous-dossiers, en même temps et dans un seul et même fichier dit d’archive. C’est le fameux fichier compressé. Et lors de sa décompression, on retrouvera les différents fichiers à l’identique tels qu’ils étaient avant la procédure.

Abordons maintenant ce qu’on appelle le taux de compression. Et bien en réalité, l’efficacité de compression va dépendre de la nature des fichiers que vous compressez. Le taux de compression est relié au rapport entre la taille du fichier comprimé et la taille du fichier initial . Le taux de compression est généralement exprimé en pourcentage. Un taux de 50 % signifie que la taille du fichier comprimé est la moitié de . La formule pour calculer ce taux est : .\tau=1-(b/a)  L’algorithme utilisé pour transformer en est destiné à obtenir un résultat de taille inférieure à . Il peut paradoxalement produire parfois un résultat de taille supérieure : dans le cas des compressions sans pertes, il existe toujours des données incompressibles, pour lesquelles le flux compressé est de taille supérieure ou égale au flux d’origine.

Question logiciels, vous en avez des payants sous licence comme WinRar ou WinZip pour les plus connus, mais aussi des gratuits comme Quickzip, ou encore Izarc ou 7-zip qui permettent simplifier les opérations basiques, et qui fonctionnent très bien. Il faut juste s’assurer de leur compatibilité selon vos différents systèmes d’exploitation. Et pour les adeptes de l’humour technologique, vous avez NABOB, qui est une parodie d’outil de compression permettant de ramener n’importe quel volume de données à un seul octet ; et bien entendu, il ne permet pas de décompresser, mais en revanche il compresse très bien 😉

Ecoutez la chronique en podcast ici :
Openrunner pour les sportifs en plein air

Openrunner : le planificateur de parcours multi-activités

Aujourd’hui, nous allons parler d’ un site internet qui retiendra probablement l’attention de nos amis sportifs en plein air. Il s’agit du site Openrunner, site français qui connait un vif succès.

Openrunner est un site 100% français, qui a été créé en 2006 par Eric Thouvenin, un informaticien savoyard. Il se référence comme un planificateur de parcours multi-activités. En d’autres termes, vous avez accès à une cartographie en ligne, via les cartes IGN, et une interface vous permet de tracer virtuellement par des points de passage un parcours de randonnées, de VTT, de vélo… sur un chemin ou sur une route, de calculer précisément sa longueur, son dénivelé, et même d’exporter ce tracé en points GPS, de le partager, de le rendre accessible à ses contacts, etc…

L’origine de ce projet remonte à 2003. Eric Thouvenin, 38 ans, pratiquant le triathlon, décide de relier sa région des rives du lac d’Annecy à la Côte d’Azur, en passant par tous les cols des Alpes… Il prépare donc son parcours avec les quelques outils disponibles à cette époque sur le net… autrement dit, pas beaucoup… Chemin faisant, il comprend, dans la douleur, qu’il n’a pas appréhendée à sa juste valeur les profils de ses étapes. Cette prise de conscience l’amène à développer la V1 d’Openrunner en 2006 grâce notamment aux premières API de Google Maps. Cela tombe bien car, développeur de profession, il décide de laisser son emploi au sein d’un groupe bancaire, pour se lancer dans l’aventure de entrepreneuriat. La V2 est ensuite mise en ligne et marque une nouvelle étape puisque ce ne sont pas moins de 70000 comptes qui sont ouverts et plus de 600 000 parcours programmés. Openrunner est devenu alors une référence partagée à la fois par les coureurs et les cyclistes.

Faisons un rapide tour du propriétaire du site Openrunner… Lorsque vous arrivez sur la page d’accueil, un menu vous propose les fonctions principales : Plannifier un parcours, rechercher un parcours existant, une rubrique d’aide et d’info, et bien sur la possibilité de se créer un compte utilisateur ou de s’y connecter. Cette option est presque indispensable puisque de nombreuses fonctionnalités ne sont accessibles qu’en ayant créé un compte personnel. On vous donne aussi l’actualité de quelques sites sportifs partenaires de Openrunner, ainsi que quelques statistiques. Lorsque vous vous êtes enregistrés et connectés, place au premier tracé de votre parcours. Un fond de carte se charge à l’écran. Il est entouré de barres d’outils assez compréhensibles et le cas échant, une description popup s’affiche en survolant la fonction qui vous intéresse. D’abord, centrez votre carte sur votre point de départ en tapant l’adresse dans le champ prévu à cet effet et grâce aux point de parcours, vous pouvez déplacer, zoomer, placer des points sur les routes et chemins que vous souhaitez emprunter. Votre point de départ est vert, et un carré rouge représente l’arrivée. Vous remarquez qu’une ligne droite relie ces deux points. Il vous faudra cliquer sur la fonction « Suivre automatiquement la route » pour avoir une idée précise de la distance par la route et vous voyez votre tracé qui suit maintenant les routes sélectionnées.

parcours sur openrunner
Un tracé est matérialisé par le suivi rouge et les marques kilométriques

Vous pouvez sauvegarder  vos tracés en nommant et sauvegardant votre parcours sur votre compte. Vous pourrez le rééditer mais aussi le personnaliser, insérer des descriptions, le partager, le rendre public ou non à la recherche, etc… Vous pouvez déterminer aussi si il est un profil véhicule, vélo ou piéton puisque les chemin empruntés ne seront pas les mêmes… Vous pouvez bien sur imprimer les fond de carte (en respectant les droits d’auteurs et de diffusion) et encore mieux : vous pouvez visualiser le profil complet de votre tracé sous forme de tranche, et ainsi mieux en apprécier sa difficulté grâce aux pourcentages de pente qui s’affichent.

 

Rendu d'un parcours sous forme de profil en déclinivité
Rendu d’un parcours sous forme de profil en déclinivité

Vous pourrez aussi exporter ce tracé sous forme de fichier de points GPS, sous plusieurs formats, et ainsi les implanter dans un autre GPS afin de vous assister au cours de votre sortie, ou même les importer sur Google Earth si vous le souhaitez.. Un moteur de recherche assez puissant vous permet aussi de trouver des profils selon des critères de sélection assez précis. Et les webmasters, les clubs etc… peuvent implanter leur parcours et leur profil sur leur site personnel via une petite application dédiée.

OpenRunner est entièrement gratuit. Cependant, il faudra respecter les droits d’auteur en terme de publication si on veut exploiter un tracé. LA création du compte est également gratuite, le site se finançant surtout par les encarts publicitaires, la location de sa base de donnée des emails, et par de l’affiliation sous forme de bannières publicitaires. A noter qu’une rubrique d’aide et qu’une FAQ bien pratique sont présentes pour vous assister en cas de besoin. Il existe même des tutoriels expliquant clairement comment utiliser le site.

Alors rendez-vous sur www.openrunner.com / et n’hésitez pas à le tester : l’essayer, c’est l’adopter…

Ecoutez la chronique en podcast ici :
Senior sur le web

Internet pour les séniors : quelles solutions ?

Avec la démocratisation du tout-numérique et le déploiement de l’ADSL en France, il est aujourd’hui handicapant de ne pas avoir accès au web. C’est notamment le cas des Senior, qui n’ont pour plupart jamais été initiés à l’informatique. Pourtant des solutions existent précisément dans ce cas. Mais quelles sont les solutions qui constituent une porte d’entrée au web ?

Les Séniors sont démographiquement de plus en plus nombreux et donc commencent à être des cibles prioritaires, et ceci est d’autant plus vrai sur le net. De plus, bien des services modernes nécessitent parfois une connexion Internet, comme dans les finances, ses services bancaires, les administrations comme les impôts, le service minitel qui n’existe plus, etc… beaucoup de choses sont désormais presque exclusivement accessible via Internet. Le besoin est donc bien présent, y compris pour des personnes qui n’ont jamais utilisées un ordinateur, car ce sont elles qui sont le plus handicapées en réalité.

Pour initier une personne parfois réfractaire aux nouvelles technologies, il convient de rassurer, et expliquer. Souvent l’origine des peurs est l’ignorance totale de ces technologies, des craintes issues souvent des ragots médiatiques, comme les virus ou les piratages, etc… Il faut bien dire que, compte tenu du volume des données qui circulent sur la toile et le nombre d’internaute dans monde, ces risques sont tout de même plutôt réduits pour l’utilisateur lambda. De plus, l’apprentissage de l’outil informatique est désormais possible, et même conseillé car il peut offrir une nouvelle perspective, voire une nouvelle vie à une personne. Quelqu’un qui se prélassait passivement devant sa télévision peut devenir actif derrière un clavier, apprendre et stimuler sa mémoire et ses facultés de logique, de raisonnement, etc…

Les séniors ont pourtant tout intérêt à s’y mettre, car Internet va , et c’est surement là le plus important, leur permettre de garder contact. Avec sa famille dans un premier temps quelque-soit sa position géographique dans le monde. Prenons l’exemple de petits-enfants qui font des études à l’étranger : et bien les grand parents peuvent ainsi non seulement dialoguer gratuitement avec eux régulièrement via des services comme skype, mais aussi les voir en appel vidéo, tout cela facilement et gratuitement. Un autre exemple : une naissance. On peut désormais voir le nouveau-né et suivre sa croissance, son évolution, même si la distance est importante… Internet va aussi éviter des aller/retour à la Poste : plus besoin d’enveloppe à timbre : un email suffira et sera, encore une fois, gratuit. On voit aussi que beaucoup de Séniors élargissent leur cercles de contacts comme dans les milieux associatifs, grâce à Internet : le net favorise, contrairement à ce qu’on pourrait croire, les interactions sociales entre groupes d’individus par la proximité, comprenez ici la possibilité de les mettre plus facilement en contact. Il est bien plus facile d’aborder quelqu’un sur Internet depuis chez soi, que d’aller lui parler « en vrai » pour la première fois. On casse des barrières !

visioconférence sous skype
Skype est un logiciel de communication audio/vidéo gratuit

On voit que les cours d’apprentissage à l’’informatique pour Sénior ont tendance à être demandés. La plupart des Séniors qui commencent de maitriser l’ordinateur, a pour objectif de se connecter au web, notamment pour toutes les raisons que je vous ai expliquée précédemment. C’est une forte motivation. Et d’ailleurs quand les résultats sont là, cela encourage à continuer et même fédère parfois l’entourage.

Il existe d’ors-et-déjà des outils qui permettront de mieux appréhender le monde de l’Internet. On peut déjà parler des périphériques mobiles, comme les tablettes, de par leur facilité de manipulation. Les deux hics principaux étant la précision du geste à appréhender et ça, ce n ‘est pas toujours aisé et bien sur l’affichage très petit qui est souvent un obstacle. Reste alors la solution des environnements dédié Sénior. Je pense par exemple à Handy Linux, qui propose de manière épurée et avec la stabilité et la sureté qu’on lui connait, une solution spécialement adaptée pour les débutants et les Seniors. Les principales fonctions sont regroupées sous forme de tableaux et de raccourcis, qui évitent toutes les fausses manipulations ou les plantages intempestifs qui peuvent bloquer des gens non-aguerris.

Handy Linux
Handylinux est une solution très adaptée pour les Séniors novices en informatique

Les résultats seront  basés sur votre motivation avant tout. Je vais vous donner un exemple concret que moi-même j’ai pu constater : Ma grand-mère, octogénaire, s’est mise début janvier à l’informatique, via justement la solution Handy Linux que je lui ai installée. Nous sommes en avril et, après bien sur quelques cours d’initiation très abordables, elle est désormais capable d’envoyer et de lire ses emails, d’appeler quelqu’un en vidéo conférence par skype et ainsi voir son arrière-petite fille, mais aussi écouter de la musique sur son ordinateur, faire des recherches sur Google, consulter des recettes en ligne, etc… Cela lui a changé la vie et elle-même, déclare que cela lui a changé le regard qu’elle portait sur le numérique jusqu’à présent. Elle suit même désormais cette chronique !

Pour obtenir des informations plus précises, tarifaires, etc… vous pouvez demander des renseignements à vos informaticiens de proximité, car ce service est assez peu répandu dans les grandes surfaces. Et sachant que vous aurez toujours quelqu’un de votre entourage qui pourra vous dépanner ou répondre à vos questions en cas de besoin.

Ecoutez la chronique en podcast ici :