Archive for the
‘Logiciels’ Category

Si il existe une impression de longévité en informatique, c’est bien le cas des simulateurs de vol. Ils ont pour moi toujours existé, depuis même les balbutiements de l’informatique. Je me souviens encore de mon premier Flight Simulator II sur Commodore 64, dans les années 80.

Flight Simulator 2 - 1982
Flight Simulator 2 – 1982

Avec l’avancée
des technologies et la foudroyance de l’évolution digitale, on
arrive aujourd’hui à des simulations presque parfaites. J’en ai
encore aujourd’hui la démonstration presque tous les jours dans
mon nouveau métier d’instructeur professionnel, même si des
progrès en la matière restent encore à venir, et heureusement.

Un peu d’histoire de simulation…

Prenons les choses par leur commencement : Flight Simulator, logiciel de simulation de pilotage, a germé dans la tête de Bruce Artwick à partir de 1977 et sorti en 1979, édité par SubLOGIC, sa société. Il a été ensuite revendu à Microsoft qui continua le développement sous l’impulsion personnelle de Bill Gates, qui souhaitait conserver des logiciels ludiques en plus du coté business qu’on lui connaît, et ceci pas moins de trois années avant la sortie du premier OS Microsoft Windows. Il servit aussi de pilier dans le développement 3D pour des besoins de réalisme et c’est à lui qu’on doit les principales structures des moteurs 3D actuels pour l’accélération matérielle graphique. Microsoft repris ensuite le flambeau en améliorant les modèles, ajoutant des avions, des options de gestion météo, des précisions dans la représentation de l’environnement au niveau mondial avec plus de 20000 aéroports, les villes et cours d’eau, le relief avec des rendus quasi photographiques. Les dernière versions sorties l’ont été sous les noms de MS Flight Simulator 2004 et X avec des versions Standard, Deluxe et Professionnelle, auxquelles on peut trouver des addons complémentaires (zones géographiques, aéroports, scénarios…) conçus par des particuliers ou des éditeurs commerciaux divers. Flight Simulator a été ensuite stoppé par Microsoft, et le code source cédé pour Prepar3D, édité par la société 3D de Loockeed Martin. D’autres logiciels plus ludiques sont aussi sortis par d’autres éditeurs, comme X planes, Flightgear, Flight Unlimited… La possibilité de proposer un univers autour de l’aviation et du vol virtuel, bien que complexe, ravi un bon nombre de passionnés tout autour du globe, le tout étant accentué avec l’avénement d’internet.

Quelle application en pratique ?

Concernant les interfaces, il faut remonter au début des années 1910 pour trouver les premiers entraineurs de vol, puis l’évolution de l’aviation les orientera vers des modèles analogiques pour l’entrainement des pilotes. A la rencontre du numérique et de l’analogique, des constructeurs développèrent alors un ensemble permettant à la fois de proposer une interface fidèle pour le contrôle de l’avion, et son modèle de vol informatique pour le calcul. Mais comment cela fonctionne-t-il ?

En couplant du
hardware (la cabine) avec le software (le logiciel contenant le
modèle de vol et l’environnement), il a fallu standardiser les
langages entre ces machines. L’utilisation des interfaces IN/OUT
(Entrées / Sorties) permet d’envoyer des signaux d’entrées
concernant la positions des commandes et des équipements commandés
par le pilote, et des résultats de calcul en sortie, qui permettront
de modéliser l’attitude et les évolutions de l’avion, mais
aussi la vitesse calculée de celui-ci, son altitude, etc. avec le
retour sur les instruments d’affichage dans le cockpit, ainsi que
les retours de force aux commandes. L’environnement 3D sera projeté
quant à lui via des écrans ou des projecteur tout autour de la
cabine, ainsi que le son pour un rendu plus immersif. Les simulateurs
FNTP actuels utilisés en compagnie aérienne, sont même montés sur
verrins hydrauliques qui permettent de mouvements de la plateforme de
6°.

Simulateur FullFlight
Simulateur FullFlight

Les coût de
fabrication de ce genre d’équipement est énorme, nécessite une
maintenance régulière, mais a le mérite de pouvoir simuler toute
situation non reproductible en vol. Il serait par exemple et on
l’imagine bien, difficile de simuler une panne de deux réacteurs
sur un avion de ligne avec des passagers à bord. C’est là où
l’application pédagogique des simulateurs prend tout son sens.

Les simulateurs
utilisés aujourd’hui dans la formation des pilotes sont de gros
systèmes, qui doivent être certifiés par les autorités
aéronautiques avant d’être exploités dans les programme de
formation.

Sont pris en compte des notions de fiabilité, de réalisme, de rendus, et de standards en comparaison avec les vrais avions sur lesquels les pilotes se destinent. Ceci permet aussi de réduire de le nombre d’heures de vol réelles en conservant la même courbe de progression pédagogique, pour ensuite appliquer en situation concrète de vol. La majorité des écoles de pilotage proposent aujourd’hui une partie de leur programme de formation en séance sur simulateur, notamment pour le VSV (vol sans visibilité), l’IR (vol aux instruments avec météo dégradée), ou encore le traitement de différentes pannes, comme on le ferait en réalité. Un exemple avec les simulateurs AL42 ou ALX du constructeur ALSIM sur lesquels j’ai été formé. L’AL42 réplique la cabine du Diamond DA42, bimoteur léger exploité en VFR et IFR en monopilote, et l’ALX est modulaire, permet de simuler des modèles de vol du monomoteur classique, ou JOC (Jet Oriented Course) pour des formations sur un modèle de vol proche des avions de ligne à réaction type B737 ou A320, notamment pour les qualifications de pilotage en équipage et le CRM Cockpit Ressource Management.

Comment sont structurés ces simulateurs ?

Ils sont
architecturés autour d’une console principale qui fait tourner le
modèle de vol et celui de l’environnement 3D : l’instructeur
aura une console dédiée qui va lui permettre d’interférer avec
l’évolution de la météo, du vent, des conditions de vol, mais
aussi des systèmes internes comme les pannes, les
dysfonctionnements, le trafic… Il manque encore aujourd’hui la
possibilité, par manque aussi de ressources, de matérialiser la
météo réelle du jour directement partout autour du globe, ou
encore incorporer le trafic aérien réel directement dans
l’interface.

On va aussi trouver plusieurs modules qui vont être reliés à des écrans qui afficheront des instruments particuliers, d’autres qui auront en charge la gestion du retour d’effort… Enfin il reste l’affichage avec 3 projecteurs branchés sur chacun une console de visualisation. Tout ce matériel est connecté en réseau Wake-on-Lan, permettant de démarrer ou de couper toutes les consoles et projecteurs à partir d’une seule en Master. Ce sont donc quasi une dizaine d’ordinateurs différents qui travaillent en même temps et qui sont synchronisés. Une ligne internet haut débit est aussi dédiée à la maintenance à distance par VPN en cas de besoin, et pour les mises à jour.

Schéma global d’un système Homme / Machine pour le rendu de la simulation

Les modèles de vol
qui sont réalisés aujourd’hui sont très fidèles à la vraie
vie, et le pilote qui prend l’habitude de les utiliser ne sera pas
perdu quand il arrivera dans l’avion, puisque l’ergonomie et les
réactions seront les mêmes. Ces simulateurs permettent à la fois
de réaliser des séances quand ce n’est pas possible à cause de
la météo réelle, ou encore de dégrader la météo virtuelle pour
voler dans la couche de nuages quand il fait une tempête de ciel
bleu dehors. On peut aussi pousser le décisionnel des élèves, à
savoir pousser une situation dégradée là où cela pourrait
représenter un danger dans une situation réelle, et donc travailler
en situation de stress pour appréhender les baisses de performance
des pilotes dans cet état.

Simulateur d’avion de ligne grand public

Pour finir, des sociétés privées proposent aujourd’hui au grand public des vols découverte à bord d’avions de ligne virtuels aux cockpit réalistes pour les immerger dans les antres du métier. On en trouve un peu partout en France. Je vous invite à vous essayer à cela, ou bien de passer sur le centre de Nîmes si vous désirez visiter nos installations à l’occasion et le simulateur de DA 42.

Du business à la météo, la naissance de Windy TV

Comme son nom l’indique, Windy TV est une plateforme en ligne dédiée à l’affichage des vents et des principales observations météorologiques courantes. On peut se demander le pourquoi d’un énième site météo, puisque des entités nationales sont déjà aux commandes de tels outils, comma par exemple Météo France qui a la charge de traiter, modéliser puis de fournir des informations dans l’hexagone, en direction de ses utilisateurs (aviation, marine, professionnels…) et des médias. Une des réponses tient tout simplement en l’ergonomie et la convivialité d’utilisation de Windy TV dans son interface et sa lisibilité. : tout est fluide, dynamique, réactualisé, simple et intuitif !

Cette idée est née initialement pour les besoins d’une société qui fabriquait des éoliennes en Australie. Un besoin naturel d’avoir les dernières prévisions était nécessaire aussi bien pour l’installation des appareils que pour leur exploitation. Cette société a donc fait appel au développeur tchèque Ondřej Procházka, également pratiquant du vol libre en parapente, afin de trouver un moyen permettant de s’appuyer sur les données collectées auprès des différents organismes météorologiques, et qui permettraient de fournir une vision globale rapide de la situation à un endroit donné sur le globe. C’est ainsi qu’est née le site de Windy TV, décliné ensuite en application sous beaucoup de standards (IOS, Android, Windows…)

L’interface du site de Windy TV

L’interface de Windy TV est poussée à son plus simple appareil : donner une vision rapide, en un clin d’œil.  Elle centre via la géolocalisation de sa connexion internet sur la zone dans laquelle l’utilisateur se trouve, et charge les observations en cours.

En haut à gauche, on peut trouver un encart qui concerne la tendance à venir dans les prochaines 72 heures, au nouveau de la prévision générale du temps, des précipitations, de la température, de la force du vent… On trouve aussi une barre de recherche pratique pour aller se centrer sur un point géographique particulier.

L’interface de Windy TV

Sur la droite, de haut en bas, on trouve l’échelle des options qui permet de naviguer dans les différents modes d’affichage, celui par défaut étant les vents en surface et leur gradient, représentés par des couleurs nuancées. Mais on pourra aussi aller afficher les précipitations, les pressions, les températures, la couverture nuageuse, les isothermes… et même les vagues pour nos amis véliplanchistes, surfer ou Kitesurfer… D’autres options d’affichages permettent de proposer des légendes supplémentaires sur les cartes, comme l’emplacement des aéroports, des emplacements de parapentes ou de planche à voile…

Enfin dans la partie inférieure, on trouve une frise d’animation qui permettra de déclencher la lecture de l’évolution prévue par succession d’images animées successives, et plutôt intéressantes pour procéder à ses propres prévisions.

Comment sont établies les prévisions ?

3 modèles sont compilés dans Windy TV, et permettent justement d’affiner les prévisions en allant chercher le modèle qui conviendrait le mieux à ses attentes.

  • On trouvera le traditionnel GSF (Global Forecast System) américain utilisé par le National Service Weather, l’équivalent du Météo France aux Etats-Unis. Il se base sur des images satellitaires d’observation dans le visible et l’infrarouge et permet de descendre à des résolutions de l’ordre de la vingtaine de kilomètres en précision.
  • Le modèle européen est celui de L’European Centre for Medium-Range Weather Forecasts (ECMWF) et dispose, grâce à une coopération étatique, d’une résolution moyenne de 9 kilomètres sur l’ensemble de l’Europe.
  • Le troisième modèle à disposition est le NEMS, le modèle européen basé sur les suisses de Météoblue. ce modèle est, excusez du peu, du modèle le plus précis, avec une résolution pouvant descendre à 4 kilomètres sur l’Europe de l’ouest avec ses satellites géostationnaires.

Conclusion pratique

Grâce à l’ensemble de ces données, l’utilisateur peut donc avoir accès à une grande partie des informations météo dans l’instant et donc commencer à se faire ses propres projections en fonction de ses besoins (sous réserve de disposer d’un minimum de connaissances en météorologie). Les niveaux de détail et de mesure sont suffisants aussi pour visualiser des phénomènes caractéristiques météorologiques sur toute la surface de la planète, comme l’évolution des anticyclones selon les saisons, les évolutions de la zone de convergence intertropicale (ZCIT), des différents jets stream, courant de haute altitude, si on joue un peu avec les couches supérieures de la troposphère.On peut aussi aller observer des phénomènes cycloniques ou ouragantesques, comme ceux qui ont frappé les Antilles en septembre 2017, nettement visibles sur les cartes (voir ci-dessous).

Windy TV est donc un outil simple et accessible à tous, et vous permettra de voyager sur la planète directement depuis vos écrans ou depuis vos smartphones, et de jouer les météorologistes pour vous et vos proches, de manière rapide. C’est aussi un outil très pratique pour travailler sa géographie, et comprendre un peu mieux la circulation générale des vents et des courants autour de la Terre. Je vous encourage à aller visiter ces sites, très riches en enseignements et qui vous permettront sans doute de mieux appréhender la météo dans son ensemble. Je profite aussi de cet article pour remercier ma référente météo en la matière, Hélène.C, qui de part son enseignement, son expertise et sa pédagogie, a su m’apporter une vision globale en la matière.

Carte interactive intégrée depuis le site :

Place aux sportifs aujourd’hui, puisque nous allons parler de l’ outil STRAVA, qui leur est dédié.

Strava est un site internet et une application qui permet aux sportifs pratiquant des sports de fond tels que le cyclisme, le jogging, le trail, la natation, etc…   de pouvoir suivre leur activités et de comparer leur résultats avec leur amis. Cette application créée en 2012 est américaine, la marque STRAVA tient ses quartiers à San Francisco en Californie. Comme beaucoup de sites du même type, elle propose un service basique gratuit, et un service premium qui comprend plus de fonctionnalités et plus d’options à disposition de ses membres. Son succès est important notamment par le fait que les utilisateurs sont à la fois des amateurs, mais aussi des professionnels qui « partagent » leur performance en ligne, et ainsi entretiennent l’esprit de challenge.

Le concept est très simple. Vous vous créez un compte. C’est gratuit. Vous installez l’application (gratuite elle-aussi) sur votre téléphone intelligent ou sur un Garmin. La fonction GPS est nécessaire. Une fois cela fait, vous allez rouler, en n’oubliant pas de partir votre GPS qui enregistrera donc votre parcours et d’autres données. Une fois rentré chez vous, vous téléchargez le tout sur le site de Strava et le partagez avec les petits copains que vous aurez rejoint en créant ainsi votre communauté, qui peut aussi être composée des membres de votre équipe cycliste par exemple, ou de vos partenaires de club ou d’entrainement…

strava-home

Compatible pour smartphones, gps, et sur le site internet de l’application…

Avec Strava, presque plus besoin d’organiser des compétitions: c’est la compétition qui vient à vous et ce, où et quand vous le désirez. Strava vous mets en compétition avec les autres sur certains tronçons sélectionnés, habituellement les bosses de votre secteur. Évidemment, le petit jeu est d‘établir le meilleur temps du dit-tronçon, et ainsi avoir le titre convoité de KOM, ou “King of the Mountain”. Mais attention, un titre de KOM peut être très éphémère! Vos petits copains voudront vous reprendre rapidement le titre convoité et iront probablement se faire péter les varices, question de vous battre, ne serait-ce que d’une petite seconde. Rapidement donc, vos sorties d’entrainement pourront se transformer en des séances très spécifiques dont l’unique but sera de tenter de réaliser le meilleur temps sur un tronçon bien particulier près de chez vous.

Nous entrons dans le cyclisme 2.0 !!! Strava est parfois présenté comme le “réseau social des cyclistes”. Un surnom qui résume à merveille les fonctionnalités de cet outil. Pour faire simple, Strava permet de collecter des données GPS et ainsi de suivre l’évolution de ses performances. Quand un cycliste va s’entraîner, il lance l’application qui enregistre notamment son parcours, sa vitesse et la distance parcourue. Et c’est là où STRAVA se démarque des autre système classique : c’est que le cycliste peut ensuite mettre en ligne ses performances de son choix. D’où l’étiquette de réseau social, puisque ces performances sont vues par l’ensemble des personnes qui “suivent” (le système est comparable à celui de Twitter) le compte Strava du coureur. L’autre point fort de Strava, c’est que chacun peut créer des “segments”. À savoir un tronçon de parcours, plus ou moins long, que l’utilisateur décide de “baliser”. Une fois le segment créé, tous les passages d’utilisateurs seront enregistrés. Très utile pour comparer ses performances sur une portion de route où l’on se sent à l’aise. C’est également une façon de repousser ses limites : si l’on a tendance parfois à relâcher ses efforts quand on roule sans repères chronométriques, le fait d’avoir des performances déjà établies permet d’aider à repousser ses limites.

Stravakom

Exemple de référencement des KOM sur des segments donnés…

On peut se demander quel est le profil type d’un utilisateur de Strava ! Difficile d’en dégager un, tant les disparités sont fortes entre les membres de la “communauté”. L’utilisateur le plus célèbre de l’application est ainsi Lance Armstrong, qui a longtemps battu le record de nombreux segments sous un pseudo et continue de le faire, désormais sous son vrai nom. Des cyclistes professionnels toujours en activité sont également très actifs sur Strava à l’image du Français Thibaut Pinot, Alexandre Geniez de l’équipe PDJ, Romain Bardet chez AG2R La Mondiale, mais aussi de Laurens Ten Dam, Jan Baeklands chez Omega Pharma Quickstep, Lars Boom de chez Belkin ou encore le célèbre sprinter Mark Cavendish. Derrière ces têtes d’affiche, on trouve une multitude d’inconnus. Là encore, les profils sont variés, allant du coureur amateur de très bon niveau jusqu’au cycliste occasionnel. Malgré l’écart de niveau entre chacun, tous peuvent rêver à un titre de King of the Mountain (Roi de la Montagne, en VF), qui récompense la personne qui détient le meilleur temps sur un segment, de préférence une côte. On leur conseillera évidemment d’éviter de viser le record de l’Alpe d’Huez, deuxième segment le plus couru au monde et numéro 1 en France.

L’application est téléchargeable gratuitement sur les boutiques des différents terminaux (IOS, Androïd, etc) et le site internet sur l’adresse suivante : www.strava.com

 


Ecoutez le podcast en audio :

Aujourd’hui, nous allons parler compression, ou plus exactement fichiers compressés. Pourquoi la compression ? Comment compresser ? Nous allons décortiquer les choses simplement avec la première question qu’on peut se poser, peut-être pour les novices : Qu’est-ce que la compression ?

La compression de données ou codage de source est l’opération informatique consistant à transformer une suite de bits A en une suite de bits B, plus courte mais pouvant restituer les mêmes informations en utilisant un algorithme particulier. C’est une opération de codage, elle raccourcit la taille (de transmission ou de stockage) des données au prix d’un effort de compression et de décompression. La décompression est l’opération inverse de la compression.

compresion

Il y a 3 type de compression : la compression sans perte, la compression avec perte et la compression presque sans perte. Ils emploient des algorithmes différents. La compression est dite sans perte lorsqu’il n’y a aucune perte de données sur l’information d’origine. Il y a autant d’information après la compression qu’avant, elle est seulement réécrite d’une manière plus concise (c’est par exemple le cas de la compression gzip pour n’importe quel type de données ou du format PNG pour des images synthétiques destinées au Web2). La compression sans perte est dite aussi compactage. La compression avec pertes ne s’applique qu’aux données « perceptibles », en général sonores ou visuelles, qui peuvent subir une modification, parfois importante, sans que cela ne soit perceptible par un humain. La perte d’information est irréversible, il est impossible de retrouver les données d’origine après une telle compression. La compression avec perte est pour cela parfois appelée compression irréversible ou non conservative. Nous en avons parlé dans une chronique précédente consacrée aux formats des fichiers audio, que vous pouvez réécouter dans nos archives si cela vous intéresse. Enfin, les méthodes de compression sans perte significative sont un sous-ensemble des méthodes de compression avec perte, parfois distinguées de ces dernières. La compression sans perte significative peut être vue comme un intermédiaire entre la compression conservative et la compression non conservative, dans le sens où elle permet de conserver toute la signification des données d’origine, tout en éliminant une partie de leur information.

Les formats de fichier de compression sans perte sont connus grâce à l’extension ajoutée à la fin du nom de fichier (« nomdefichier.zip » par exemple), d’où leur dénomination très abrégée. Les formats les plus courants sont : 7z, ace, arc, arj qui date déjà de quelques dizaines d’année ,bz, bz2 (tar peut être utilisé pour créer les archives de ce type notamment sous Mac OSX), cab utilisé par Microsoft comme les mises à jour de windows, gzip pour les bases données, gz (qui est un fichier à une seule entrée, tar peut être utilisé pour créer les archives de ce type), lzh, rar qui est assez connu, RK, uha, xz, Z (surtout sous Unix), zip, zoo, APE ou FLAC pour les flux audio.
Bien qu’il soit possible de le faire, ce n’est pas dans l’intérêt de l’utilisateur de compresser fichier par fichier. Les logiciels sont capables de regrouper et de compresser plusieurs fichiers ou même des répertoires ou des sous-dossiers, en même temps et dans un seul et même fichier dit d’archive. C’est le fameux fichier compressé. Et lors de sa décompression, on retrouvera les différents fichiers à l’identique tels qu’ils étaient avant la procédure.

Abordons maintenant ce qu’on appelle le taux de compression. Et bien en réalité, l’efficacité de compression va dépendre de la nature des fichiers que vous compressez. Le taux de compression est relié au rapport entre la taille du fichier comprimé et la taille du fichier initial . Le taux de compression est généralement exprimé en pourcentage. Un taux de 50 % signifie que la taille du fichier comprimé est la moitié de . La formule pour calculer ce taux est : .\tau=1-(b/a)  L’algorithme utilisé pour transformer en est destiné à obtenir un résultat de taille inférieure à . Il peut paradoxalement produire parfois un résultat de taille supérieure : dans le cas des compressions sans pertes, il existe toujours des données incompressibles, pour lesquelles le flux compressé est de taille supérieure ou égale au flux d’origine.

Question logiciels, vous en avez des payants sous licence comme WinRar ou WinZip pour les plus connus, mais aussi des gratuits comme Quickzip, ou encore Izarc ou 7-zip qui permettent simplifier les opérations basiques, et qui fonctionnent très bien. Il faut juste s’assurer de leur compatibilité selon vos différents systèmes d’exploitation. Et pour les adeptes de l’humour technologique, vous avez NABOB, qui est une parodie d’outil de compression permettant de ramener n’importe quel volume de données à un seul octet ; et bien entendu, il ne permet pas de décompresser, mais en revanche il compresse très bien 😉


Ecoutez le podcast en audio :

Avec la démocratisation du tout-numérique et le déploiement de l’ADSL en France, il est aujourd’hui handicapant de ne pas avoir accès au web. C’est notamment le cas des Senior, qui n’ont pour plupart jamais été initiés à l’informatique. Pourtant des solutions existent précisément dans ce cas. Mais quelles sont les solutions qui constituent une porte d’entrée au web ?

Les Séniors sont démographiquement de plus en plus nombreux et donc commencent à être des cibles prioritaires, et ceci est d’autant plus vrai sur le net. De plus, bien des services modernes nécessitent parfois une connexion Internet, comme dans les finances, ses services bancaires, les administrations comme les impôts, le service minitel qui n’existe plus, etc… beaucoup de choses sont désormais presque exclusivement accessible via Internet. Le besoin est donc bien présent, y compris pour des personnes qui n’ont jamais utilisées un ordinateur, car ce sont elles qui sont le plus handicapées en réalité.

Pour initier une personne parfois réfractaire aux nouvelles technologies, il convient de rassurer, et expliquer. Souvent l’origine des peurs est l’ignorance totale de ces technologies, des craintes issues souvent des ragots médiatiques, comme les virus ou les piratages, etc… Il faut bien dire que, compte tenu du volume des données qui circulent sur la toile et le nombre d’internaute dans monde, ces risques sont tout de même plutôt réduits pour l’utilisateur lambda. De plus, l’apprentissage de l’outil informatique est désormais possible, et même conseillé car il peut offrir une nouvelle perspective, voire une nouvelle vie à une personne. Quelqu’un qui se prélassait passivement devant sa télévision peut devenir actif derrière un clavier, apprendre et stimuler sa mémoire et ses facultés de logique, de raisonnement, etc…

Les séniors ont pourtant tout intérêt à s’y mettre, car Internet va , et c’est surement là le plus important, leur permettre de garder contact. Avec sa famille dans un premier temps quelque-soit sa position géographique dans le monde. Prenons l’exemple de petits-enfants qui font des études à l’étranger : et bien les grand parents peuvent ainsi non seulement dialoguer gratuitement avec eux régulièrement via des services comme skype, mais aussi les voir en appel vidéo, tout cela facilement et gratuitement. Un autre exemple : une naissance. On peut désormais voir le nouveau-né et suivre sa croissance, son évolution, même si la distance est importante… Internet va aussi éviter des aller/retour à la Poste : plus besoin d’enveloppe à timbre : un email suffira et sera, encore une fois, gratuit. On voit aussi que beaucoup de Séniors élargissent leur cercles de contacts comme dans les milieux associatifs, grâce à Internet : le net favorise, contrairement à ce qu’on pourrait croire, les interactions sociales entre groupes d’individus par la proximité, comprenez ici la possibilité de les mettre plus facilement en contact. Il est bien plus facile d’aborder quelqu’un sur Internet depuis chez soi, que d’aller lui parler « en vrai » pour la première fois. On casse des barrières !

visioconférence sous skype

Skype est un logiciel de communication audio/vidéo gratuit

On voit que les cours d’apprentissage à l’’informatique pour Sénior ont tendance à être demandés. La plupart des Séniors qui commencent de maitriser l’ordinateur, a pour objectif de se connecter au web, notamment pour toutes les raisons que je vous ai expliquée précédemment. C’est une forte motivation. Et d’ailleurs quand les résultats sont là, cela encourage à continuer et même fédère parfois l’entourage.

Il existe d’ors-et-déjà des outils qui permettront de mieux appréhender le monde de l’Internet. On peut déjà parler des périphériques mobiles, comme les tablettes, de par leur facilité de manipulation. Les deux hics principaux étant la précision du geste à appréhender et ça, ce n ‘est pas toujours aisé et bien sur l’affichage très petit qui est souvent un obstacle. Reste alors la solution des environnements dédié Sénior. Je pense par exemple à Handy Linux, qui propose de manière épurée et avec la stabilité et la sureté qu’on lui connait, une solution spécialement adaptée pour les débutants et les Seniors. Les principales fonctions sont regroupées sous forme de tableaux et de raccourcis, qui évitent toutes les fausses manipulations ou les plantages intempestifs qui peuvent bloquer des gens non-aguerris.

Handy Linux

Handylinux est une solution très adaptée pour les Séniors novices en informatique

Les résultats seront  basés sur votre motivation avant tout. Je vais vous donner un exemple concret que moi-même j’ai pu constater : Ma grand-mère, octogénaire, s’est mise début janvier à l’informatique, via justement la solution Handy Linux que je lui ai installée. Nous sommes en avril et, après bien sur quelques cours d’initiation très abordables, elle est désormais capable d’envoyer et de lire ses emails, d’appeler quelqu’un en vidéo conférence par skype et ainsi voir son arrière-petite fille, mais aussi écouter de la musique sur son ordinateur, faire des recherches sur Google, consulter des recettes en ligne, etc… Cela lui a changé la vie et elle-même, déclare que cela lui a changé le regard qu’elle portait sur le numérique jusqu’à présent. Elle suit même désormais cette chronique !

Pour obtenir des informations plus précises, tarifaires, etc… vous pouvez demander des renseignements à vos informaticiens de proximité, car ce service est assez peu répandu dans les grandes surfaces. Et sachant que vous aurez toujours quelqu’un de votre entourage qui pourra vous dépanner ou répondre à vos questions en cas de besoin.


Ecoutez le podcast en audio :

L’email, ou le courriel en Français, est devenu un moyen de contact indispensable. Plus de  3,4 millions d’emails sont envoyés dans le monde chaque seconde, soit 107 000 milliards par an…  Tout le monde ou presque dispose de sa boite mail, mais souvent on se retrouve face à des configurations qui ne nous parlent que très peu au moment de la mettre en service. Tout d’abord, demandons nous comment consulter ses emails ?

A l’heure où les emails sont devenus un vecteur de communication à part entière, la demande est de plus en plus forte pour rester accessible 24h/24, notamment depuis la possibilité de bénéficier de ce service sur les terminaux mobiles (smartphones, tablettes, pocket PC à l’époque, et même sur les montres connectées…). La question de la possibilité de connexion est donc logique et il existe plusieurs méthodes parfois ignorées des utilisateurs : vous pouvez consulter vos emails de 2 manières – soit en ligne, via un site et donc une interface dédiée pour gérer vos emails : on l’appelle communément le Webmail. L’autre méthode consiste à recevoir ceux-ci au moyen d’un logiciel ou d’une application : on l’appelle alors le client mail : c’est celui-là qu’il va falloir paramétrer, parfois avec des dénominations barbares et peu parlantes.

Pour mieux appréhender le fonctionnement global de l’envoi et la réception de courriers électroniques, souvenez-vous du fonctionnement d’un site internet : Il est hébergé, donc stocké sur un serveur, une sorte d’ordinateur connecté en permanence à internet dans un local dédié, sécurisé et climatisé… Et bien, ce sont les mêmes types de technologie qui vont être employées pour vos emails : Lorsqu’un correspondant vous adresse un message électronique, il va falloir qu’un serveur puisse recevoir son contenu. L’adressage s’effectue au moyen de votre adresse email, qui est unique. L’ensemble du réseau sait donc où adresser et où stocker le message en question. Il sait aussi qui doit et qui peut l’ouvrir. D’ailleurs notons que la fameuse @, est en réalité une matérialisation de l’adresse du serveur qui doit récupérer les emails, et le début de votre adresse l’intitulé de votre compte. Le mot de passe sert ensuite à sécuriser le tout pour en limiter l’accès… c’est finalement très simple et très logique!

Cheminement d'un message de l'expéditeur au destinataire

Cheminement d’un message de l’expéditeur au destinataire

Vous allez maintenant me dire : Oui, mais maintenant les emails sur mon serveur? Et bien il faut se connecter à ce serveur pour ouvrir vos mails, et on en revient au deux méthodes dont je vous parlais tout à l’heure : Vos fournisseurs vous propose souvent un Webmail, un site dédié à la lecture de vos emails, auxquels vous accéder en suivant une adresse internet (url) et vous vous connectez avec votre adresse email et votre mot de passe. Ici pas besoin de configuration spécifique et vous pouvez vous connecter de partout, vous êtes cependant limités dans les fonctions, souvent basiques. L’autre moyen est la configuration d’un compte email sur un client mail, comme le très connu outlook, windows mail ou encore thunderbird en gratuit. Dans ce cas il faut paramétrer votre compte en « local », c’est-à-dire sur votre ordinateur.

Pour faire simple, voici les 2 méthodes existantes, dont les abréviations vont sous peut-être déjà familières :

  • Le compte POP (POP signifiant Post Office Protocol)

Cette technologie permet à votre messagerie de se connecter au serveur de vos emails, de les ramener dans votre ordinateur puis de se déconnecter. Il était très utilisé à l’époque où les connexions internet étaient facturées à la minute. Une fois les emails « redescendus », ils restent dans votre ordinateur et sont automatiquement effacés du serveur pour garder de la place. Il existe cependant des options pour en laisser des copies au cas où.

  • Le compte IMAP (IMAP signifiant Internet Message Access Protocol)

Lui est conçu pour lire les message depuis le serveur et donc les laisse à distance. Son avantage est donc de pouvoir disposer de la même boite mail sur plusieurs ordinateurs, comme le webmail, mais avec un client plus poussé dans les options. Tous ces outils vous offriront la possibilité de classer, trier, filtrer vos emails, de les signer numériquement, de répondre automatiquement en cas d’absence, etc… Certains intègrent aussi des anti-spam, des logiciels qui éradiquent certains mails publicitaires indésirables.

  • Le compte SMTP (SMTP signifiant Simple Mail Transfert Protocol)

Après la réception, on en vient à l’expédition de vos emails à destination de vos destinataires. Le principe sera bien sur identique, mais vos courriers électroniques seront expédiés depuis votre ordinateur sur un serveur SMTP (simple mail transfert protocol) Lui se charge d’envoyer un message sur votre serveur, qui fera ensuite le relai jusqu’au serveur de votre correspondant, constituant ainsi un maillage mondial.

Notez que tous vos paramètres de connexion sont disponibles auprès de la rubrique d’aide de vos fournisseurs email, comme vos FAI par exemple., et vous permettront au moyen de ceux-ci de vous connecter désormais en toute simplicité selon le protocole de votre choix, qui vous semblera le plus adapté à votre utilisation commune de votre messagerie.


Ecoutez le podcast en audio :

Souvent, certaines personnes paniquent rien qu’en entendant le mot Antivirus.

Aucune raison de paniquer puisqu’un antivirus est là pour vous aider et protéger votre ordinateur, et donc bien sur vos données. Les antivirus sont des logiciels conçus pour identifier, neutraliser et éliminer des logiciels malveillants (dont les virus informatiques ne sont qu’une catégorie). Ces derniers peuvent se baser sur l’exploitation de failles de sécurité, mais il peut également s’agir de logiciels modifiant ou supprimant des fichiers, que ce soit des documents de l’utilisateur stockés sur l’ordinateur infecté, ou des fichiers nécessaires au bon fonctionnement de l’ordinateur (le plus souvent ceux du système d’exploitation). Ils vérifient aussi vos courriers électroniques entrants et sortants, les secteurs de démarrage de l’ordinateur, vos clés usb,etc…

Concernant leur fonctionnement , les principaux antivirus du marché se concentrent sur des fichiers de signatures et comparent alors la signature virale du virus aux codes à vérifier, il existe aussi une méthode dite heuristique : c’est la méthode la plus puissante, tendant à découvrir du code malveillant par son comportement. Elle essaie de détecter la présence d’un potentiel virus en analysant le code d’un programme inconnu.  Les créateurs de logiciels antivirus ayant préalablement identifié et enregistré des informations sur des virus, comme le ferait un dictionnaire, le logiciel antivirus peut ainsi détecter et localiser la présence d’un virus. Lorsque cela se produit, l’antivirus dispose de trois options :  il peut effectuer la suppression du fichier contaminé, ou encore tenter de réparer le fichier endommagé en éliminant le virus, ou bien déplacer le fichier dans une zone de quarantaine afin qu’il ne puisse être accessible aux autres utilisateurs et logiciels. Ceci permet d’éviter que le virus se répandre par autoréplication, et permet éventuellement de réparer le fichier ultérieurement si cela est possible.

Comment fonctionne un antivirus ?

Comment fonctionne un antivirus ?

Historiquement parlant, plusieurs sociétés revendiquent le titre de créateur du premier logiciel antivirus. La première annonce publique d’une neutralisation d’un virus pour PC a été faite par European Bernt Fix au début de l’année 1987, sur le virus Vienna. Suite à ce virus, plusieurs autres virus ont fait surface comme par exemple Ping Pong, Lehigh et Surviv-3, aussi connu sous le nom de Jérusalem. Depuis 1988, plusieurs sociétés ayant pour objectif d’approfondir les recherches dans le domaine des logiciels antivirus se sont regroupées. En automne 1988 est paru le logiciel antivirus Dr Solomon’s Antivirus Toolkit conçu par Briton Alan Solomon ou encore d’autres recherches de  Peter Tippet, urgentologue de profession et éditeur de logiciels. À la fin du mois de décembre 1990, le marché en est venu au point d’offrir au consommateur 19 différents produits reliés aux antivirus, parmi ceux-ci, Norton Antivirus et McAfee VirusScan. Il a vendu sa société en 1992 à Symantec Corp. et Tippett s’est joint à eux, en implantant le logiciel conçu au nom de Symantec, Norton AntiVirus.

Pour répondre à la grande question du choix de l’antivirus, disons qu’il n’y a pas un meilleur antivirus, mais plusieurs références, selon votre profil utilisateur. Il y a ceux qui ne veulent pas payer pour leur protection, et pour eux, 2 solutions à retenir : un Avira Free Antivirus minimaliste et efficace ou un Avast Antivirus 2014 toujours aussi complet, mais peut-être trop pour certains. Quitte à payer, si vous voulez être pris par la main, BitDefender, Kaspersky et Norton restent des valeurs sûres. BitDefender a l’avantage de proposer une solution « tout-en-un » déjà assez complète pour un simple antivirus, là où les 2 autres segmentent tout de même davantage leur offre.


Ecoutez le podcast en audio :

Les possibilités immenses de l’informatique ont impacté le monde du multimédia pour rendre accessible bien des domaines. C’est le cas de la création musicale et la Musique assistée par ordinateur. Alors on voit que tout se simplifie avec le numérique, et alors on peut se demander ce que le numérique apporte à tout un chacun en terme de création ?

La musique et la vidéo sont effectivement des domaines qui ont été parmi ceux les plus impactés par la démocratisation du numérique. En effet en quelques années, nous sommes passés des anciens baladeurs aux baladeurs numériques, 4 fois plus petits en taille pour des durées de lecture 50 fois supérieures. Il en est exactement de même dans la création de musique avec l’apparition des « home studio » depuis une dizaine d’année.

Le Home studio est un petit studio d’enregistrement ou de production personnel. Comme son nom l’indique, il entoure une station informatique domestique la plupart du temps et permet donc d’être stocké à domicile sans prendre trop d’espace et de volume. C’est une excellente alternative pour travailler depuis chez soi en minimisant les frais puisqu’un gros studio a un coût de fonctionnement bien plus important. Il devient alors facile de pratiquer la musique assistée par ordinateur, ce qu’on appelle la M.A.O.

Plus simplement, on va parler de station de travail audionumérique : En réalité, c’est un terme un peu pompeux pour parler d’un ensemble composé d’un ordinateur et d’une interface audionumérique, ou carte son…  Cet ensemble va permettre d’enregistrer, de créer, de travailler et d’exporter de la musique. Les configurations de ces sembles varient selon ce que l’utilisateur souhaite réaliser. Certains petits studios tournent avec les PC du commerce, classiques… mais il faut quand même compter  un investissement initial pour démarrer dans de bonnes conditions et ne pas être trop limité à cause de son matériel.

Vous voulez franchir le cap et vous lancer dans cette belle aventure? Il faut déjà acheter un bon ordinateur, j’entends par là un processeur assez rapide pour disposer d’une bonne puissance de calcul, de la mémoire vive pour la rapidité d’accès, et surtout une bonne carte son. Ce sera le cœur du système : c’est elle qui fera la jonction entre la musique et les données numériques de l’ordinateur. Il en existe une multitude et à tous les prix. Leur composants, leur capacités électroniques et leur méthode de raccordement impactent leur prix qui s’échelonnent d’une centaine d€ à plus d’un millier d’€ pour certaines cartes haut de gamme. Il vous faudra aussi un logiciel, un programme pour travailler l’audio. Il en existe aussi beaucoup. On parle d’ »éditeurs » qui permettent d’éditer des sons, ou de multipistes qui permettent de mixer ou mélanger des sons- organisés sous forme de pistes audio, tous ensembles. Les leader du marché sont Audition de Adobe, Cubase de Steinberg ou encore Logic de Apple, Protools… Il existe un logiciel multipiste gratuit appelé Audacity qu’on peut télécharger et installer librement. Certains logiciels vont vous permettre de préparer et de normaliser des fichiers de musique, d’enregistrer des voix ou des instruments et certains vont même jusqu’à composer et arranger de la musique. Ils peuvent intégrer des instruments virtuels ou piloter des instruments externes, voire d’autres logiciels. Les possibilités de création sont infinies.

Le  « vrai » studio sera un des éléments de finalisation si vous voulez sortir un morceau  de manière sérieuse… mais beaucoup d’artistes actuels produisent chez eux, dans leur chambre, dans leur garage… pour un résultat tout à faire honorable. C’est une vraie démocratisation des possibilités de création sous réserve de bien prendre en main son matériel. Avec la facilité que procure les logiciels actuels, plus besoin d’avoir fait le conservatoire ou être ingénieur du son pour commencer de composer et de « triturer » les sons chez soi.


Ecoutez le podcast en audio :

Ce petit tuto que j’ai eu l’occasion de faire a vu le jour à la demande d’utilisateurs de Cubase, qui ne connaissaient que les effets dits d’insert.

Ces effets sous forme de plugins VST sont généralement appliqués sur une voie, et si on veut utiliser le même effet sur plusieurs tranches, alors on arrive rapidement à une saturation des ressources de l’ordinateur. Mais savez- vous qu’il existe une piste dédiée à ce genre d’utilisation et qui evite ce problème de surcharge ?

Prenons pour exemple un projet en 3 pistes distinctes, pistes audio uniquement, mais le principe d’application sera le même sur les pistes instruments.

Voici 3 pistes rythmiques qui constituent une boucle.

Première chose : nous devons ajouter une voies FX (créer voie FX) et choisir son effet associé, par exemple une réverbération, très couramment utilisée.

Ensuite, on va éditer les paramètres de la réverb afin de faire un premier réglage qui correspond à ce que l’on attend. Elle est donc prête à être utilisée.

Pour appliquer cet effet sur une piste particulière sans passer par les effets d’insert et en utilisant notre fameuse voie FX, ouvrons les effets Send dans la partie gauche de sélection de piste à l’écran.

Sélectionnons la piste sur laquelle on veut appliquer cet effet : Par défaut, on voit qu’aucun effet n’est appliqué et activé. On va alors aller chercher l’effet de reverb en question (liste déroulante). On va l’activer et monter le gain, qui correspondra en réalité à l’efficacité de l’effet appliqué sur le signal original. En gros : à – l’infini,  le signal n’est  pas routé dans la piste FX, à 0dB, l’intégralité du signal est envoyé sur la piste. On va donc pouvoir doser spécifiquement chaque « quantité d’effet » à utiliser sur chaque piste, le tout en utilisant une seule fois cet effet reverb avec les mêmes paramètres pour toutes les voies.

Ceci est valable pour tous les effets VST possibles et imaginables. Cette exploitation de piste FX est très avantageuse et vous permettra d’enrichir vos projets de post-traitement supplémentaire sans pour autant faire ramer vos machines. Notons aussi que cette technique peut très bien prendre en compte les pistes groupes, ce qui donne encore plus de possibilités de réglages, et bien sur ne contrecarre en aucun cas les effets placés en Send.

Ci-dessous le tutoriel vidéo :

[embedplusvideo height= »550″ width= »604″ editlink= »http://bit.ly/1gg2F00″ standard= »http://www.youtube.com/v/vxbCcSO6Fb0?fs=1″ vars= »ytid=vxbCcSO6Fb0&width=604&height=550&start=&stop=&rs=w&hd=0&autoplay=0&react=1&chapters=¬es= » id= »ep4231″ /]
Lien miroir : http://bit.ly/1gg2F00