Senior sur le web

Internet pour les séniors : quelles solutions ?

Avec la démocratisation du tout-numérique et le déploiement de l’ADSL en France, il est aujourd’hui handicapant de ne pas avoir accès au web. C’est notamment le cas des Senior, qui n’ont pour plupart jamais été initiés à l’informatique. Pourtant des solutions existent précisément dans ce cas. Mais quelles sont les solutions qui constituent une porte d’entrée au web ?

Les Séniors sont démographiquement de plus en plus nombreux et donc commencent à être des cibles prioritaires, et ceci est d’autant plus vrai sur le net. De plus, bien des services modernes nécessitent parfois une connexion Internet, comme dans les finances, ses services bancaires, les administrations comme les impôts, le service minitel qui n’existe plus, etc… beaucoup de choses sont désormais presque exclusivement accessible via Internet. Le besoin est donc bien présent, y compris pour des personnes qui n’ont jamais utilisées un ordinateur, car ce sont elles qui sont le plus handicapées en réalité.

Pour initier une personne parfois réfractaire aux nouvelles technologies, il convient de rassurer, et expliquer. Souvent l’origine des peurs est l’ignorance totale de ces technologies, des craintes issues souvent des ragots médiatiques, comme les virus ou les piratages, etc… Il faut bien dire que, compte tenu du volume des données qui circulent sur la toile et le nombre d’internaute dans monde, ces risques sont tout de même plutôt réduits pour l’utilisateur lambda. De plus, l’apprentissage de l’outil informatique est désormais possible, et même conseillé car il peut offrir une nouvelle perspective, voire une nouvelle vie à une personne. Quelqu’un qui se prélassait passivement devant sa télévision peut devenir actif derrière un clavier, apprendre et stimuler sa mémoire et ses facultés de logique, de raisonnement, etc…

Les séniors ont pourtant tout intérêt à s’y mettre, car Internet va , et c’est surement là le plus important, leur permettre de garder contact. Avec sa famille dans un premier temps quelque-soit sa position géographique dans le monde. Prenons l’exemple de petits-enfants qui font des études à l’étranger : et bien les grand parents peuvent ainsi non seulement dialoguer gratuitement avec eux régulièrement via des services comme skype, mais aussi les voir en appel vidéo, tout cela facilement et gratuitement. Un autre exemple : une naissance. On peut désormais voir le nouveau-né et suivre sa croissance, son évolution, même si la distance est importante… Internet va aussi éviter des aller/retour à la Poste : plus besoin d’enveloppe à timbre : un email suffira et sera, encore une fois, gratuit. On voit aussi que beaucoup de Séniors élargissent leur cercles de contacts comme dans les milieux associatifs, grâce à Internet : le net favorise, contrairement à ce qu’on pourrait croire, les interactions sociales entre groupes d’individus par la proximité, comprenez ici la possibilité de les mettre plus facilement en contact. Il est bien plus facile d’aborder quelqu’un sur Internet depuis chez soi, que d’aller lui parler « en vrai » pour la première fois. On casse des barrières !

visioconférence sous skype
Skype est un logiciel de communication audio/vidéo gratuit

On voit que les cours d’apprentissage à l’’informatique pour Sénior ont tendance à être demandés. La plupart des Séniors qui commencent de maitriser l’ordinateur, a pour objectif de se connecter au web, notamment pour toutes les raisons que je vous ai expliquée précédemment. C’est une forte motivation. Et d’ailleurs quand les résultats sont là, cela encourage à continuer et même fédère parfois l’entourage.

Il existe d’ors-et-déjà des outils qui permettront de mieux appréhender le monde de l’Internet. On peut déjà parler des périphériques mobiles, comme les tablettes, de par leur facilité de manipulation. Les deux hics principaux étant la précision du geste à appréhender et ça, ce n ‘est pas toujours aisé et bien sur l’affichage très petit qui est souvent un obstacle. Reste alors la solution des environnements dédié Sénior. Je pense par exemple à Handy Linux, qui propose de manière épurée et avec la stabilité et la sureté qu’on lui connait, une solution spécialement adaptée pour les débutants et les Seniors. Les principales fonctions sont regroupées sous forme de tableaux et de raccourcis, qui évitent toutes les fausses manipulations ou les plantages intempestifs qui peuvent bloquer des gens non-aguerris.

Handy Linux
Handylinux est une solution très adaptée pour les Séniors novices en informatique

Les résultats seront  basés sur votre motivation avant tout. Je vais vous donner un exemple concret que moi-même j’ai pu constater : Ma grand-mère, octogénaire, s’est mise début janvier à l’informatique, via justement la solution Handy Linux que je lui ai installée. Nous sommes en avril et, après bien sur quelques cours d’initiation très abordables, elle est désormais capable d’envoyer et de lire ses emails, d’appeler quelqu’un en vidéo conférence par skype et ainsi voir son arrière-petite fille, mais aussi écouter de la musique sur son ordinateur, faire des recherches sur Google, consulter des recettes en ligne, etc… Cela lui a changé la vie et elle-même, déclare que cela lui a changé le regard qu’elle portait sur le numérique jusqu’à présent. Elle suit même désormais cette chronique !

Pour obtenir des informations plus précises, tarifaires, etc… vous pouvez demander des renseignements à vos informaticiens de proximité, car ce service est assez peu répandu dans les grandes surfaces. Et sachant que vous aurez toujours quelqu’un de votre entourage qui pourra vous dépanner ou répondre à vos questions en cas de besoin.

Ecoutez la chronique en podcast ici :

Sécurité : la sauvegarde de ses données numériques

Nous allons aujourd’hui aborder un point auquel tout un chacun est confronté devant un ordinateur : stocker ses données. Bien que ce sujet traitant d’une sécurité classique paraisse simple, nous allons faire le tour des moyens utiles pour stocker et sécuriser ses données personnelles. Première interrogation toute simple, pourquoi sauvegarder ses données ?

Comme son nom l’indique, la procédure de sauvegarde va tout simplement sécuriser vos données personnelles. Dans le cas d’un ordinateur de bureau, vos fichiers sont stockés par défaut sur le disque dur principal de votre ordinateur. Il en est de même pour le système d’exploitation comme Windows ou IOS par exemple, et pour vos applications. Tout est en réalité au même endroit : le disque dur. Ce fameux disque dur est une sorte d’empilement de disques magnétiques et disposant de plusieurs têtes de lecture et d’écriture, pouvant lire, écrire et donc stocker une quantité importante de données. Ces plateaux tournent à des vitesses élevées, entre 5400 jusqu’à 10000 Tours par minute pour augmenter la rapidité d’écriture ou de lecture. Mais ceci signifie aussi que, comme toute mécanique, une panne est parfaitement envisageable. Il convient donc de sécuriser, sauvegarder ses données importantes sur un autre support que le disque dur principal.

 

HDDinterne
Le disque dur interne dans vos ordinateurs

Pour l’utilisateur standard, la sauvegarde sur un seul support externe suffit la plupart du temps. Mais certaines conventions d’assurance stipulent aux entreprises qui traitent des données sensibles, nos seulement d’avoir des systèmes de sauvegardes automatisées procédant de manière régulière, mais aussi sur plusieurs supports, et qui plus est stockés dans des endroits géographiques différents. Ceci pour lutter par exemple contre le risque d’incendie qui ravagerait un bâtiment administratif… Autant que les sauvegardes des données n’y soit pas aussi…

Vous connaissez probablement déjà tous les supports usuels, mais lequel est plus fiable que l’autre ? C’est la grande question. Premièrement vous avez déjà les disques durs externes, classiques… leur avantage est de pouvoir proposer un volume important de stockage, mais comme les disques internes, il présente le même risque de panne, à la différence près qu’ils ne sont théoriquement pas utilisés en permanence. Ils sont de plus en plus supplantés par les supports dits FLASH, parmi lesquels se classent les cartes mémoire comme celles de vos appareils photo numériques, mais surtout la plus connue : la clé USB. Ce sont des supports qui sont composés d’une mémoire électronique, extrêmement fiable. Les risques de perte de données sont plus faibles que sur un disque dur externe, mais les volumes sont aussi plus réduits. En revanche, ils sont plus rapides en lecture et en écriture, notamment en norme USB 3.0. Notons qu’une variante de disque dur utilisant cette technologie est arrivée sur le marché, mais reste encore assez onéreuse en grande capacité: on les appelle les disques dur SSD. Il n’y plus de plateaux à l’intérieur. Leur avantage est un accès très rapide aux données stockées.

La clé USB et sa mémoire embarquée
La clé USB et sa mémoire embarquée

Il existe des solutions déportées, dont nous avons déjà parlé dans cette chronique : le Cloud, ou le nuage en français. Il s’agit d’un espace de stockage à distance, situé sur un serveur auquel on accède par Internet. Il faut donc avoir une connexion pour en bénéficier. Il permet parfois de stocker un volume important de données, issu de plusieurs machines, et présente l’avantage d’être accessible 24h/24 7J/7, puisque ce sont des serveurs, qui plus est sont sécurisés, donc englobe une solution de sauvegarde par doublon, gérée sur place directement par votre fournisseur de ce service. Et bien sur vos données sont exportées de vos locaux et de vos machines, ce qui peut être bien utile en cas d’incendie ou de vol. C’est aussi une des seules sauvegardes possible pour certains appareils mobiles, qui n’embarquent pas une connectique simple et nécessaire à la sauvegarde de ces données.

La sauvegarde à distance est aussi possible...
La sauvegarde à distance est aussi possible…

Il y a 2 conseils à retenir, les plus importants, qui vous éviteront bien des soucis et surtout d’énormes regrets en cas de plantage de votre disque ou de votre machine :

  1. -Effectuer vos sauvegardes REGULIEREMENT : Ce n’est pas une fois qu’on rencontre un problème qu’il faut penser à le faire, ce sera surement déjà trop tard. Planifier vous un pense-bête, sortez vos post-it, faite un nœud à votre mouchoir… mais sauvegardez régulièrement vos données les plus importantes.
  2. – et faites ceci si possible sur un support externe. Classez par exemple selon l’importance de vos fichiers et leur volume : les films, vos photos de vacances sur un disque dur externe, vos fichiers courants, vos relevés de comptes, etc… sur une clé USB qui présentera beaucoup moins de risque. Sachez que la récupération de données sur un disque dur est parfois possible, mais qu’elle peut revenir à plusieurs centaines, voire milliers d’€ selon le volume à récupérer. N’importe quel support que vous trouverez ne coutera jamais ce prix-là, si tant est d’être prévoyant et consciencieux dans ses sauvegardes. Ce serait dommage de ne pas en profiter d’autant plus que la sécurité informatique est plus que jamais au cœur des débats !
 Ecoutez la chronique en podcast ici :
Retouche d'image

Pourquoi est-il utile de retoucher ses photos ou ses images ?

Vous avez surement déjà perdu beaucoup de temps à essayer de retoucher des photographies, des images, etc.. dans le but de les stocker, de les imprimer ou encore de les envoyer par mail. Pour commencer et jouer les candides, pourquoi est ce nécessaire de retoucher des images ?

Au delà du plaisir d’obtenir une belle image, de la rendre plus réaliste, de vouloir faire mieux ressortir les couleurs, ou même de vouloir la stocker, la faire développer, ou l’envoyer sur Internet, les motifs de de retouches sont multiples et courants. On va distinguer en gros deux types de retouches : la retouche artistique, visant à améliorer la qualité et l’esthétique général de l’image, et la retouche technique, qui elle va permettre d’adapter l’image à un autre support, à la réduire pour qu’elle puisse être envoyée à un correspondant via Internet, ou encore de la conditionner à une ligne d’impression chez votre imprimeur préféré. Dans les deux cas, il faut savoir ce qu’on veut faire et vers quoi on destine justement l’image en question.

Pour nous faire une idée, prenons un rapide exemple.  Après avoir réalisé une série de photos de famille, vous rentrez chez vous et vous décidez d’ouvrir vos photos afin de vérifier la qualité de vos fichiers. Et là stupeur ! Vous avez omis d’enclencher le système anti-yeux rouges et certaines personnes ont les yeux réfléchissants ! Vous allez donc devoir retoucher les yeux de ces personnes pour atténuer cet effet. On est dans la retouche artistique. Une fois cette tache effectué, vous devez envoyer une partie de ces photos à un membre de la famille. Et là, problème ! Lorsque vous glissez votre image en pièce jointe, votre messagerie vous indique que le fichier de votre photo est trop volumineux, et donc il ne peut pas être envoyé. Il va donc falloir réduire sa taille et le poids du fichier, et optimiser votre photo. Nous sommes ici alors dans le cadre d’une retouche technique.

Les images ont donc des « natures » différentes. Pour mieux expliquer ces différences, gardons en tête ces 4 termes : la dimension de l’image, sa résolution, son mode de couleur, et son format. Ce sont les grands 4 paramètres qui vont définir la nature ou la finalité de l’image. Détaillons les si vous le voulez bien…

La dimension de l’image, c’est en gros sa largeur et sa hauteur. Ces valeurs sont définies soit en pixel pour l’affichage sur un écran, soit en mm ou en cm pour une image qui va être imprimée. Vous voyez déjà que les unités de mesure ne sont pas les mêmes. Bien sur, le plus ces valeurs seront importantes, le plus l’image sera grande. Concernant la résolution : une image est en réalité un assemblage de points de couleurs, très petits et très serrés, qui composent l’image. Le plus il y aura de points dans un espace défini, le plus l’image sera précise, mais aussi le plus le fichier contiendra d’information, donc sera lourd. La quantité, le mélange et la disposition de ces points, à l’écran ou sur un support, donneront par assemblage chromatique les couleurs et leur nuance. On parle alors de résolution de l’image, déterminée par une valeur en Dpi (Dot per inch ou points par pouce, on trouve aussi points par centimètre) Maintenant, place au mode de couleur : les 4 grands modes de couleurs sont les suivants : RVB, CMJN, LAB et Niveau de gris.

Le RVB signifie Rouge Vert Bleu : c’est le mode de l’affichage écran par excellence. Chaque couleur est composée d’un assemblage de ces 3 couleurs primaires. Il permet d’avoir plusieurs millions de couleurs différentes à l’écran.

RVB
Assemblage RVB pour l’affichage sur écran

Le CMJN signifie Cyan Magenta Jaune Noir : c’est le mode de couleur Imprimerie dans lequel les images doivent être converties pour passer sur les chaines d’impression, contenant chacune ces 4 couleurs d’encre. Vous remarquerez que vos imprimantes disposent aussi de ces 4 couleurs, donc en théorie (peu de personne le font) vous devriez imprimer vos images en CMJN. La différence avec le RVB est surtout visible dans la saturation des couleurs, puisque les mélanges sont toujours plus sombres qu’une couleur pure à l’écran.

CMJN
Le mode CMJN utilise les couleurs d’encre basiques de l’imprimerie

Le mode LAB repose sur la perception des couleurs par l’œil humain. Il sert surtout à la conversion d’un mode à un autre et dans l’éclairage. Et enfin le niveau de gris qui, comme son nom l’indique, compose une image en point noirs plus ou moins grands et plus ou moins rapprochés. Donnant un effet « noir et blanc ».

Les formats sont en gros les types de fichiers d’image que vous obtenez (BMP, GIF, TIFF, PNG… et le très connu JPG dit JPEG) il s’agit d’un algorithme qui code l’image en valeurs et en positions de ses points. Le fait de compresser une image va donc jouer sur ces paramètres et donc diminuer le poids d’un fichier en ayant conscience qu’on dégrade une partie des informations contenues dans l’image initiale.

Et pour retoucher facilement,  rien de tel que des outils logiciels comme Photoshop pour le plus connu, mais aussi le plus complexe. Bon nombre de concurrents sont aussi plus simples d’utilisation. Vous avez aussi des sites « en ligne » qui optimisent vos images automatiquement selon ce que vous souhaitez faire : vous envoyez votre image, le site la traite et vous la re-téléchargez dans la foulée. Ceci est notamment pratique pour optimiser le poids d’une image avant son envoi sur internet. Pour trouver ces sites, tapez simplement « redimensionner photo en ligne » sur Google.

 Ecoutez la chronique en podcast ici :

Les comptes Email et leur configuration sur vos terminaux

L’email, ou le courriel en Français, est devenu un moyen de contact indispensable. Plus de  3,4 millions d’emails sont envoyés dans le monde chaque seconde, soit 107 000 milliards par an…  Tout le monde ou presque dispose de sa boite mail, mais souvent on se retrouve face à des configurations qui ne nous parlent que très peu au moment de la mettre en service. Tout d’abord, demandons nous comment consulter ses emails ?

A l’heure où les emails sont devenus un vecteur de communication à part entière, la demande est de plus en plus forte pour rester accessible 24h/24, notamment depuis la possibilité de bénéficier de ce service sur les terminaux mobiles (smartphones, tablettes, pocket PC à l’époque, et même sur les montres connectées…). La question de la possibilité de connexion est donc logique et il existe plusieurs méthodes parfois ignorées des utilisateurs : vous pouvez consulter vos emails de 2 manières – soit en ligne, via un site et donc une interface dédiée pour gérer vos emails : on l’appelle communément le Webmail. L’autre méthode consiste à recevoir ceux-ci au moyen d’un logiciel ou d’une application : on l’appelle alors le client mail : c’est celui-là qu’il va falloir paramétrer, parfois avec des dénominations barbares et peu parlantes.

Pour mieux appréhender le fonctionnement global de l’envoi et la réception de courriers électroniques, souvenez-vous du fonctionnement d’un site internet : Il est hébergé, donc stocké sur un serveur, une sorte d’ordinateur connecté en permanence à internet dans un local dédié, sécurisé et climatisé… Et bien, ce sont les mêmes types de technologie qui vont être employées pour vos emails : Lorsqu’un correspondant vous adresse un message électronique, il va falloir qu’un serveur puisse recevoir son contenu. L’adressage s’effectue au moyen de votre adresse email, qui est unique. L’ensemble du réseau sait donc où adresser et où stocker le message en question. Il sait aussi qui doit et qui peut l’ouvrir. D’ailleurs notons que la fameuse @, est en réalité une matérialisation de l’adresse du serveur qui doit récupérer les emails, et le début de votre adresse l’intitulé de votre compte. Le mot de passe sert ensuite à sécuriser le tout pour en limiter l’accès… c’est finalement très simple et très logique!

Cheminement d'un message de l'expéditeur au destinataire
Cheminement d’un message de l’expéditeur au destinataire

Vous allez maintenant me dire : Oui, mais maintenant les emails sur mon serveur? Et bien il faut se connecter à ce serveur pour ouvrir vos mails, et on en revient au deux méthodes dont je vous parlais tout à l’heure : Vos fournisseurs vous propose souvent un Webmail, un site dédié à la lecture de vos emails, auxquels vous accéder en suivant une adresse internet (url) et vous vous connectez avec votre adresse email et votre mot de passe. Ici pas besoin de configuration spécifique et vous pouvez vous connecter de partout, vous êtes cependant limités dans les fonctions, souvent basiques. L’autre moyen est la configuration d’un compte email sur un client mail, comme le très connu outlook, windows mail ou encore thunderbird en gratuit. Dans ce cas il faut paramétrer votre compte en « local », c’est-à-dire sur votre ordinateur.

Pour faire simple, voici les 2 méthodes existantes, dont les abréviations vont sous peut-être déjà familières :

  • Le compte POP (POP signifiant Post Office Protocol)

Cette technologie permet à votre messagerie de se connecter au serveur de vos emails, de les ramener dans votre ordinateur puis de se déconnecter. Il était très utilisé à l’époque où les connexions internet étaient facturées à la minute. Une fois les emails « redescendus », ils restent dans votre ordinateur et sont automatiquement effacés du serveur pour garder de la place. Il existe cependant des options pour en laisser des copies au cas où.

  • Le compte IMAP (IMAP signifiant Internet Message Access Protocol)

Lui est conçu pour lire les message depuis le serveur et donc les laisse à distance. Son avantage est donc de pouvoir disposer de la même boite mail sur plusieurs ordinateurs, comme le webmail, mais avec un client plus poussé dans les options. Tous ces outils vous offriront la possibilité de classer, trier, filtrer vos emails, de les signer numériquement, de répondre automatiquement en cas d’absence, etc… Certains intègrent aussi des anti-spam, des logiciels qui éradiquent certains mails publicitaires indésirables.

  • Le compte SMTP (SMTP signifiant Simple Mail Transfert Protocol)

Après la réception, on en vient à l’expédition de vos emails à destination de vos destinataires. Le principe sera bien sur identique, mais vos courriers électroniques seront expédiés depuis votre ordinateur sur un serveur SMTP (simple mail transfert protocol) Lui se charge d’envoyer un message sur votre serveur, qui fera ensuite le relai jusqu’au serveur de votre correspondant, constituant ainsi un maillage mondial.

Notez que tous vos paramètres de connexion sont disponibles auprès de la rubrique d’aide de vos fournisseurs email, comme vos FAI par exemple., et vous permettront au moyen de ceux-ci de vous connecter désormais en toute simplicité selon le protocole de votre choix, qui vous semblera le plus adapté à votre utilisation commune de votre messagerie.

 Ecoutez la chronique en podcast ici :

Comment s’y retrouver avec les antivirus ?

Souvent, certaines personnes paniquent rien qu’en entendant le mot Antivirus.

Aucune raison de paniquer puisqu’un antivirus est là pour vous aider et protéger votre ordinateur, et donc bien sur vos données. Les antivirus sont des logiciels conçus pour identifier, neutraliser et éliminer des logiciels malveillants (dont les virus informatiques ne sont qu’une catégorie). Ces derniers peuvent se baser sur l’exploitation de failles de sécurité, mais il peut également s’agir de logiciels modifiant ou supprimant des fichiers, que ce soit des documents de l’utilisateur stockés sur l’ordinateur infecté, ou des fichiers nécessaires au bon fonctionnement de l’ordinateur (le plus souvent ceux du système d’exploitation). Ils vérifient aussi vos courriers électroniques entrants et sortants, les secteurs de démarrage de l’ordinateur, vos clés usb,etc…

Concernant leur fonctionnement , les principaux antivirus du marché se concentrent sur des fichiers de signatures et comparent alors la signature virale du virus aux codes à vérifier, il existe aussi une méthode dite heuristique : c’est la méthode la plus puissante, tendant à découvrir du code malveillant par son comportement. Elle essaie de détecter la présence d’un potentiel virus en analysant le code d’un programme inconnu.  Les créateurs de logiciels antivirus ayant préalablement identifié et enregistré des informations sur des virus, comme le ferait un dictionnaire, le logiciel antivirus peut ainsi détecter et localiser la présence d’un virus. Lorsque cela se produit, l’antivirus dispose de trois options :  il peut effectuer la suppression du fichier contaminé, ou encore tenter de réparer le fichier endommagé en éliminant le virus, ou bien déplacer le fichier dans une zone de quarantaine afin qu’il ne puisse être accessible aux autres utilisateurs et logiciels. Ceci permet d’éviter que le virus se répandre par autoréplication, et permet éventuellement de réparer le fichier ultérieurement si cela est possible.

Comment fonctionne un antivirus ?
Comment fonctionne un antivirus ?

Historiquement parlant, plusieurs sociétés revendiquent le titre de créateur du premier logiciel antivirus. La première annonce publique d’une neutralisation d’un virus pour PC a été faite par European Bernt Fix au début de l’année 1987, sur le virus Vienna. Suite à ce virus, plusieurs autres virus ont fait surface comme par exemple Ping Pong, Lehigh et Surviv-3, aussi connu sous le nom de Jérusalem. Depuis 1988, plusieurs sociétés ayant pour objectif d’approfondir les recherches dans le domaine des logiciels antivirus se sont regroupées. En automne 1988 est paru le logiciel antivirus Dr Solomon’s Antivirus Toolkit conçu par Briton Alan Solomon ou encore d’autres recherches de  Peter Tippet, urgentologue de profession et éditeur de logiciels. À la fin du mois de décembre 1990, le marché en est venu au point d’offrir au consommateur 19 différents produits reliés aux antivirus, parmi ceux-ci, Norton Antivirus et McAfee VirusScan. Il a vendu sa société en 1992 à Symantec Corp. et Tippett s’est joint à eux, en implantant le logiciel conçu au nom de Symantec, Norton AntiVirus.

Pour répondre à la grande question du choix de l’antivirus, disons qu’il n’y a pas un meilleur antivirus, mais plusieurs références, selon votre profil utilisateur. Il y a ceux qui ne veulent pas payer pour leur protection, et pour eux, 2 solutions à retenir : un Avira Free Antivirus minimaliste et efficace ou un Avast Antivirus 2014 toujours aussi complet, mais peut-être trop pour certains. Quitte à payer, si vous voulez être pris par la main, BitDefender, Kaspersky et Norton restent des valeurs sûres. BitDefender a l’avantage de proposer une solution « tout-en-un » déjà assez complète pour un simple antivirus, là où les 2 autres segmentent tout de même davantage leur offre.

Ecoutez la chronique en podcast ici :

Comment bien choisir son fournisseur d’accès Internet ?

Tout le monde s’est déjà retrouvé face à ce dilemme ! Je dois prendre un abonnement internet, mais chez qui dois-je le faire ? et surtout que dois-je prendre ?

Bien choisir son offre internet est compliqué au vu des nombreux opérateurs et de la longue liste de forfaits et services qu’ils proposent. Il va donc s’agir de trouver celui qui va le mieux subvenir aux besoins que vous avez. En effet, on peut désormais trouver des opérateurs fournissant des solutions clé en main qui comprennent l’accès à internet, illimité ou non, des services de téléphonie VoIP, des abonnements mobiles parfois avec plusieurs lignes, des services de télévision par ADSL, des serveurs de stockage NAS, etc… La quantité de choix (et surtout les arguments de vente) sont impressionnants mais n’oublions pas l’objectif initial : disposer d’une bonne connexion à Internet. La quasi totalité du territoire est désormais couverte par le réseau ADSL en France et on peut alors envisager un débit raisonnable pour une utilisation domestique de l’internet, mais il n’en sera pas de même pour les services annexes.

Tout d’abord, la première chose à faire est de consulter ce qu’on appelle une carte de déploiement. Des sites spécialisés se sont d’ailleurs mis sur la place et propose des cartes assez techniques. Sur celles-ci, on peut alors lire, en fonction de sa situation géographique et de son raccordement, quels opérateurs et quels types de déploiement internet sont disponibles.  Cela vous donne déjà une bonne idée du débit qui vous pourrez en théorie disposer sur votre ligne, car n’oublions pas que les ressources d’un concentrateur sont partagées sur les différents abonnées. Vous pouvez par exemple trouver ce type d’information sur www.degrouptest.fr ou www.degroupnews.com qui recense le déploiement des FAI et souvent, après avoir indiqué votre numéro de téléphone fixe ou votre adresse dans un champ de formulaire, vérifient en temps réel le débit et les abonnements éligibles sur votre zone. Les résultats obtenus dépendent de votre ligne fixe, de sa caractéristique technique, de sa vétusté, etc… En fonction de votre zone, vous pouvez ou non avoir accès à l’ADSL2+ (plus de 20Mo) voire la fibre optique (100Mo). Tous les opérateurs proposent maintenant une box, qui condense l’accès à internet avec un répartiteur pour l’envoyer sur plusieurs ordinateurs (par câble et par WiFi), couplé à une ligne téléphonique intégrée voIP. Sous réserve d’avoir un débit suffisant, il vous est aussi possible de recevoir vos chaines de télévision par Internet via un boitier supplémentaire, de vous en servir comme magnétoscope pour enregistrer vos programmes et même accéder à Internet sur votre télévision.

Chez Free, le test de ligne s'effectue en rentrant votre numéro de ligne fixe...
Chez Free, le test de ligne s’effectue en rentrant votre numéro de ligne fixe…

Attention au critère unique du prix ! Les fournisseurs d’accès ont des services juridiques parfois un peu tordus et il est parfois utile de bien lire les petites lignes avant de souscrire votre abonnement. Prenez par exemple garde au tarif final de votre abonnement, une fois l’offre promo de bienvenue terminée, vérifiez si il ne faut pas rajouter de location de votre box. Prenez aussi en compte que certains FAI imposent une durée d’engagement de 12 mois minimum et que des frais de résiliation peuvent être facturés en cas de modification de votre abonnement (parfois jusqu’à une centaine d€). Il est donc important de bien choisir directement son offre. N’oubliez pas non plus décrypter les possibles « frais annexes » comme des chaines gratuites en découvertes qui deviennent payantes après un certain temps, des numéros pouvant être surtaxé pour votre assistance technique, si les frais de retour d’un matériel défectueux sont facturés, etc.. Ne laissez rien au hasard, même si il est compliqué de penser à tout sur le moment.

La morale de cette histoire ? Se renseigner, et prendre son temps pour bien choisir VOUS-MEME ! Évitez aussi de porter caution à des rumeurs, à vos voisins, à des « on dit ». En effet, il est très courant qu’un fournisseur fonctionnant avec un très bon débit chez un abonné, soit catastrophique chez un autre à quelques kilomètres! Chaque ligne est différente et donc on ne peut pas comparer une installation avec une autre. Faites VOS propres tests sur les pages de test des FAI et ils vont indiqueront ce qu’ils pourront VOUS proposer comme abonnement, débit et tarif sur votre ligne, et à vous de faire votre choix avec toutes ces informations.

Ecoutez la chronique en podcast ici :

Les fichiers audionumériques : contenus et extensions

Le multimédia a pris une place importante dans notre quotidien et sur le marché. Aujourd’hui on entend parler de MP3, de DIVX, de MOV, de AIFF… mais que se cache-t-il derrière ces fichiers et ces appellations.  Et surtout, posons nous déjà la question sur ce qu’est vraiment l’audionumérique ?

La réponse est dans la question : audio et numérique. Concrètement il s’agit-là de transformer tout simplement de la musique, des voix, des paroles, etc… en données numériques pour pouvoir les écouter plus tard , et en profiter pour les stocker facilement dans ce que nous appelons nos terminaux, que sont nos ordinateurs, tablettes, smartphones et baladeurs numériques…

Il faut d’abord parler de SUPPORT ! Comme son nom l’indique, il va stocker des informations. Dans le cadre de l’audio, on prendra par exemple la cassette audio,  le disque vinyle comme les anciens 45T, voire même le premier cylindre au noir de bougie qui fut le premier support audio de tous les temps inventé par Edouard Leon Scott de Martinville en 1857. Son appareil, le phonautographe (voir illustration ci-dessous),  se compose d’un pavillon relié à un diaphragme, qui recueille les vibrations acoustiques qui sont ensuite  transmises à un stylet qui les grave sur une feuille de papier enduite de noir de fumée. Cette est enroulée autour d’un cylindre tournant. Les sons « s’écrivent » littéralement sur la feuille et peuvent ensuite être reproduits : c’est la première sonogravure de tous les temps. Viendrons ensuite la gravure sur des métaux, le pressage de vinyle et de matière plastique, le ferromagnétisme des cassettes ,etc…   Tous ces supports de première génération sont dit ANALOGIQUES : Ils stockent principalement le signal sous forme matérielle ( par déformation d’éléments physique comme la gravure ou l’orientation de particules métalliques… Leur principal inconvénient est la tenue dans le temps. En effet, lors de chaque relecture, le signal se dégrade petit à petit, principalement à cause de l’usure du support, ce qui amène inexorablement à une perte de la qualité, et au fameux « souffle » dans anciens enregistrements et sur des vieux disques…

Le phonautographe gravait la musique sur un cylindre de noir de fumée
Le phonautographe gravait la musique sur un cylindre de noir de fumée…
Un exemple de gravure du phonautographe
…et un exemple de gravure du phonautographe

Le numérique permet de stocker le signal d’une autre manière : celui-ci est codé sous forme de chaines de chiffres. On appelle cette étape l’encodage : on capte les sons analogiquement comme avec des micros, et une interface munie d’un échantillonneur en converti une partie en données numériques. Avec l’avènement des lecteurs optiques comme le CD inventé par Philips dans les années 90, et plus récemment des DVD, Bluray et des fichiers stockés en mémoire flash, on supprime carrément les problèmes de dégradation du signal puisqu’il n’y plus de frottements entre la tête de lecture et  le support.

Inventé par Philips, il fut un des premiers supports numériques grand public
Inventé par Philips, le lecteur CD fut un des premiers supports numériques grand  public.

Cet avantage conséquent du numérique a désormais envahi notre quotidien ! Et dans tous les domaines : au cinéma, à la télé, à la radio… tout est numérique. Certains irréductibles prônent encore la qualité des anciens supports, mais ceci est techniquement très discutable et surtout est une question de point de vue.  Notons au passage que le numérique est un format, et n’est pas réservé à la musique : on l’utilise en vidéo pour l’image et dans bien d’autres domaines…

Le format est donc le même pour tous les fichiers audio. Alors on peut se demander pourquoi les dénominations Wav, MP3 et toutes ces extensions ? Principalement pour des raisons commerciales ! Les algorithmes, comprenez ici les programmes qui ont servis à calculer et encoder la musique en données numériques, sont souvent propriétaires de firmes ou de marques, qui les exploitent donc commercialement. C’est le cas du fameux MP3, du MOV de chez Quicktime, ou encore de l’AIFF chez Apple. Il s’en suit, vous vous l’imaginez, des problèmes de compatibilités évidents d’un lecteur à l’autre et donc, une guerre commerciale récurrente.

Sur le principe, on obtient théoriquement la même chose, mais vous verrez que la qualité n’est pas la même d’un fichier de musique à un autre. Ceci n’est pas directement lié à l’extension, mais plutôt à la précision de la façon dont il a été encodé. Le plus on l’encode précisément et rapidement, le plus la qualité originale sera respectée, mais aussi le plus le fichier occupera d’espace sur votre appareil. Les studios et les ingénieurs du son utiliseront des encodeurs bruts en haute qualité et des fichiers énormes en Wav PCM (Microsoft) ou AIFF (Apple), et les utilisateurs lambda que nous sommes des fichiers MP3 compressés de 128Kbps à 320Kps, qui sont d’un bon compromis poids/qualité. Retenez simplement qu’en dessous de 128K, le son commence à subir des dégradations auditives. Mais les constructeurs et les développeurs continuent de travailler à la mise en œuvre de nouveaux algorithmes chaque jour et optimisent la manière de stocker des sons de qualités dans un espace toujours plus réduit. Ceci vaut aussi pour la vidéo ! avec le Bluray pour la haute qualité, face au DIVX pour une taille de fichier minime, avec un rapport entre les deux allant jusqu’à 16 fois la taille du fichier. C’est énorme mais à chaque fichier sa propre utilisation…

Ecoutez la chronique en podcast ici :

Faire de la musique assistée par ordinateur (MAO) chez soi

Les possibilités immenses de l’informatique ont impacté le monde du multimédia pour rendre accessible bien des domaines. C’est le cas de la création musicale et la Musique assistée par ordinateur. Alors on voit que tout se simplifie avec le numérique, et alors on peut se demander ce que le numérique apporte à tout un chacun en terme de création ?

La musique et la vidéo sont effectivement des domaines qui ont été parmi ceux les plus impactés par la démocratisation du numérique. En effet en quelques années, nous sommes passés des anciens baladeurs aux baladeurs numériques, 4 fois plus petits en taille pour des durées de lecture 50 fois supérieures. Il en est exactement de même dans la création de musique avec l’apparition des « home studio » depuis une dizaine d’année.

Le Home studio est un petit studio d’enregistrement ou de production personnel. Comme son nom l’indique, il entoure une station informatique domestique la plupart du temps et permet donc d’être stocké à domicile sans prendre trop d’espace et de volume. C’est une excellente alternative pour travailler depuis chez soi en minimisant les frais puisqu’un gros studio a un coût de fonctionnement bien plus important. Il devient alors facile de pratiquer la musique assistée par ordinateur, ce qu’on appelle la M.A.O.

Plus simplement, on va parler de station de travail audionumérique : En réalité, c’est un terme un peu pompeux pour parler d’un ensemble composé d’un ordinateur et d’une interface audionumérique, ou carte son…  Cet ensemble va permettre d’enregistrer, de créer, de travailler et d’exporter de la musique. Les configurations de ces sembles varient selon ce que l’utilisateur souhaite réaliser. Certains petits studios tournent avec les PC du commerce, classiques… mais il faut quand même compter  un investissement initial pour démarrer dans de bonnes conditions et ne pas être trop limité à cause de son matériel.

Vous voulez franchir le cap et vous lancer dans cette belle aventure? Il faut déjà acheter un bon ordinateur, j’entends par là un processeur assez rapide pour disposer d’une bonne puissance de calcul, de la mémoire vive pour la rapidité d’accès, et surtout une bonne carte son. Ce sera le cœur du système : c’est elle qui fera la jonction entre la musique et les données numériques de l’ordinateur. Il en existe une multitude et à tous les prix. Leur composants, leur capacités électroniques et leur méthode de raccordement impactent leur prix qui s’échelonnent d’une centaine d€ à plus d’un millier d’€ pour certaines cartes haut de gamme. Il vous faudra aussi un logiciel, un programme pour travailler l’audio. Il en existe aussi beaucoup. On parle d’ »éditeurs » qui permettent d’éditer des sons, ou de multipistes qui permettent de mixer ou mélanger des sons- organisés sous forme de pistes audio, tous ensembles. Les leader du marché sont Audition de Adobe, Cubase de Steinberg ou encore Logic de Apple, Protools… Il existe un logiciel multipiste gratuit appelé Audacity qu’on peut télécharger et installer librement. Certains logiciels vont vous permettre de préparer et de normaliser des fichiers de musique, d’enregistrer des voix ou des instruments et certains vont même jusqu’à composer et arranger de la musique. Ils peuvent intégrer des instruments virtuels ou piloter des instruments externes, voire d’autres logiciels. Les possibilités de création sont infinies.

Le  « vrai » studio sera un des éléments de finalisation si vous voulez sortir un morceau  de manière sérieuse… mais beaucoup d’artistes actuels produisent chez eux, dans leur chambre, dans leur garage… pour un résultat tout à faire honorable. C’est une vraie démocratisation des possibilités de création sous réserve de bien prendre en main son matériel. Avec la facilité que procure les logiciels actuels, plus besoin d’avoir fait le conservatoire ou être ingénieur du son pour commencer de composer et de « triturer » les sons chez soi.

Ecoutez la chronique en podcast ici :

Un outil indispensable en informatique : la souris. Mais la connaissez-vous vraiment ?

La souris est un outil courant dont les origines sont souvent obscures. On peut déjà dire qu’une souris est un dispositif de pointage pour ordinateur. Elle est composée d’un petit boîtier fait pour tenir sous la main, sur lequel se trouvent un ou plusieurs boutons, et une molette dans la plupart des cas. La souris a été inventée en 1963 et présentée au public en 1968 par Douglas Engelbart du Stanford Research Institute après des tests d’utilisation basés sur le trackball. Elle a été améliorée par Jean-Daniel Nicoud à l’EPFL dès 1979 grâce à l’adjonction d’une boule et de capteurs ; il fabriqua la souris Depraz qui fut à l’origine de l’entreprise Logitech.

Pendant plusieurs décennies, les souris étaient des trackballs inversées (littéralement des boules de pilotage). La friction de la boule contre la table permettait le mouvement du pointeur sur l’écran. Les souris à boules ont ensuite été majoritairement remplacées par les souris optiques, LED, infrarouge et plus récemment BlueTrack avec une précision accrue. En effet, le système mécanique à boule avait en effet tendance à ramasser la poussière de la surface horizontale et à encrasser les rouleaux capteurs, ce qui exigeait un nettoyage interne régulier.

Du point de vue fonctionnement, de nombreux systèmes ont été imaginés pour déterminer les actions qui seront effectuées à l’écran : crayon optique, écran tactile, boule, joystick, tablette tactile, molettes diverses, tablette graphique, trackpoint. Alors que certains d’entre eux donnent un pointage absolu (les écrans tactiles, par exemple), la souris détecte un déplacement. Celui-ci, par calcul, fournit donc une position relative : par exemple, un mouvement de la souris vers la droite provoque un mouvement du pointeur à l’écran vers la droite, et ce indépendamment de la position absolue de la souris sur le plan de travail. Si le pointeur se trouve déjà à droite de l’écran, un mouvement de la souris vers la droite n’aura aucun effet (l’environnement graphique veille en effet à ce que le pointeur ne puisse apparaître que dans des zones autorisées). Au départ , la souris ne permettait  de fournir que deux informations de position (x et y). L’ajout d’une molette à la souris a cependant permis d’ajouter dans une certaine mesure cette troisième dimension qui lui manquait. Des outils de pointage plus récents et plus abordables complètent désormais la souris au lieu de chercher à la concurrencer.

Pour sa mise en fonction, il est utile d’avoir un support bien homogène afin que la souris glisse facilement et régulièrement. On nomme ce support un tapis de souris, il peut être en papier, plastique, tissu, etc. Des plaques de déplacement pour souris, faisant office de « tapis » rigides, furent fournies en standard avec les premières souris optiques au milieu des années 1980, ainsi avec la souris « 5277 » de l’écran IBM 3179-G pour mainframe : elles étaient métalliques, vernies, et pourvues de cannelures noires permettant à l’électronique de l’époque de suivre le mouvement de la souris. Le verre et les surfaces brillantes ou trop sombres ne sont pas recommandés pour les souris optiques. Si le pointeur à l’écran ne reproduit pas les mouvements de la souris, il est recommandé de placer une feuille rigide de papier clair sous la souris afin de réfléchir les rayons lumineux.

D’un point de vue ergonomique, la souris est un accessoire peu dangereux quand le poste de travail est correctement configuré (bras de l’utilisateur parfaitement à l’horizontale). Comme tout ustensile utilisé intensivement, elle peut provoquer des lésions, en l’occurrence des tendinites. On peut en atténuer le risque en alternant l’usage de la main droite et de la main gauche, ce qui demande cependant un entraînement. Les activités professionnelles exigeant un usage permanent de la souris peuvent induire le syndrome du canal carpien, voire la formation de callosités, ou de capsulite rétractile de l’épaule, et même des déformations de la main et du poignet. Les constructeurs essaient avec plus ou moins de succès des formes de souris plus ergonomiques, existant en version droitier et gaucher. Selon des chercheurs néerlandais, l’ensemble main/bras ou cou/épaule est affecté de manière proportionnelle au nombre d’heures passées en utilisant la souris, avec un risque plus important pour le bras et la main que pour la région cou/épaule. La souris aurait par ailleurs plus d’impacts négatifs sur la santé que l’utilisation de l’ordinateur sans souris, ou que le seul clavier sans souris.

Les performances d’une souris dépendent du rapport du nombre de mesures effectuées par la souris sur la distance parcourue par celle-ci, le DPI (Dots Per Inch, Points par Pouce). Un nombre élevé de DPI permet une précision accrue lors du déplacement du pointeur, pour un usage bureautique et ordinateur portable une précision d’environ 800 à 1600 DPI suffit ; beaucoup de souris ont des performances plus élevées pour les jeux ou le graphisme, de 2000 DPI à 8200 DPI et à des prix très variables…

(Sources: internet / Wikipedia)

Ecoutez la chronique en podcast ici :

Le téléchargement vs L’industrie

A la télévision, dans les magazines, au cinéma, etc… on parle des ravages que cause le téléchargement illégal. Les avis divergent : Fléau commercial et artistique pour les uns, aubaine pour la créativité et la notoriété pour les autres… Qu’en est-il exactement sur le terrain ? Quel état des lieux peut-on faire en cette aube 2014 ?

Selon l’étude REC+ de GFK sortie en fin d’année dernière, NON !  la consommation illicite de musiques et de films n’a pas explosé en 2013. Pour la musique, deux tiers des Français qui téléchargent de la musique le font ainsi exclusivement de manière légale. 57% de Français regardent de la vidéo en streaming chaque semaine. En 2008, 16% de Français téléchargeaient illégalement de la musique. En 2013, cette proportion est de 15%, soit tout juste un point de plus qu’en 2012.

Tous biens confondus, licites et illicites, c’est toujours le même critère de choix qui s’impose pour le consommateur : la gratuité. Pour 28% des consommateurs interrogés, la gratuité du site est l’argument principal pour la musique, devant la légalité (14%) et la richesse du catalogue (10%). Pour les films et les séries, ils sont respectivement 28% et 27% à rechercher en premier lieu la gratuité.

Difficile de lutter contre le téléchargement puisque les technologies sont en perpétuelle évolution tout comme les techniques utilisées par les pirates. On peut par exemple filtrer les sites et leurs contenus pirates, en empêchant leur référencement : si on ne les trouve pas, on ne télécharge pas … Les pirates ont su contourner ceci avec le Peer2Peer : chaque utilisateur qui télécharge un fichier le partage aussi partiellement : Il est alors impossible de localiser la source.  On se souvient de site de partage qui usaient de ces technologies qui ont fermés comme Megaupload, Kaazaa à l’époque, même Napster ou Audiogalaxy à ses débuts… Mais cela n’a pas ralenti les choses : l’adaptation est très rapide des deux côtés. Il a aussi été fondé HADOPI  La Haute Autorité pour la diffusion des œuvre et la protection des droits sur internet. Elle prévoyait de coordonner des avertissements et des coupures de l’accès auprès des fournisseurs internet, mais cette structure chère et au final peu efficace vient d’être dissoute. En effet, bon nombre de FAI refusent très logiquement de couper l’accès à leurs clients, de peur de les voir partir à la concurrence.

Finalement, pendant que les industries hurlent à la perte de profit et la mise en danger de la créativité, des artistes et des œuvres percent le marché grâce à Internet, véritable tribune ouverte sur le monde entier. On entend aussi que la créativité n’a jamais été aussi importante depuis que les œuvres s’échangent et inspirent d’autres artistes sur la toile. Du coté des artistes, on voit que le marché s’oriente désormais beaucoup plus sur le live et sur le spectacle et que ces chiffres explosent : c’est logique puisque l’exposition des artistes, grâce au web, compense les pertes sur les ventes de disques ou de DVD. Finalement, c’est l’adaptation qui est de mise car comme tout marché, celui de l’internet évolue et il faut se tenir au gout du jour.  On voit qu’aujourd’hui la répartition mécanique des droits d’auteur, de compositeur, etc… est de plus en plus compliquée à établir. C’est tout un système qu’il va falloir adapter au « tout numérique ». Il n’est plus temps de le combattre pour sauvegarder les anciennes méthodes, il faut expliquer, informer et surtout trouver les bons outils qui feront perdurer  la création et donc la culture en la finançant malgré les réseaux parallèles gratuits à l’échelle du monde.

Ecoutez la chronique en podcast ici :