La technologie Wi-Fi

Posté par kanyanta le 19 avril 2011

Wi-Fi

Ce lien est très utile pour les explications détaillée sur la technologie Wi-Fi :

http://www.scribd.com/doc/469106/Informatique-Cours-Reseau-Sans-Fil-La-Technologie-Wifi

Pile de protocoles
7. Application
6. Présentation
5. Session
4. Transport
3. Réseau
2. Liaison
1. Physique
Modèle Internet
Modèle OSI

 

Wi-Fi est un ensemble de protocoles de communication sans fil régis par les normes du groupe IEEE 802.11 (ISO/CEI 8802-11). Un réseau Wi-Fi permet de relier sans fil plusieurs appareils informatiques (ordinateur, routeur, décodeur Internet, etc.) au sein d’un réseau informatique.

 

Les normes IEEE 802.11 (ISO/CEI 8802-11), qui sont utilisées internationalement, décrivent les caractéristiques d’un réseau local sans fil (WLAN). La marque déposée « Wi-Fi » correspond initialement au nom donné à la certification délivrée par la Wi-Fi Alliance (« Wireless Ethernet Compatibility Alliance », WECA), organisme ayant pour mission de spécifier l’interopérabilité entre les matériels répondant à la norme 802.11 et de vendre le label « Wi-Fi » aux matériels répondant à leurs spécifications. Par abus de langage (et pour des raisons de marketing) le nom de la norme se confond aujourd’hui avec le nom de la certification (c’est du moins le cas en France, en Espagne, au Canada, en Tunisie…). Ainsi, un réseau Wi-Fi est en réalité un réseau répondant à la norme 802.11. Dans d’autres pays (en Allemagne, aux États-Unis par exemple) de tels réseaux sont correctement nommés WLAN (Wireless LAN).

 

Grâce aux normes Wi-Fi, il est possible de créer des réseaux locaux sans fil à haut débit. Dans la pratique, le Wi-Fi permet de relier des ordinateurs portables, des machines de bureau, des assistants personnels (PDA), des objets communicants ou même des périphériques à une liaison haut débit (de 11 Mbit/s théoriques ou 6 Mbit/s réels en 802.11b à 54 Mbit/s théoriques ou environ 25 Mbit/s réels en 802.11a ou 802.11g et 600 Mbit/s théoriques pour le 802.11n[2]) sur un rayon de plusieurs dizaines de mètres en intérieur (généralement entre une vingtaine et une cinquantaine de mètres).

 

Ainsi, des fournisseurs d’accès à Internet peuvent établir un réseau Wi-Fi connecté à Internet dans une zone à forte concentration d’utilisateurs (gare, aéroport, hôtel, train…). Ces zones ou point d’accès sont appelées bornes Wi-Fi ou points d’accès Wi-Fi ou « hot spots ».

 

Les iBooks d’Apple furent, en 1999, les premiers ordinateurs à proposer un équipement Wi-Fi intégré (sous le nom d’AirPort), bientôt suivis par le reste de la gamme. Les autres ordinateurs commencent ensuite à être vendus avec des cartes Wi-Fi intégrées tandis que les autres doivent s’équiper d’une carte externe adaptée (PCMCIA, USB, Compact Flash, SD, PCI, MiniPCI, etc.). À partir de 2003, on voit aussi apparaître des ordinateurs portables intégrant la plateforme Centrino, qui permet une intégration simplifiée du Wi-Fi.

 

Le terme « Wi-Fi »

 

Le terme « Wi-Fi » suggère la contraction de Wireless Fidelity, par analogie au terme Hi-Fi (utilisé depuis 1950[3]) pour High Fidelity (apparu dans les années 30[3]), employé dans le domaine audio, mais bien que la Wi-Fi Alliance ait elle-même employé fréquemment ce terme dans divers articles de presse – notamment dans le slogan « The Standard for Wireless Fidelity », selon Phil Belanger, membre fondateur de la Wi-Fi Alliance, le terme Wi-Fi n’a jamais eu de réelle signification[4]. Il s’agit bien néanmoins d’un jeu de mots avec Hi-Fi.

 

Le terme Wi-Fi a été utilisé pour la première fois de façon commerciale en 1999, et a été inventé par la société Interbrand, spécialisé dans la communication de marque, afin de proposer un terme plus attractif que la dénomination technique « IEEE 802.11b Direct Sequence ». Interbrand est également à l’origine du logo rappelant le symbole yin-yang.

 

Technique

 

Structure (couches du protocole)

 

La norme 802.11 s’attache à définir les couches basses du modèle OSI pour une liaison sans fil utilisant des ondes électromagnétiques, c’est-à-dire :

 

La couche physique définit la modulation des ondes radioélectriques et les caractéristiques de la signalisation pour la transmission de données, tandis que la couche liaison de données définit l’interface entre le bus de la machine et la couche physique, notamment une méthode d’accès proche de celle utilisée dans le standard Ethernet et les règles de communication entre les différentes stations. La norme 802.11 propose donc en réalité trois couches (une couche physique appelée PHY et deux sous-couches relatives à la couche liaison de données du modèle OSI), définissant des modes de transmission alternatifs que l’on peut représenter de la manière suivante:

 

Couche Liaison de
données
802.2 (LLC)
802.8 (MAC)
Couche Physique
(PHY)
DSSS FHSS Infrarouges

 

Il est possible d’utiliser n’importe quel protocole de transport sur un réseau 802.11 au même titre que sur un réseau ethernet.

 

Modes de mise en réseau

 

Le mode infrastructure

 

Le mode infrastructure est un mode de fonctionnement qui permet de connecter les ordinateurs équipés d’une carte Wi-Fi entre eux via un ou plusieurs Point d’accès (PA) qui agissent comme des concentrateurs (exemple : répéteur ou commutateur en réseau Ethernet). Autrefois ce mode était essentiellement utilisé en entreprise. Dans ce cas la mise en place d’un tel réseau oblige de poser à intervalle régulier des bornes (PA) dans la zone qui doit être couverte par le réseau. Les bornes, ainsi que les machines, doivent être configurées avec le même nom de réseau (SSID = Service Set IDentifier) afin de pouvoir communiquer. L’avantage de ce mode, en entreprise, est de garantir un passage obligé par le PA, il est donc possible de vérifier qui accède au réseau. Actuellement les FAI, les boutiques spécialisées et les grandes surfaces fournissent aux particuliers des routeurs sans fil qui fonctionnent en mode Infrastructure, tout en étant très faciles à configurer.

 

Le mode « ad hoc »

 

Article détaillé : Réseau ad hoc.

 

Le mode « Ad-Hoc » est un mode de fonctionnement qui permet de connecter directement les ordinateurs équipés d’une carte Wi-Fi, sans utiliser un matériel tiers tel qu’un point d’accès (en anglais : Access Point [AP]). Ce mode est idéal pour interconnecter rapidement des machines entre elles sans matériel supplémentaire (exemple : échange de fichiers entre portables dans un train, dans la rue, au café…). La mise en place d’un tel réseau se borne à configurer les machines en mode ad hoc (au lieu du mode Infrastructure), la sélection d’un canal (fréquence), d’un nom de réseau (SSID) communs à tous et si nécessaire d’une clé de cryptage. L’avantage de ce mode est de s’affranchir de matériels tiers, c’est-à-dire de pouvoir fonctionner en l’absence de point d’accès. Des protocoles de routage dynamique (exemples : OLSR, AODV…) rendent envisageable l’utilisation de réseaux maillés autonomes dans lesquels la portée ne se limite pas à ses voisins (tous les participants jouent le rôle du routeur).

 

Les différentes normes Wi-Fi

 

La norme IEEE 802.11 est en réalité la norme initiale offrant des débits de 1 ou 2 Mbit/s (Wi-Fi est un nom commercial, et c’est par abus de langage que l’on parle de « normes » Wi-Fi). Des révisions ont été apportées à la norme originale afin d’améliorer le débit (c’est le cas des normes 802.11a, 802.11b, 802.11g et 802.11n, appelées normes 802.11 physiques) ou de spécifier des détails de sécurité ou d’interopérabilité. Voici un tableau présentant les différentes révisions de la norme 802.11 et leur signification :

 

Norme Nom Description
802.11a Wi-Fi 5 La norme 802.11a (baptisée Wi-Fi 5) permet d’obtenir un haut débit (dans un rayon de 10 mètres : 54 Mbit/s théoriques, 27 Mbit/s réels). La norme 802.11a spécifie 52 canaux de sous-porteuses radio dans la bande de fréquences des 5 GHz (bande U-NII = Unlicensed ‘- National Information Infrastructure), huit combinaisons, non superposées sont utilisables pour le canal principal.
802.11b Wi-Fi La norme 802.11b est la norme la plus répandue en base installée actuellement. Elle propose un débit théorique de 11 Mbit/s (6 Mbit/s réels) avec une portée pouvant aller jusqu’à 300 mètres (en théorie) dans un environnement dégagé. La plage de fréquences utilisée est la bande des 2,4 GHz (Bande ISM = Industrial Scientific Medical) avec, en France, 13 canaux radio disponibles dont 3 au maximum non superposés (1 – 6 – 11, 2 – 7 – 12, …).
802.11c Pontage 802.11 vers 802.1d La norme 802.11c n’a pas d’intérêt pour le grand public. Il s’agit uniquement d’une modification de la norme 802.1d afin de pouvoir établir un pont avec les trames 802.11 (niveau liaison de données).
802.11d Internationalisation La norme 802.11d est un supplément à la norme 802.11 dont le but est de permettre une utilisation internationale des réseaux locaux 802.11. Elle consiste à permettre aux différents équipements d’échanger des informations sur les plages de fréquences et les puissances autorisées dans le pays d’origine du matériel.
802.11e Amélioration de la qualité de service La norme 802.11e vise à donner des possibilités en matière de qualité de service au niveau de la couche liaison de données. Ainsi, cette norme a pour but de définir les besoins des différents paquets en termes de bande passante et de délai de transmission de manière à permettre, notamment, une meilleure transmission de la voix et de la vidéo.
802.11f Itinérance ((en)roaming) La norme 802.11f est une recommandation à l’intention des vendeurs de points d’accès pour une meilleure interopérabilité des produits. 

Elle propose le protocole Inter-Access point roaming protocol permettant à un utilisateur itinérant de changer de point d’accès de façon transparente lors d’un déplacement, quelles que soient les marques des points d’accès présentes dans l’infrastructure réseau. Cette possibilité est appelée itinérance ((en)roaming).

802.11g La norme 802.11g est la plus répandue dans le commerce actuellement. Elle offre un haut débit (54 Mbit/s théoriques, 25 Mbit/s réels) sur la bande de fréquences des 2,4 GHz. La norme 802.11g a une compatibilité ascendante avec la norme 802.11b, ce qui signifie que des matériels conformes à la norme 802.11g peuvent fonctionner en 802.11b. Cette aptitude permet aux nouveaux équipements de proposer le 802.11g tout en restant compatibles avec les réseaux existants qui sont souvent encore en 802.11b. Le principe est le même que celui de la norme 802.11a puisqu’on utilise ici 52 canaux de sous-porteuses radio mais cette fois dans la bande de fréquences des 2,4 GHz. Ces sous-porteuses permettent une modulation OFDM autorisant de plus haut débit que les modulations classique BPSk, QPSK ou QAM utilisé par la norme 802.11g. 

Cette modulation OFDM étant interne à l’une des 14 bandes 20 MHz possibles, il est donc toujours possible d’utiliser au maximum 3 de ces canaux non superposés (1 – 6 – 11, 2 – 7 – 12, …) et ce, par exemple, pour des réseaux différents.

802.11h La norme 802.11h vise à rapprocher la norme 802.11 du standard Européen (Hiperlan 2, d’où le h de 802.11h) et être en conformité avec la réglementation européenne en matière de fréquences et d’économie d’énergie.
802.11i La norme 802.11i a pour but d’améliorer la sécurité des transmissions (gestion et distribution des clés, chiffrement et authentification). Cette norme s’appuie sur l’AES (Advanced Encryption Standard) et propose un chiffrement des communications pour les transmissions utilisant les standards 802.11a, 802.11b et 802.11g.
802.11IR La norme 802.11IR a été élaborée de manière à utiliser des signaux infra-rouges. Cette norme est désormais dépassée techniquement.
802.11j La norme 802.11j est à la réglementation japonaise ce que le 802.11h est à la réglementation européenne.
802.11n WWiSE (World-Wide Spectrum Efficiency) ou TGn Sync La norme 802.11n est disponible depuis le 11 septembre 2009. Le débit théorique atteint les 300 Mbit/s (débit réel de 100 Mbit/s dans un rayon de 100 mètres) grâce aux technologies MIMO (Multiple-Input Multiple-Output) et OFDM (Orthogonal Frequency Division Multiplexing). En avril 2006, des périphériques à la norme 802.11n commencent à apparaître basés sur le Draft 1.0 (brouillon 1.0) ; le Draft 2.0 est sorti en mars 2007, les périphériques basés sur ce brouillon seraient compatibles avec la version finale du standard. Des équipements qualifiés de « pré-N » sont disponibles depuis 2006 : ce sont des équipements qui mettent en œuvre une technique MIMO d’une façon propriétaire, sans rapport avec la norme 802.11n. 

Le 802.11n a été conçu pour pouvoir utiliser les fréquences 2,4 GHz ou 5 GHz. Les premiers adaptateurs 802.11n actuellement disponibles sont généralement simple-bande à 2,4 GHz, mais des adaptateurs double-bande (2,4 GHz ou 5 GHz, au choix) ou même double-radio (2,4 GHz et 5 GHz simultanément) sont également disponibles. Le 802.11n saura combiner jusqu’à 8 canaux non superposés, ce qui permettra en théorie d’atteindre une capacité totale effective de presque un gigabit par seconde.

802.11s Réseau Mesh La norme 802.11s est actuellement en cours d’élaboration. Le débit théorique atteint aujourd’hui 10 à 20 Mbit/s. Elle vise à implémenter la mobilité sur les réseaux de type Ad-Hoc. Tout point qui reçoit le signal est capable de le retransmettre. Elle constitue ainsi une toile au-dessus du réseau existant. Un des protocoles utilisé pour mettre en œuvre son routage est OLSR.

 

Linksys, la division grand public de Cisco Systems, a développé la technologie SRX pour « Speed and Range Expansion » (« Vitesse et Portée Étendue »). Celle-ci superpose le signal de deux signaux 802.11g pour doubler le taux de transfert des données. Le taux maximum de transfert des données via un réseau sans fil SRX400 dépasse donc les capacités d’un réseau filaire Ethernet 10/100 que l’on trouve dans la plupart des réseaux.

 

Controverses, risques et limites

 

Confidentialité

 

L’accès sans fil aux réseaux locaux rend nécessaire l’élaboration d’une politique de sécurité dans les entreprises et chez les particuliers.

 

Il est notamment possible de choisir une méthode de codage de la communication sur l’interface radio. La plus commune est l’utilisation d’une clé dite Wired Equivalent Privacy (WEP), communiquée uniquement aux utilisateurs autorisés du réseau.

 

Toutefois, il a été démontré que cette prétendue sécurité était factice et facile à violer[5], avec l’aide de programmes tels que Aircrack.

 

En attente d’un standard sérieux de nouvelles méthodes ont été avancées, comme Wi-Fi Protected Access (WPA) ou plus récemment WPA2.

 

Depuis l’adoption du standard 802.11i, on peut raisonnablement parler d’accès réseau sans fil sécurisé.

 

En l’absence de 802.11i, on peut utiliser un tunnel chiffré (VPN) pour se raccorder au réseau de son entreprise sans risque d’écoute ou de modification.

 

Il existe encore de nombreux points d’accès non sécurisés chez les particuliers. Il se pose le problème de la responsabilité du détenteur de la connexion Wi-Fi lorsque l’intrus réalise des actions illégales sur Internet (par exemple, en diffusant grâce à cette connexion des vidéos volées).

 

D’autres méthodes de sécurisation existent, avec, par exemple, un serveur Radius chargé de gérer les accès par nom d’utilisateur et mot de passe.

 

Risque sanitaire

 

Article détaillé : Risques sanitaires des télécommunications.

 

Le Wi-Fi apparaît au moment où se développent des interrogations quant à l’impact des radiofréquences sur la santé de l’homme. Des débats scientifiques se sont multipliés autour du téléphone mobile, et le débat s’est étendu à l’ensemble des technologies radio reposant sur les micro-ondes, notamment les technologies GSM, Wimax, UMTS (la 3G), ou encore HSDPA (la 3G+), DECT, et le Wi-Fi.

 

Les ondes émises par les équipements Wi-Fi se diffusent dans l’ensemble de l’environnement. Toutefois, la fréquence de ces ondes est relativement élevée (2,4 GHz) et de ce fait elles traversent mal les murs. En outre, la puissance émise par les équipements Wi-Fi (~30 mW) est vingt fois moindre que celle émise par les téléphones mobiles (~600 mW)[6]. De plus, le téléphone est généralement tenu à proximité immédiate du cerveau, ce qui n’est pas le cas des équipements Wi-Fi (à l’exception des téléphones Wi-Fi) ; or, à une dizaine de centimètres, la densité de puissance du signal est déjà fortement atténuée (pour une antenne isotrope, elle est inversement proportionnelle au carré de la distance : {P=0,0795 \times \frac{PIRE}{D^2}}, avec PIRE[W] = Puissance Isotrope Rayonnée Equivalente). Malgré la permanence d’exposition, les effets thermiques des ondes Wi-Fi sont donc unanimement reconnus comme étant négligeables.

 

Cependant, certains scientifiques font remarquer que les ondes Wi-Fi sont des ondes impulsives et les risques encourus ne devraient pas être évalués uniquement selon leurs effets thermiques (proportionnés à la densité de puissance), mais également selon leurs effets non thermiques à moyen et long terme (comme les effets génotoxiques).

 

Par ailleurs, il a été noté[réf. nécessaire] que les sujets souffrants d’électro-hypersensibilité sont tout aussi incommodés, voire plus, par les ondes Wi-Fi, malgré les faibles puissances des radiations reçues. Toutefois il n’a pas été démontré à ce jour que les symptômes des sujets dits « électro-hypersensibles » soient effectivement dus aux ondes radio : suite à des expériences en double-aveugle, l’Organisation mondiale de la santé (OMS) a d’ailleurs conclu[7] qu’il n’y avait aucune corrélation entre la présence ou non des ondes et les symptômes observés. Ces derniers sont donc dus à d’autres facteurs (mauvaise qualité de l’air, mauvais éclairage, stress…).

 

Plusieurs organismes ont réalisé des études au sujet de l’effet sur la santé du Wi-Fi, et ont, dans un premier temps, majoritairement conclu qu’il n’y avait aucune raison de craindre que le Wi-Fi soit dangereux pour la santé dans le cadre d’une utilisation normale. Parmi ces organismes, on peut citer :

 

  • L’Organisation mondiale de la santé (OMS): selon l’OMS, l’exposition prolongée aux ondes du Wi-Fi ne présente aucun risque pour la santé. Elle conclut que «compte tenu des très faibles niveaux d’exposition et des résultats des travaux de recherche obtenus à ce jour, il n’existe aucun élément scientifique probant confirmant d’éventuels effets nocifs des stations de base et des réseaux sans fil pour la santé»[8].
  • Le Journal of Health Physics a effectué de nombreuses mesures en France, en Allemagne, en Suède, et aux États-Unis[9]. Dans tous les cas le niveau du signal Wi-Fi détecté reste bien plus bas que les limites d’exposition internationales (ICNIRP et IEEE C95.1-2005), mais aussi bien plus faible que les autres champs électromagnétiques présents aux mêmes endroits.
  • La Fondation Santé et Radiofréquences a organisé une rencontre scientifique en octobre 2007 pour faire le point sur l’état des connaissances concernant l’effet des radiofréquences sur la santé, notamment pour le Wi-Fi. Une conclusion est que «Les études menées jusqu’à aujourd’hui n’ont permis d’identifier aucun impact des radiofréquences sur la santé en deçà [des limites de puissance légales]». Pour ceux que le Wi-Fi inquièterait tout de même, il est précisé que «Pour minimiser l’exposition aux radiofréquences émise par ces systèmes, il suffit de les éloigner des lieux où une personne se tient pendant de longues périodes. Quelques dizaines de centimètres suffisent à diminuer nettement le niveau d’exposition.»[10]
  • L’Agence française de sécurité sanitaire de l’environnement et du travail (AFSSET) synthétise les connaissances scientifiques actuelles sur son site Web. On y lit notamment: «Malgré un très grand nombre d’études réalisées aussi bien sur des cultures cellulaires in vitro que sur des animaux in vivo depuis plusieurs années, les chercheurs n’ont pu prouver l’existence de manière sûre et reproductible d’effets qui ne seraient pas dus à un échauffement créé par l’absorption des microondes, et qui posséderaient un réel impact sanitaire. Il convient donc de poursuivre les recherches afin de mieux comprendre les mécanismes d’interaction entre les rayonnements hyperfréquences et les tissus biologiques. »[11]. Toutefois, le rapport définitif de l’Affset n’est pas encore disponible (prévu pour fin 2009).
  • L’école Supélec a publié en décembre 2006 une étude[12] sur les champs électromagnétiques produits par des équipements Wi-Fi, en mesurant notamment l’effet cumulatif de nombreux équipements Wi-Fi situés à proximité les uns des autres: leur conclusion est que les limites légales sont très loin d’être atteintes.
  • L’Agence de protection de la santé au Royaume-Uni (Health Protection Agency(en) (HPA)) indique qu’elle n’a connaissance d’aucune preuve cohérente permettant de penser que les ondes Wi-Fi ont un effet sur la santé[13]. Le Dr Michael Clarka de l’HPA a souligné qu’une personne assise à proximité d’un hotspot Wi-Fi pendant un an reçoit la même dose d’ondes qu’une personne qui utilise son téléphone portable pendant 20 minutes. Toutefois, l’agence déclare opportun de mener de nouvelles études sur ce sujet.

Malgré ces conclusions globalement rassurantes, le Wi-Fi a été officiellement déconseillé, voire interdit dans des écoles en Angleterre, en Allemagne et en Autriche. Au Canada, deux universités (Université de LakeHead et Université de L’Ontario) en ont interdit l’installation. En France, cinq bibliothèques parisiennes ont débranché leurs installations Wi-Fi après que plusieurs membres du personnel se sont déclarés incommodés (fin 2008, ces bornes ont été rebranchées après audit technique des sites). La Bibliothèque nationale de France, qui a décidé d’appliquer le principe de précaution, a choisi l’alternative filaire par le biais d’une liaison Ethernet, multipliant les possibilités de connexion par prise-broche RJ-45 dans ses salles de lecture.

 

  • Le Bioinitiative Working Group, un groupe de 14 chercheurs internationaux, a publié en août 2007 le rapport Bioinitiative[14], globalement très pessimiste vis-à-vis des télécommunications sans fil au vu des enquêtes épidémiologiques dont il rend compte. En ce qui concerne le Wi-Fi, le rapport estime qu’il ne faut pas limiter le développement de la technologie Wi-FI si les seuils de puissance EMF préconisés par l’ICNIRP sont respectés, et compte tenu de la très faible puissance d’émission de cette technologie, préconise dans le doute, selon le principe de précaution, l’utilisation d’alternatives filaires à cette technologie dans les écoles et les bibliothèques avec de jeunes enfants[15].

Partage des bandes de fréquences

 

Le Wi-Fi utilise une bande de fréquence étroite dite « Industrielle, Scientifique et Médicale », ISM, 2,4 à 2,4835 GHz, de type partagée avec d’autres colocataires conduisant à des problèmes de cohabitation qui se traduisent par des interférences, brouillages causés par les fours à micro-ondes, les transmetteurs domestiques, les relais, la télémesure, la télémédecine, la télé-identification, les caméras sans fil, le Bluetooth, les émissions de télévision amateur (amateur TV ou ATV), etc. Inversement, certains systèmes comme la technique RFID commencent à fusionner avec le Wi-Fi afin de bénéficier de l’infrastructure déjà en place[16],[17].

 

En Wi-Fi, il est recommandé de ne pas utiliser la même fréquence que celle utilisée par les voisins immédiats (collisions) et de ne pas utiliser une fréquence trop proche (interférences). Voir liste des canaux Wi-Fi.

 

Applications et usages du Wi-Fi

 

Une telle technologie peut ouvrir les portes à une infinité d’applications pratiques. Elle peut être utilisée avec de l’IPv4, voire de l’IPv6, et permet le développement de nouveaux algorithmes distribués[18].

 

Les utilisateurs des hotspots peuvent se connecter dans des cafés, des hôtels, des aéroports, etc., et accéder à Internet mais aussi bénéficier de tous les services liés à Internet (World Wide Web, courrier électronique, téléphonie (VoIP), téléphonie mobile (VoIP Mobile), téléchargements etc.). Cet accès est utilisable de façon fixe, mais parfois également en situation de mobilité (exemple : le hotspot disponible dans les trains Thalys).

 

Les hotspots Wi-Fi contribuent à constituer ce que l’on peut appeler un Réseau Pervasif. En anglais, « pervasive » signifie « omniprésent ». Le Réseau Pervasif est un réseau dans lequel nous sommes connectés, partout, tout le temps si nous le voulons, par l’intermédiaire de nos objets communicants classiques (ordinateurs, PDA, téléphones) mais aussi, demain, grâce à des objets multiples équipés d’une capacité de mémoire et d’intelligence : baladeurs, systèmes de positionnement GPS pour voiture, jouets, lampes, appareils ménagers, etc. Ces objets dits « intelligents » sont d’ores et déjà présents autour de nous et le phénomène est appelé à se développer avec le développement du Réseau Pervasif. À observer ce qui se passe au Japon, aux États-Unis mais aussi en France, l’objet communicant est un formidable levier de croissance pour tout type d’industrie.

 

En parallèle des accès classiques de type hotspot, le Wi-Fi peut être utilisé pour la technologie de dernier kilomètre dans les zones rurales, couplé à des technologies de collecte de type satellite, fibre optique, Wimax ou liaison louée.

 

Des téléphones Wi-Fi (GSM, DECT, PDA) utilisant la technologie VoIP commencent à apparaître.

 

À Paris, il existe aussi un réseau important de plus de 200 cafés offrant aux consommateurs une connexion Wi-Fi gratuite. Depuis juillet 2007, Paris WI-FI propose gratuitement à Paris 400 points d’accès dans 260 lieux municipaux.

 

Les antennes Wi-Fi

 

Pour ce type d’antenne existent :

 

  • le dipôle ressemblant à un stylo et qui est l’antenne tige basique (¼ d’onde) la plus rencontrée. Elle est omnidirectionnelle, 0dBd de gain, et est dédiée à la desserte de proximité. Elle équipe aussi la caméra sans fil numérique Wi-Fi 2,4GHz (conforme CE) permettant une PIRE (Puissance Isotrope Rayonnée Équivalente) maximale autorisée de 100mW, 20dBm. (D standard indicatif = 500m à vue).
  • L’antenne colinéaire souvent installée sur le toit. Elle est omnidirectionnelle, son gain, 7 à 15dBi, est lié à sa dimension verticale pouvant atteindre 2m.

Ces deux premières descriptions, fonctionnant en polarisation V, peuvent être considérées comme des antennes station d’accueil ou de base puisque compatibles avec un environnement 360°.

 

Antennes directionnelles

 

  • L’antenne panneau peut être intérieurement un réseau d’antenne quad ou d’antenne patch, ou un réseau de dipôles. Le gain commence vers 8dBi (8 × 8cm) pour atteindre 21dBi (45 × 45 × 4,5cm). C’est l’antenne qui présente le meilleur rapport gain/encombrement et aussi le meilleur rendement, qui tourne autour de 85 à 90%. Au-delà de ce gain maximum, elle n’est plus fabriquée, car surgissent les problèmes de couplage (pertes) entre étages des dipôles et il faudrait en plus envisager le doublement de la surface. Le volume d’une antenne panneau est minimal.
  • L’antenne type parabole pleine ou ajourée (grille). Son intérêt d’emploi se situe dans la recherche du gain obtenu à partir d’un diamètre théorique d’approche suivant:
    • 18dBi = 46cm,
    • 19dBi = 52cm,
    • 20dBi = 58cm,
    • 21dBi = 65cm,
    • 22dBi = 73cm,
    • 23dBi = 82cm,
    • 24dBi = 92cm,
    • 25dBi = 103cm,
    • 26dBi = 115cm,
    • 27dBi = 130cm,
    • 28dBi = 145cm,
    • 29dBi = 163cm,
    • 30dBi = 183cm.

Le rendement de la parabole est moyen, 45~55 %. Le volume de l’antenne, qui tient compte de la longueur du bracon, donc de la focale, est significatif.

 

Une parabole satellite (exemple TPS/CS sans tête 11-12 GHz) est exploitable en Wi-Fi, à condition de prévoir une source adaptée : cornet, patch ou quad mono ou double, etc.

 

Choix d’antenne

 

Les antennes à gain directionnelles ou omnidirectionnelles sont destinées à la « plus longue portée », possible, quelques kilomètres.

 

Les antennes panneaux et paraboliques sont uniquement directionnelles, c’est-à-dire qu’elles favorisent une direction privilégiée (plus ou moins ouverte) au détriment d’autres non souhaitées.

 

On retient que les antennes panneaux sont souvent préférées (voire préférables) lorsque le bilan de liaison est favorable, mais, dès que le système doit être plus performant, les paraboles deviennent nécessaires. Le point d’équilibre, à 21 dBi, se fait avec d’un côté un panneau carré de 45 cm et de l’autre une parabole d = 65 cm.

 

En conclusion, en directionnel, ou point à point, il est plus intéressant de s’équiper d’abord d’un panneau, puis, si les circonstances l’exigent, d’une parabole.

 

Les antennes Wi-Fi sont généralement dotées de connecteurs SMA, RP-SMA ou N selon le constructeur. Cependant, les antennes à gain (exprimé en dBi ou en dBd) employées à l’émission (réception libre) doivent respecter la réglementation PIRE (Puissance Isotrope Rayonnée Équivalente).

 

Autres antennes

 

Il existe d’autres antennes, moins connues, et celles conçues par les wifistes, comme l’antenne cornet, les antennes 2,5 GHz de réalisation amateur, les Yagi, les cornières, les dièdres, les « discones » etc., mais seules les tiges, les panneaux et les paraboles sont significativement utilisées.

 

Pour améliorer les échanges, il peut être monté au plus près de l’antenne un préamplificateur d’antenne (RX) avec ou sans ampli de puissance (TX) mais toujours de type bidirectionnel.

 

Compatibilité des OS de type UNIX avec la norme Wi-Fi

 

  • Les systèmes BSD (FreeBSD, NetBSD et OpenBSD) ont eu un support pour la plupart des adaptateurs depuis la fin 1998. Du code pour les puces Atheros, Prism, Harris/Intersil et Aironet (constructeur Wi-Fi du même nom) est principalement partagé par les 3 BSD. Darwin et Mac OS X, en dépit de leur chevauchement avec FreeBSD, ont leur propre et unique implémentation. Dans OpenBSD 3.7, d’autres pilotes pour des chipsets sans-fils sont disponibles, y compris RealTek RTL8180L, Ralink RT25x0, Atmel AT76C50x et Intel 2100/2200BG/2225BG/2915ABG. Ceci est dû, au moins en partie, à l’effort d’OpenBSD pour soutenir les pilotes open source pour les composants réseau sans fil. Il est possible que de tels pilotes puissent être implémentés par d’autres BSDs s’ils n’existent pas déjà. Le NdisWrapper est aussi disponible sous FreeBSD.
  • Linux: Depuis la version 2.6, certains matériels Wi-Fi sont pris en charge nativement par le noyau Linux. Le support pour Orinoco, Prism, Aironet et Atmel est inclus dans la branche principale de l’arborescence du noyau, alors que ADMtek et Realtek RTL8180L sont tous deux gérés par des pilotes de code fermé fournis par les fabricants et des pilotes open source écrits par la communauté. Les radios Intel Calexico sont gérées par des drivers open source disponible sur SourceForge.net. Atheros et Ralink RT2x00 sont gérés à travers des projets open source. Depuis le noyau Linux 2.6.17, les composants Broadcom, utilisés sur des cartes telles que Apple Airport Extreme, sont gérés grâce au pilote libre b43. Dans les autres cas, le support pour d’autres cartes sans fil est disponible à travers l’usage du pilote NdisWrapper open source: il permet à Linux de faire tourner sur des architectures Intel x86 le pilote du constructeur, prévu pour Windows. La FSF a recommandé certaines cartes[19].

 

Publié dans Non classé | Pas de Commentaire »

Introduction sur le réseau informatique

Posté par kanyanta le 19 avril 2011

Réseau informatique

Un réseau informatique est un ensemble d’équipements reliés entre eux pour échanger des informations. Par analogie avec un filet (un réseau est un « petit rets », c’est-à-dire un petit filet), on appelle nœud (node) l’extrémité d’une connexion, qui peut être une intersection de plusieurs connexions (un ordinateur, un routeur, un concentrateur, un commutateur).

Indépendamment de la technologie sous-jacente, on porte généralement une vue matricielle sur ce qu’est un réseau. De façon horizontale, un réseau est une strate de trois couches : les infrastructures, les fonctions de contrôle et de commande, les services rendus à l’utilisateur. De façon verticale, on utilise souvent un découpage géographique : réseau local, réseau d’accès et réseau d’interconnexion.

Historique

Les réseaux informatiques filaires locaux existent depuis le milieu des années 1970 lorsque les universités américaines commencèrent à avoir besoin d’interconnexion rapide entre les ordinateurs présents sur un même site [1].

Les réseaux informatiques filaires étendus sont devenus nécessaires et populaires depuis les années 1970 lorsque les fabricants de matériel informatique IBM et Digital equipment créèrent les architectures SNA et DECnet, ceci en conjonction avec la digitalisation du réseau de téléphone d’AT&T ( voir Réseau téléphonique commuté)[2] qui permit la mise en place de Connexions dédiées à moyen débits entre sites distants (en oppositions aux connexions bas-débits par modem).

Voici une liste non-exhaustive des protocoles réseaux qui existent à ce jour (par type de réseau):

Infrastructures

Les infrastructures ou supports peuvent être sur des câbles dans lesquels circulent des signaux électriques, l’atmosphère (ou le vide spatial) où circulent des ondes radio, ou des fibres optiques qui propagent des ondes lumineuses. Elles permettent de relier « physiquement » des équipements assurant l’interconnexion des moyens physiques qui sont définis par des protocoles. Les équipements d’un réseau sont connectés directement ou non entre eux, conformément à quelques organisations types connues sous le nom de topologie de réseau. Les principaux types de réseaux filaires pour les réseaux informatiques d’entreprises ou de particuliers utilisent les protocoles suivant qui proviennent du standard Ethernet :

Plusieurs normes définissent les modalités de fonctionnement des réseaux hertziens, comme par exemple la norme Wi-Fi (IEEE 802.11).

Les courants porteurs en ligne (CPL) permettent quant à eux de transporter des flux d’information sur un réseau électrique local.

Protocoles et services

Les protocoles de communication définissent de façon formelle et interopérable la manière dont les informations sont échangées entre les équipements du réseau. Des logiciels dédiés à la gestion de ces protocoles sont installés sur les équipements d’interconnexion que sont par exemple les commutateurs réseau, les routeurs, les commutateurs téléphoniques, les antennes GSM, etc. Les fonctions de contrôle ainsi mises en place permettent une communication entre les équipements connectés. Le protocole probablement le plus répandu est IP qui permet l’acheminement des paquets jusqu’à sa destination. Deux protocoles de niveau supérieur UDP et TCP permettent le transport de données. La première permet l’envoi de données d’une manière non fiable (Il n’y a aucune garantie que le destinataire recevra le paquet). L’autre permet au contraire une transmission fiable des données (TCP garantit chaque extrémité d’un canal de communication qu’une information envoyée a bien été reçue ou alors prévient cette extrémité - après plusieurs ré-essais infructueux - du problème). Les services réseau se basent sur les protocoles pour fournir, par exemple :

  • des transferts de textes (SMS…) ;
  • ou de données (Internet…) ;
  • des communications vocales (téléphone…) ; VoIP
  • ou des diffusions d’images (télé…). TNT hd principalement.

Sous réseau

Un réseau (ne pas confondre ce terme avec celui qui sert à désigner la couche n°3 dans le modèle OSI de l’ISO ou la couche Réseau dans la pile de protocoles Internet) ou sous réseau peut être composé de plusieurs réseaux ou sous réseaux à base d’équipements matériels. Dans le protocole IP les membres d’un même sous réseau ou réseau possèdent le même identifiant, calculable à partir de l’adresse IP et du masque de sous réseau. L’utilisation d’une architecture comprenant des sous-réseaux permet une gestion du parc informatique plus aisée (un sous-réseau par service ou par salle, par exemple) ou un broadcast sélectif.

Découpage géographique

Les réseaux informatiques sont classés suivant leur portée :

  • le réseau personnel (PAN) relie des appareils électroniques personnels ;
  • le réseau local (LAN) relie les ordinateurs ou postes téléphoniques situés dans la même pièce ou dans le même bâtiment ;

le réseau local (WLAN) est un réseau LAN utilisant le technologie WIFI ;

  • le réseau métropolitain (MAN) est un réseau à l’échelle d’une ville ;
  • le réseau étendu (WAN) est un réseau à grande échelle qui relie plusieurs sites ou des ordinateurs du monde entier

Également (à titre indicatif):

  • le réseau régional (RAN) qui a « pour objectif de couvrir une large surface géographique. Dans le cas des réseaux sans fil, les RAN peuvent avoir une cinquantaine de kilomètres de rayon, ce qui permet, à partir d’une seule antenne, de connecter un très grand nombre d’utilisateurs. Cette solution devrait profiter du dividende numérique, c’est-à-dire des bandes de fréquences de la télévision analogique, qui seront libérés, après le passage au tout numérique, fin 2011 en France ».

Découpage fonctionnel

Un réseau peut être classé en fonction de son utilisation et des services qu’il offre. Ce découpage recoupe également la notion d’échelle. Ainsi, pour les réseaux utilisant les technologies Internet (famille des protocoles TCP/IP), la nomenclature est la suivante :

  • Intranet : le réseau interne d’une entité organisationnelle
  • Extranet : le réseau externe d’une entité organisationnelle
  • Internet : le réseau des réseaux interconnectés à l’échelle de la planète

Catégories de réseau informatique

Il existe plusieurs façons de catégoriser un réseau informatique.

Les réseaux informatiques peuvent être catégorisés en termes d’étendue :

Les réseaux informatiques peuvent aussi être catégorisés par relation fonctionnelle entre les composants :

Ils peuvent également être catégorisés par topologie de réseau :

Les réseaux informatiques peuvent être implémentés en utilisant plusieurs piles de protocoles, ou avec des combinaisons de médias et de couches de protocoles. Une liste des protocoles existants est disponible à Protocole de communication et IEEE 802.

Sujets connexes:

 

Publié dans Non classé | Pas de Commentaire »

LE ROUTEUR

Posté par kanyanta le 19 avril 2011

Routeur

 

Un routeur est un élément intermédiaire dans un réseau informatique assurant le routage des paquets. Son rôle est de faire transiter des paquets d’une interface réseau vers une autre, selon un ensemble de règles formant la table de routage. C’est un équipement de couche 3 du modèle OSI.

 

Il ne doit pas être confondu avec un commutateur (couche 2) ou une passerelle (couche 3 et supérieures).

 

Histoire

 

Le premier équipement que l’on peut qualifier d’ancêtre du routeur est un relais de paquet nommé Interface Message Processor (IMP), en 1969. Les IMP interconnectés constituaient le réseau ARPANET, le premier réseau à commutation de paquet. Le concept de routeur, alors appelé passerelle (gateway), doit son origine à un groupe de recherche international nommé International Network Working Group (INWG) chargé d’étudier les aspects liés à l’interconnexion des réseaux au début des années 1970[1].

 

Ces passerelles se distinguaient des relais de paquets en ce sens qu’elles permettaient les connexions entre réseau dissemblables, comme des liens série et des réseaux locaux. D’autre part, elles opéraient en mode sans connexion et n’assuraient pas le transport fiable de bout en bout, laissant la tâche de vérifier la bonne délivrance des données aux hôtes aux extrémités du réseau.

 

Ces idées furent développées pour créer des réseaux opérationnels : d’une part le programme DARPA qui développe la suite de protocoles TCP/IP qui constitue aujourd’hui le protocole au cœur d’Internet[2], et d’autre part le PARC universal packet system développé par Xerox PARC, qui obtint moins d’attention en dehors de Xerox[3].

 

Les premiers routeurs Xerox sont opérationnels en 1974. Les premiers routeurs IP proprement dits sont déployés par BBN dans le cadre du programme DARPA en 1975-1976. À la fin de l’année 1976, trois PDP-11 utilisés comme routeurs sont en service dans ce réseau expérimental[4].

 

Les premiers routeurs multiprotocoles sont développés par des chercheurs au MIT et à Stanford en 1981, toujours sur des PDP-11[5],[6],[7],[8]

 

Les réseaux actuels étant essentiellement basés sur IP, les routeurs multi-protocoles ont perdu de leur importance initiale qu’ils avaient dans des réseaux ou coexistaient AppleTalk, DECnet, IP et les protocoles Xerox.

 

Jusqu’aux années 1980, ce sont des ordinateurs à usage général qui servent de routeurs. Plus tard, du matériel spécialisé permettra d’accélérer le transmission du trafic. Certains systèmes d’exploitation dédiés utilisés sur les routeurs, comme ceux de Juniper Networks ou d’Extreme Networks, sont dérivés de versions Unix modifiées.

 

Matériels et logiciels

  • Le routage est aujourd’hui très souvent associé au protocole de communication IPv4, alors que la migration vers IPv6 fait également intervenir le routage d’IPv6. D’autres protocoles moins populaires existent, et sont également routables.
  • Les premiers routeurs d’Arpanet étaient appelés les Interface Message Processors .
  • Bien que des ordinateurs ordinaires puissent être utilisés pour effectuer le routage, les routeurs modernes comportent en général du matériel supplémentaire pour accélérer les fonctions critiques comme le transfert (acheminement) de paquets ; ces routeurs spécialisés ne sont pas toujours compatibles IPv6.
  • Ce type de matériel ne nécessite pas de stockage magnétique, une mémoire non-volatile de petite taille suffit à en conserver les principaux paramètres en cas de rupture momentanée du secteur.
  • Les routeurs actuels jouent pour les données un rôle analogue à celui des commutateurs téléphoniques pour la voix. Certaines fonctions de ces derniers sont d’ailleurs de plus en plus reprises par les routeurs dans la convergence appelée voix ou téléphonie sur IP (VoIP, ToIP).
  • Un routeur doit être connecté à au moins deux réseaux informatiques pour être utile, sinon il n’aura rien à router. L’appareil crée et/ou maintient une table, appelée table de routage, laquelle mémorise les meilleures routes vers les autres réseaux, via les métriques associées à ces routes. Voir l’article sur le routage pour plus de détails sur le fonctionnement de ce processus.
  • Un routeur moderne se présente comme un boîtier regroupant carte mère, microprocesseur, mémoire ROM, RAM ainsi que les ressources réseaux nécessaires (Wi-Fi, Ethernet…). On peut donc le voir comme un ordinateur minimal dédié, dont le système d’exploitation peut être un Linux allégé. De même, tout ordinateur disposant des interfaces adéquates (au minimum deux, souvent Ethernet) peut faire office de routeur s’il est correctement configuré (certaines distributions Linux minimales spécialisent la machine dans cette fonction).

La fonction de routage traite les adresses IP et les dirige selon l’algorithme de routage et sa table associée, cette dernière contient la correspondance des adresses réseau avec les interfaces physiques du routeur où sont connectés les autres réseaux.

 

Fabricants de routeurs[modifier]

 

Les principaux fabricants de routeur sont :

 

Pour entreprises, opérateurs télécom et FAI (ISP)

Pour particuliers (modem/routeur)

Routeurs « logiciels »

 

Avec un logiciel adapté et au moins deux cartes réseaux, il est possible de transformer un ordinateur ordinaire (même d’un modèle ancien) en un routeur.

 

La plupart des systèmes d’exploitation basés sur UNIX (par exemple Linux ou xBSD) supportent nativement un routage « basique ». Ils disposent également des logiciels nécessaires au routage « avancé » :

 

Publié dans Non classé | Pas de Commentaire »

Le Téléchargement des Fichiers

Posté par kanyanta le 19 avril 2011

TÉLÉCHARGEMENT DES FICHERS

 

En informatique, le téléchargement est l’opération de transmission d’informations – programmes, données, images, sons, vidéos – d’un ordinateur à un autre via un canal de transmission, en général l’internet ou un intranet.

 

En télécommunications, le téléchargement est l’opération d’échange de données numériques entre un client et un serveur.

 

De nos jours, la notion de téléchargement est très maladroitement associée, par abus de langage, uniquement aux téléchargements de fichiers stockés sur disque dur, après un passage par la mémoire vive des ordinateurs.

 

Il existe de nombreuses formes de téléchargements, comme la lecture en continu (ou streaming) qui est une application moderne du téléchargement (son véritable sens), ou le pair à pair (P2P) (échange de données entre clients qui ont un double rôle de clients et de serveurs à la fois). La navigation sur le web est également une application du téléchargement. En effet, quand un internaute surf sur le web, le navigateur télécharge du texte et des images, pour les afficher sous forme de pages web.

 

Sens de circulation de l’information

 

En anglais, la distinction est faite entre le téléchargement depuis un ordinateur distant (téléchargement descendant ou download) et le téléchargement vers un ordinateur distant (téléchargement montant ou upload).

 

En français, télécharger signifie recevoir un fichier que l’on a demandé. Il n’y a par contre pas vraiment de terme consacré pour l’envoi d’un fichier (sans demande préalable). On peut parler de téléversement[1], mais ce terme reste peu utilisé.

 

De plus, on distingue parfois les ordinateurs clients des ordinateurs serveurs, comme sur le Web. Dans ce cas, le téléchargement/téléversement est le plus souvent considéré du point de vue du client comme acteur de l’échange. On parle donc parfois de téléchargement vers un client lorsqu’on se trouve sur un serveur.

 

Pour rappel, la notion de client et de serveur est le fait que le client est celui qui prend l’initiative de la communication et que le serveur est celui qui attend.

 

En revanche dans l’autre architecture dite Pair-à-pair (P2P), dans laquelle il n’y a plus en théorie que des Clients, dont chacun (Peer) ne peut faire qu’une action : télécharger (sur sa demande), mais en aucun cas ils ne peuvent plus effectuer de téléversement chez un autre client (sans sa demande préalable, càd en fait son téléchargement).

 

Évolution de la langue française

 

Le terme téléchargement est aujourd’hui utilisé pour désigner principalement les réceptions de fichiers. Certains termes ont été proposés pour désigner les envois de fichiers, réduisant implicitement le terme télécharger à la seule réception.

 

A contrario, certaines propositions suggèrent deux nouveaux termes, un pour chacun des sens d’envoi/réception, laissant à téléchargement son sens originel.

 

Voici quelques propositions ou usages actuels :

 

domaine d’usage/source « Envoi vers » « Réception depuis »
utilisé au Québec téléversement téléchargement
sens de transit téléchargement montant téléchargement descendant
proposition dépose ou placement rapatriement
domaine de l’automatisme charger télécharger
analogie avec un cours d’eau téléchargements en amont téléchargements en aval
réseaux intelligents téléchargement télépose / télédépose
ordinateurs, monétique télédiffusion, télédistribution télécollecte

 

Détails techniques

 

Le téléchargement cache la localisation des fichiers et les voies de communication utilisées lors du téléchargement. Les différents canaux de transmission existants utilisent tous les propriétés des ondes électromagnétiques dans différents milieux reliés entre eux selon les cas avec un périphérique émetteur/récepteur adapté (modem et un autocommutateur, dongle, clé USB, antenne…) :

La vitesse de téléchargement, qui se mesure en Ko.s-1 (kilo-octet par seconde), peut varier en fonction de plusieurs critères : la connexion internet, la mémoire vive de l’ordinateur, ou encore le nombre de téléchargements parallèles.

 

Usages

 

Le téléchargement peut concerner des fichiers très différents (logiciel, musiques, documents, données). Il peut être libre et gratuit, soumis à contraintes, ou payant. Il peut être légal ou illégal, en fonction du contenu téléchargé et des pays d’origine et de destination de l’information ; en particulier, l’exportation de moyens de chiffrements depuis les États-Unis est réglementée.

 

Pour l’année 2005, les téléchargements par internet en France ont été chiffrés[2]à :

  • 1 milliard de fichiers musicaux
  • 120 millions de films
  • 160 millions de logiciels
  • 30 millions de jeux vidéo (logiciel)

Usages légaux

 

Des documents officiels peuvent être légalement et gratuitement téléchargés, depuis des sites comme europa.eu, ou legifrance.gouv.fr. Ces documents sont souvent des décisions administratives, gouvernementales, judiciaires, ou des encore des statistiques. Sur l’année 2005, le serveur europa.eu a totalisé 1 395 344 600 téléchargements de pages[3].

 

Le téléchargement libre gratuit et légal de logiciel est important. En particulier :

  • Le site Web d’OpenOffice.org rapporte que plus de 61 millions de téléchargements du logiciel de bureautique OpenOffice.org ont été effectués[4].
  • Le 19 octobre 2005, Firefox a passé la barre des 100 millions de téléchargements depuis Spread Firefox.
  • Entre le 2 juin 2006 et le 30 juillet 2006, l’installateur de Gimp pour Windows a été téléchargé entre 22754 et 44208 fois par jour depuis sourceforge [5], soit environ un million de téléchargements par mois.
  • De nombreuses distributions Linux, distribuées légalement sont aussi disponibles, de plus elles sont libres et sous différentes licences GPL (2.0 et 3.0).

Il est légal de télécharger depuis des Magasins de musique en ligne de la musique libre ou non.

 

Par ailleurs, de nombreux sites internet proposent le téléchargement de vidéos (Vidéo à la demande ou VOD), de musiques, de jeux, de logiciels, de données GPS ou de modèles 3D. En VOD, l’utilisation du fichier téléchargé est contrôlé par une gestion numérique des droits (DRM) et permet de définir et fixer une période d’utilisation légale, le nombre de copies du fichier et les supports de stockage ou de lecture autorisés.

 

Usages illégaux

 

Musique, logiciels, vidéo

 

Il peut être illégal de télécharger de la musique, des vidéos ou des logiciels commerciaux. Ils sont généralement téléchargés à l’aide de logiciels pair à pair (P2P) tels que Bittorrent. Bien que cela soit illégal, beaucoup de personnes téléchargent illégalement et en toute impunité. Cependant, certains gouvernements commencent à s’intéresser au problème, par exemple le gouvernement français avec la loi Hadopi.

 

Pour des informations sur les usages illégaux du téléchargement :

L’âge d’or du Peer to Peer : Napster, Audiogalaxy, WinMX, KaZaA, eDonkey, Emule,Utorrent

 

Cyber-criminalité

 

Dans plusieurs pays, dont la France, police et gendarmerie ont créé des groupes d’enquêteurs spécialisés dans la traque aux pédophiles sur le web. Ces groupes identifient chaque année des milliers d’internautes amateurs de pédophilie. Ils exploitent les traces conservées sur le web lors des connexions vers les serveurs pédophiles : adresse IP (identifiant de l’ordinateur lors de sa connexion) et horodatage de la connexion en particulier. Les « cybergendarmes » remontent alors à ces internautes en réclamant aux fournisseurs d’accès les coordonnées de l’abonné qui se cache derrière l’adresse IP (en France la loi punit de 2 ans d’emprisonnement et 30 000 € d’amende la détention d’images pornographiques de mineurs). Les photos saisies sont conservées et tous les indices des images sont analysées (décor, objets) afin de permettre des rapprochements et ainsi d’espérer identifier les enfants victimes. La base de données de la gendarmerie comptait plus de 400 000 images en 2005 et 2006.

 

 

Publié dans Non classé | Pas de Commentaire »

Virtualisation d’un PC

Posté par kanyanta le 19 avril 2011

VIRTUALISATION D’UN PC

 

http://upload.wikimedia.org/wikipedia/commons/thumb/a/af/VirtualBox2.png/300px-VirtualBox2.png

 

 

 

VirtualBox

 

La virtualisation consiste à faire fonctionner sur un seul ordinateur plusieurs systèmes d’exploitation comme s’ils fonctionnaient sur des ordinateurs distincts. On appelle serveur privé virtuel (Virtual Private Server ou VPS) ou encore environnement virtuel (Virtual Environment ou VE) ces ordinateurs virtuels.

 

Principe

 

Il peut sembler a priori étrange de simuler plusieurs machines sur une seule : un système d’exploitation est conçu pour utiliser au mieux un matériel qui est entièrement sous son contrôle. La juxtaposition de plusieurs systèmes non conçus pour communiquer entre eux peut faire craindre des inefficiences auxquelles s’ajoute le fait que le processus de virtualisation lui-même va consommer des ressources.

 

Le tableau n’est pas aussi sombre. D’une part, on évite une grande partie de ces inefficiences juste en disposant de disques différents pour chaque système lorsque c’est possible, et d’autre part les coûts de la mémoire permettent à chacun de ces systèmes de rester résident, et parfois même avec de larges sections de code partagées[1]. Par ailleurs le microcode des mainframes comme des microprocesseurs inclut de plus en plus de fonctionnalités rendant la virtualisation plus efficace[2].

 

Enfin, il est courant pour une entreprise de disposer d’une quinzaine de serveurs fonctionnant à 15% de leur capacité, celle-ci n’étant là que pour faire face à tout moment aux pointes de charge sporadiques. Un serveur chargé à 15% ne consomme pas beaucoup moins d’énergie qu’un serveur chargé à 90%, et regrouper 4 serveurs sur une même machine peut donc s’avérer rentable si leurs pointes de charge ne coïncident pas systématiquement, même si 30% de la charge machine est représentée par la virtualisation elle-même[3].

 

Enfin, la virtualisation des serveurs permet une bien plus grande modularité dans la répartition des charges et la reconfiguration des serveurs en cas d’évolution ou de défaillance momentanée (plan de secours, etc.).

 

Notions

 

Chaque outil de virtualisation met en œuvre une ou plusieurs de ces notions :

 

  • couche d’abstraction matérielle et/ou logicielle
  • système d’exploitation hôte (installé directement sur le matériel)
  • systèmes d’exploitations (ou applications, ou encore ensemble d’applications) «virtualisé(s)» ou «invité(s)»
  • partitionnement, isolation et/ou partage des ressources physiques et/ou logicielles
  • images manipulables: démarrage, arrêt, gel, clonage, sauvegarde et restauration, sauvegarde de contexte, migration d’une machine physique à une autre
  • réseau virtuel: réseau purement logiciel, interne à la machine hôte, entre hôte et/ou invités

Intérêts de la virtualisation

 

Les intérêts sont :

 

  • utilisation optimale des ressources d’un parc de machines (répartition des machines virtuelles sur les machines physiques en fonction des charges respectives),
  • installation, déploiement et migration facile des machines virtuelles d’une machine physique à une autre, notamment dans le contexte d’une mise en production à partir d’un environnement de qualification ou de pré-production, livraison facilitée,
  • économie sur le matériel par mutualisation (consommation électrique, entretien physique, surveillance, support, compatibilité matérielle, etc.)
  • installation, tests, développements, cassage et possibilité de recommencer sans casser le système d’exploitation hôte
  • sécurisation et/ou isolation d’un réseau (cassage des systèmes d’exploitation virtuels, mais pas des systèmes d’exploitation hôtes qui sont invisibles pour l’attaquant, tests d’architectures applicatives et réseau)
  • isolation des différents utilisateurs simultanés d’une même machine (utilisation de type site central)
  • allocation dynamique de la puissance de calcul en fonction des besoins de chaque application à un instant donné,
  • diminution des risques liés au dimensionnement des serveurs lors de la définition de l’architecture d’une application, l’ajout de puissance (nouveau serveur etc) étant alors transparent.

Historique

 

Une bonne part des travaux sur la virtualisation fut développée au centre scientifique de Cambridge d’IBM en collaboration avec le MIT, où fut mis au point le système expérimental CP/CMS, devenant ensuite le produit (alors nommé Hyperviseur) VM/CMS. Voir IBM 360 et 370.

 

Par la suite, les mainframes ont été capables de virtualiser leurs systèmes d’exploitation avec des technologies spécifiques et propriétaires, à la fois logicielles et matérielles. En 1979 fut annoncé par exemple sur les IBM 4331 et 4341 un accélérateur VM optionnel et microcodé.

 

Dans la deuxième moitié des années 1980 et dans les débuts des années 1990, on a créé des embryons de virtualisation pour les ordinateurs personnels. En effet l’ordinateur Amiga pouvait lancer des pc x386, Macintosh 68xxx, voire des solutions X11, et bien sûr le tout en multitâche. Ces solutions pouvaient être soit purement logicielles, soit couplées à du matériel additionnel (ajout de processeur, carte réseau, etc.). Cette machine, très en avance sur son temps, a popularisé cette technologie. Pour les PC il y avait le « SideCar » et « PC Task », pour le Macintosh Emplant et ShapeShifter.

 

Les grands Unix ont suivi avec les architectures NUMA des Superdome d’HP (PA-RISC et IA-64) et des E10000/E15000 de Sun (UltraSparc).

 

Dans la seconde moitié des années 1990, les émulateurs sur x86 des vieilles machines des années 1980 ont connu un énorme succès, notamment les ordinateurs Atari, Amiga, Amstrad et les consoles NES, SNES, Neo-Geo AES.

 

La société VMware développa et popularisa à la fin des années 1990 et au début des années 2000 un système propriétaire de virtualisation logicielle des architectures de type x86 pour les architectures de type x86. Les logiciels libres Xen, QEMU, Bochs, Linux-VServer, Virtual Box et les logiciels propriétaires mais gratuits VirtualPC, VirtualServer et VMware Server ont achevé la popularisation de la virtualisation dans le monde x86. VMware a dernièrement rendu gratuit une version allegée de son hyperviseur phare ESX3i.

 

Les fabricants de processeurs x86 AMD et Intel ont mis en œuvre la virtualisation matérielle dans leurs gammes dans la seconde moitié de l’an 2000.

 

Comparaison de différentes techniques de virtualisation

 

Afin d’avoir une idée théorique des performances des applications au sommet, il faut comparer verticalement l’empilage de couches. Il est possible d’élargir les schémas en rajoutant des environnements virtualisés consommant également des ressources de l’hôte.

 

Isolateur

 

http://upload.wikimedia.org/wikipedia/commons/thumb/3/38/Diagramme_ArchiIsolateur.png/250px-Diagramme_ArchiIsolateur.png

 

 

 

Isolateur

 

Un isolateur est un logiciel permettant d’isoler l’exécution des applications dans ce que l’on appelle des contextes ou bien zones d’exécution. L’isolateur permet ainsi de faire tourner plusieurs fois la même application dans un mode multi-instance (plusieurs instances d’exécution) même si elle n’était pas conçue pour ça.

 

Cette solution est très performante, du fait du peu d’overhead (temps passé par un système à ne rien faire d’autre que se gérer), mais les environnements virtualisés ne sont pas complètement isolés.

 

La performance est donc au rendez-vous, cependant on ne peut pas vraiment parler de virtualisation de systèmes d’exploitation. Uniquement liés aux systèmes Linux, les isolateurs sont en fait composés de plusieurs éléments et peuvent prendre plusieurs formes.

 

Exemples :

 

Noyau en espace utilisateur

 

http://upload.wikimedia.org/wikipedia/commons/thumb/d/db/Diagramme_ArchiKernelUserSpace.png/250px-Diagramme_ArchiKernelUserSpace.png

 

http://bits.wikimedia.org/skins-1.17/common/images/magnify-clip.png

 

Noyaux en mode utilisateur

 

Un noyau en espace utilisateur (user-space) tourne comme une application en espace utilisateur de l’OS hôte. Le noyau user-space a donc son propre espace utilisateur dans lequel il contrôle ses applications.

 

Cette solution est très peu performante, car deux noyaux sont empilés et l’isolation des environnements n’est pas gérée et l’indépendance par rapport au système hôte est inexistante. Elle sert surtout au développement du noyau.

 

Exemples :

 

  • User Mode Linux: noyau tournant en espace utilisateur
  • Cooperative Linux ou coLinux: noyau coopératif avec un hôte Windows
  • Adeos: micro noyau RT faisant tourner Linux en kernel-space non-RT
  • L4Linux: micro noyau RT faisant tourner Linux en kernel-space non-RT

Hyperviseur de type 2

 

http://upload.wikimedia.org/wikipedia/commons/thumb/5/5c/Diagramme_ArchiEmulateur.png/250px-Diagramme_ArchiEmulateur.png

 

 

 

Hyperviseur de type 2

 

Un hyperviseur de type 2 est un logiciel (généralement assez lourd) qui tourne sur l’OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine virtualise ou/et émule le matériel pour les OS invités, ces derniers croient dialoguer directement avec ledit matériel.

 

Cette solution est très comparable à un émulateur, et parfois même confondue. Cependant l’unité centrale de calcul, c’est-à-dire le microprocesseur, la mémoire de travail (ram) ainsi que la mémoire de stockage (via un fichier) sont directement accessibles aux machines virtuelles, alors que sur un émulateur l’unité centrale est simulée, les performances en sont donc considérablement réduites par rapport à la virtualisation.

 

Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce coût peut être très élevé si le processeur doit être émulé, comme cela est le cas dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs OS hétérogènes sur une même machine grâce à une isolation complète. Les échanges entre les machines se font via les canaux standards de communication entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte réseau réelle.

 

Exemples :

 

Hyperviseur de type 1[modifier]

 

http://upload.wikimedia.org/wikipedia/commons/thumb/f/fa/Diagramme_ArchiHyperviseur.png/250px-Diagramme_ArchiHyperviseur.png

 

http://bits.wikimedia.org/skins-1.17/common/images/magnify-clip.png

 

Hyperviseur de type 1

 

Un hyperviseur de type 1 est comme un noyau système très léger et optimisé pour gérer les accès des noyaux d’OS invités à l’architecture matérielle sous-jacente. Si les OS invités fonctionnent en ayant conscience d’être virtualisés et sont optimisés pour ce fait, on parle alors de para-virtualisation (méthode indispensable sur Hyper-V de Microsoft et qui augmente les performances sur ESX de VMware par exemple).

 

Actuellement l’hyperviseur est la méthode de virtualisation d’infrastructure la plus performante mais elle a pour inconvénient d’être contraignante et onéreuse, bien que permettant plus de flexibilité dans le cas de la virtualisation d’un centre de traitement informatique.

 

Exemples :

 

Matériel

 

Le support de la virtualisation peut être intégré au processeur ou assisté par celui-ci, le matériel se chargeant, par exemple, de virtualiser les accès mémoire ou de protéger le processeur physique des accès les plus bas niveau. Cela permet de simplifier la virtualisation logicielle et de réduire la dégradation de performances.

 

Des exemples de virtualisation matérielle :

 

  • Hyperviseur IBM Power[4] & Micro-partitionnement AIX
  • Mainframes: VM/CMS
  • Sun LDOM (hyperviseur pour la gestion de « logical domains »)
  • Sun E10k/E15k
  • HP Superdome
  • AMD-V (Assistance à la virtualisation de AMD, anciennement Pacifica)
  • Intel VT (Assistance à la virtualisation de Intel, anciennement Vanderpool)

Publié dans Non classé | Pas de Commentaire »

FLASHAGE DU BIOS

Posté par kanyanta le 19 avril 2011

FLASHAGE DE BIOS

 

Le terme BIOS regroupe vulgairement l’aspect logiciel d’une part (l’ensemble des données nécessaires à gérer, coordonner et paramétrer les divers composants d’un ordinateur) et d’autre part l’aspect matériel puisque ces données sont contenues dans une puce dédiée (EEPROM de type CMOS).

 

Sur les premiers PC les BIOS étaient des mémoires mortes soudées à la carte mère, les EPROM difficilement modifiables. Certains fabricants proposaient toutefois des correctifs logiciels (appelés patchs) qui étaient stockés sur le disque dur et se chargeaient en mémoire vive (RAM) pour corriger les éventuels bugs. Ils ne pouvaient toutefois agir qu’après le démarrage du PC.

 

Par la suite les BIOS insérables sur des supports pouvaient être changés matériellement, mais leur prix était très élevé. Puis vint l’apparition des mémoires programmables électroniquement, c’est-à-dire une mémoire pouvant être modifiée grâce à une machine envoyant des impulsions électriques par des connecteurs prévus à cet effet. Ce type de programmateur de puce était cependant rare, si bien que l’opération était relativement coûteuse pour l’utilisateur.

 

Il existe désormais des cartes-mères comportant des mémoires flash (variété d’EEPROM), mémoires pouvant être modifiées directement par logiciel. Les BIOS situés sur des cartes-mères comportant ce type de mémoire peuvent être mis à jour grâce à un utilitaire propre au fabricant, destiné à permettre le remplacement d’une version du BIOS par une autre version, plus récente ou plus ancienne (utile dans certains cas). S’il était difficile de se procurer ces mises à jour, internet remédia vite à ce problème. Ces mises à jour sont disponibles sous la forme d’un fichier binaire contenant une image du BIOS accompagné d’un utilitaire.

 

Le flashage du BIOS est donc une mise à jour du BIOS par voie logicielle, c’est-à-dire un remplacement de l’ancienne version du BIOS grâce à un programme

 

Mise à jour du BIOS

 

Avantages

 

Parmi les avantages qu’une mise à jour du BIOS peut apporter, on retrouve la possibilité de:

  • remédier à des incompatibilités (conflits) matérielles,
  • corriger certaines erreurs de détection du matériel (ex.: la vitesse du CPU, barrette de mémoire vive mal détectée, etc.),
  • bénéficier d’éventuelles fonctionnalités nouvelles dans la configuration du BIOS (cas rare) et dans la gestion du matériel.

Inconvénients

 

Lors d’une mise à jour du BIOS, il est important de savoir qu’il existe certains risques, notamment :

  • Carte mère rendue temporairement inutilisable (puisque réparable) suite à une mise à jour incomplète (erreur ou coupure d’alimentation pendant le transfert) ou encore BIOS d’une version incompatible (version bêta -à éviter- ou d’un autre modèle)
  • Perte de fonctionnalité dans le BIOS. C’est-à-dire, une fonction disparait suite à une mise à jour (cas rare).
  • Démarche stricte qui demande quelques connaissances techniques, parfois du matériel spécifique (lecteur de disquette magnétique pour les cartes mères anciennes).
  • Support et service après vente inexistants selon les constructeurs concernant les pannes liées à une mise à jour du BIOS.

Parfois une nécessité

 

Dans certaines situations et configurations matérielles, il arrive qu’une mise à jour du BIOS soit requise. C’est parfois requis pour que la carte mère (ou le micro-ordinateur) puisse supporter un nouveau composant matériel trop récent (ou non disponible pour le fabricant de la carte mère) pour que des tests de compatibilité aient pu être effectués avant la commercialisation de la carte mère. Dans certains cas, même si les tests appropriés ont été effectués, il arrive, puisque le BIOS n’est rien d’autre qu’un simple logiciel, que même le BIOS ait des bogues qui doivent être corrigés.

 

Problèmes pouvant nécessiter une mise à jour:

  • CPU non détecté, ou détecté de manière erronée (mauvaise vitesse, mauvais modèle, etc.)
  • Barrette de mémoire vive non détectée, partiellement détectée ou rendant le système instable. Peut arriver fréquemment lorsque l’utilisateur désire installer la capacité maximale supportée par la carte mère.
  • Carte graphique n’étant pas exploitée correctement, ou dont certaines fonctions ne sont pas ou mal supportée (SLI).
  • Périphériques internes non ou mal détectés, incompatibles.
  • Erreurs dans la détection et la gestion des composants ou de leur état et paramètres par le système d’exploitation et les logiciels (ex.: vitesse des différents ventilateurs, tensions électriques, fréquence actuelle du processeur en temps réel, etc.)
  • Gestion de la batterie inefficace sur les ordinateurs portables.
  • Instabilité du système en général, souvent suite à l’installation d’un nouveau composant.
  • Problèmes d’incompatibilité entre certains composants (conflits).

Récupération du BIOS en cas d’échec

 

En cas de panne liée à une mise à jour ayant échoué, la carte mère peut ne plus démarrer, ou démarrer incorrectement. Plusieurs méthodes de récupération sont à tenter, sachant qu’une carte mère ne peut être abimée par un BIOS erroné. Il existe des solutions « locales » lorsque la carte mère permet encore un affichage, mais aussi des moyens externes considérant que la puce EEPROM contenant le BIOS est aussi lisible (et modifiable) sur d’autres supports.

 

Méthodes locales:

  • Essayer un effacement des paramètres du BIOS en retirant la pile quelques minutes.
  • Utiliser les procédures de récupération propres au constructeur si la carte en est pourvue.
  • Tenter un flash du BIOS en « aveugle » en absence d’affichage.

Méthodes externes:

  • Le flash « à chaud » nécessitant une deuxième carte pourvue d’une puce de même type et sur support.
  • L’emploi d’un programmateur de puce (onéreux)
  • Le remplacement, ou la programmation de la puce par un prestataire de service spécialisé. Des sites internet proposent déjà ce service pour un coût faible.

Flashage et overclocking

 

L’overclocking consistant (pour les concours) à atteindre la fréquence la plus élevée du processeur, nécessite une stabilité accrue qui passe par la recherche de chaque amélioration possible. La mise à jour du BIOS est alors une étape indispensable, car nombre d’erreurs mineures sont corrigées après la vente des cartes mères. Ces erreurs sont discrètes en utilisation normale mais peuvent coûter quelques Mhz lors d’un concours. Ces modifications de fréquences passant par le BIOS, il est également préférable de disposer d’un maximum de fonctionnalités.

 

Lors de la phase de recherche de fréquence maximale, il arrive que l’ordinateur ne démarre plus, il est alors nécessaire de réinitialiser les paramètres du BIOS, ce sont les valeurs volatiles contenue dans la puce BIOS (EEPROM). On parle alors d’effacement CMOS, à ne pas confondre avec le flash du BIOS qui efface les valeurs volatiles et les valeurs non volatiles. Cet effacement se fait majoritairement en retirant la pile associée au BIOS quelques instants. Sur certaines cartes mères il existe des connecteurs internes à relier par un cavalier, ou même un bouton poussoir interne ou à l’arrière de la carte mère pour réaliser cet effacement des paramètres. Les paramètres ainsi remis par défaut présentent une compatibilité maximale ce qui permet de démarrer l’ordinateur à nouveau.

 

La procédure de flashage du bios

 

Avant de flasher le bios, lisez attentivement les instructions du manuel de votre carte mère. Les procédures de flashage de bios ne sont pas identiques sur toutes les cartes mères. La méthode la plus répandue et la plus fiable consiste à flasher sous DOS sans aucune manipulation au niveau de la carte mère. Toutefois, il est nécessaire sur certaines cartes de déplacer un cavalier pour permettre le flashage. D’autres nécessitent l’inactivation d’une option dans le BIOS avant l’opération. Reportez vous à la notice de votre carte pour savoir si celle-ci dispose de ce genre de protection, à l’origine prévues pour éviter la corruption du BIOS par certains virus. Asus et MSI proposent un utilitaire de flashage fonctionnant sous Windows. L’utilisation de ce type d’utilitaire ne sera pas expliquée ici. Elle semble plus propice aux problèmes de flashage et nous vous la déconseillons autant que possible. Pour plus d’informations à ce sujet, je vous renvoie sur le site de Fernando Darocha.

 

La première étape consiste à identifier la version de votre bios. Pour ce faire, au démarrage de votre PC, appuyez sur la touche pause de votre clavier afin de noter le numéro de version dans la partie haute de l’écran. Il peut s’agir d’une date, ou d’un numéro. Ensuite, il faut identifier la marque et le modèle de votre carte mère si vous ne les connaissez pas. Vous disposez de plusieurs alternatives :

  • Recherchez sur la carte toute référence écrite en assez grands caractères près du port AGP ou entre les ports PCI. Depuis déjà plusieurs années, tous les fabricants principaux indiquent le modèle et la révision de la carte directement sur celle-ci.
  • Utilisez Sisoft Sandra 2002 ou 2003, qui reconnaîtra les modèles les plus répandus.
  • Relevez la ligne tout en bas au premier écran du bios, puis rendez-vous sur Google et entamez vos recherches.

Une fois votre carte identifiée, téléchargez la version de bios qui vous convient sur le site du fabricant. Veillez à correctement sélectionner le fichier image (contenant le Bios) selon vos besoins. Ne prenez pas la version actuelle de votre Bios, ce qui reviendrait à prendre des risques pour rien. D’autre part, vérifiez bien que le fichier choisi correspond bien à votre carte mère voire à votre révision/version de carte. En effet, il existe des bios spécifiques à certaines révisions (rev 1, rev 2, etc…) d’un même modèle ou pour certaines versions de la carte (avec ou sans LAN par exemple). Citons le cas de la MSI 6309 qui est déclinée en 5 révisions et dont certains fichiers de BIOS sont réservés à des numéros de révisions précis.

 

Avant de flasher, il vous faut un support bootable pour démarrer votre ordinateur sous Dos. En effet, la grande majorité des utilitaires de flashage fiables s’exécutent sous Dos. Le plus simple sera bien évidemment de booter sur une disquette de démarrage. Privilégiez une disquette de démarrage Windows 98 qui fonctionnera dans 99% des cas. Si vous n’en possédez pas, vous pourrez télécharger une disquette de démarrage sur le site bootdisk.com.

 

Si vous ne possédez plus de lecteur de disquettes dans votre configuration, vous pouvez booter avec un CD-Rom sur lequel vous aurez gravé ce qu’aurait contenu la disquette. En sus, vous aurez placé sur ce CD-Rom l’utilitaire de flashage et le fichier Rom du bios. Cette procédure s’avère peu pratique et il est conseillé de graver le CD sans le fichier Rom et sans l’utilitaire et de flasher à partir du disque dur une fois que votre système se trouve sous Dos.

 

Si vous avez opté pour une disquette de boot, vous avez plusieurs options. Soit il vous reste assez de place sur la disquette pour y placer les fichiers nécessaires au flashage, soit vous créez une seconde disquette sur laquelle vous copiez les dits fichiers. Vous pouvez aussi flasher à partir du disque dur si vous avez copié les fichiers nécessaires et que la partition est de type FAT/FAT32. Si le fichier à flasher est stocké sur disquette, essayez toujours de le copier quelque part avant de poursuivre, pour s’assurer qu’aucun secteur défectueux n’est présent au beau milieu du fichier, ce qui provoquerait un échec de l’opération de flashage suivi d’une impossibilité de démarrer.

 

N’oubliez pas non plus qu’il ne faut jamais éteindre votre PC ni faire un reset durant un flashage. Ce serait encore une fois synonyme de flashage raté avec les problèmes que cela suppose. De même, une panne de courant durant un flashage aura les mêmes conséquences. Soyez donc très prudents.

Le flashage se déroule comme ceci :

  • Démarrez sur le support bootable (disquette/CD-Rom). Modifiez le paramètre bios de séquence de démarrage pour booter sur le support que vous avez choisi.
  • Une fois sous DOS, insérez la seconde disquette si vous avez copié les fichiers nécessaires au flashage sur un tel support. Tapez la commande de flashage que vous aurez pu trouver soit sur le site du fabricant de votre carte mère, soit dans l’aide de l’utilitaire de flashage. Cela ressemble à ce genre de commande : aminf329 011202.rom
  • Le système va lancer le flashage en vous demandant parfois de confirmer cette opération.
  • A la fin de la mise à jour, soit le système annonce que le flashage est fini, soit il redémarre tout seul. Dans tous les cas, laissez la procédure aller jusqu’au bout et n’intervenez que lorsqu’on vous le demande.

Le système redémarre. A ce moment il se peut qu’un message d’erreur comme « CMOS size wrong » ou  » CMOS Checksum Error  » apparaisse, ou bien que l’écran reste noir et le haut-parleur muet. Ne paniquez pas.

 

Si vous avez un message d’erreur, rentrez dans le bios et réglez à nouveau les différents paramètres ou chargez les paramètres par défaut. Sauvez et quittez. Le message devrait disparaître.

 

S’il persiste encore ou que l’écran reste noir tentez un clear CMOS avec la procédure suivante :

  • Eteignez votre machine, débranchez le cordon de l’alimentation.
  • Mettez le cavalier approprié en position Clear CMOS ou retirez la pile de votre carte mère si celle-ci ne possède pas le cavalier ad-hoc.
  • Attendez une dizaine de secondes, puis remettez la pile ou le cavalier dans sa position initiale et rebranchez l’alimentation.
  • Essayez de démarrer.

Si vous ne parvenez toujours pas à démarrer normalement ou qu’un message « Award Bootblock » ou « CMOS Checksum Failed » apparaît, vous êtes alors peut-être victime d’un flashage raté. Il se peut aussi que le fichier que vous avez flashé ne corresponde pas à votre carte mère. Dans tous les cas, il va nous falloir recourir à des procédures de récupération plus ou moins complexes pour remettre la machine en état.

 

 

Publié dans Non classé | Pas de Commentaire »

 

Notre mariage - Il nostro m... |
CANTERBURY T@LES |
cplespilettes |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | gucci158
| Blog du niveau intermédiaire
| Houseebook46