Version en ligne

Tutoriel : Apprenez à monter votre ordinateur

Table des matières

Apprenez à monter votre ordinateur
Le processeur, son ventirad et la carte mère
Le processeur
Le ventirad
La carte mère
À retenir pour bien choisir
L'écran
Et l'homme créa le pixel
Les caractéristiques utiles
Les types de dalles
La connectique
À retenir pour bien choisir
Les cartes filles
Les cartes graphiques
Les cartes son
Les cartes réseau
Autres cartes filles
À retenir pour bien choisir
Les périphériques de stockage
La mémoire vive
Le disque dur
Le SSD
Mémoire flash, encore et toujours
Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray)
À retenir pour bien choisir
L'alimentation
Fonctionnement du bloc d’alimentation
La facture d’électricité, à court et moyen terme
Format et connecteurs
À retenir pour bien choisir
Le boîtier
Apparence générale du boîtier
Caractéristiques utiles
À retenir pour bien choisir
Les périphériques externes
Le clavier
La souris
La tablette graphique
Le son : haut-parleurs, casques, micros
Gamepads et Joysticks
La webcam
À retenir pour bien choisir
L'imprimante et le scanner
L’imprimante
Le scanner
Les imprimantes multifonctions
À retenir pour bien choisir
Acheter les composants et se préparer
Ordinateur déjà monté ou pas ?
Les outils indispensables
Quelle configuration allons-nous monter ici ?
Carte mère, processeur et mémoire vive
Installation du CPU et de son ventirad
Branchement de la RAM
Fixation de la carte mère dans le boîtier
Installation dans le boîtier
Mise en place de la carte graphique
Mise en place du bloc d'alimentation
Le disque dur, le SSD et le lecteur/graveur
Le branchement des câbles
Branchement des éléments de façade
Alimentation des composants internes
Branchement des disques durs, SSD et lecteur/graveur
Câbles externes
Le premier démarrage
Petit check-up d'avant démarrage
Changer l'ordre de boot
Booter sur un CD
Booter sur une clé USB, ça roxe du poney !

Apprenez à monter votre ordinateur

Un ordinateur, c'est comme un sandwich : on peut l'acheter tout fait mais c'est toujours meilleur quand on le prépare soi-même. On y met les ingrédients que l'on veut, dans l'ordre que l'on veut. C'est notre sandwich, celui qui nous correspond vraiment.

Pour un ordinateur, c'est pareil. Selon que vous soyez un joueur invétéré, un as de la bureautique ou un graphiste, vous n'utiliserez pas votre ordinateur de la même façon. Les composants que vous devrez assembler seront donc différents.

Seulement voilà, monter un ordinateur est un tantinet plus délicat que de préparer un sandwich. Dans ce tutoriel, on ne parlera pas de cornichons ni de mayonnaise, mais de CPU, ventirad, alim', SSD, RAM… Et bien d'autres choses encore ! Ces termes ne vous disent peut-être rien pour le moment mais pas de panique, ce tutoriel est justement fait pour y remédier. Nous allons apprendre ensemble à reconnaître et choisir les composants d'un ordinateur, avant de voir comment les assembler pour former ce merveilleux concentré de technologie qu'est un PC.

Carte graphiqueCarte mèreDisque SSD

Montage d'un ordinateurMontage d'un ordinateurCliquez sur les images pour les agrandir.

Certains sites internet vous proposent une grande quantité de composants à choisir vous-mêmes. La plupart mettent à votre disposition ce qu'on appelle des « configurateurs de PC », c'est à dire un petit programme qui va vous aider dans le choix de vos composants. Cela simplifie grandement la tâche. De plus vous pouvez choisir de recevoir votre ordinateur chez vous déjà monté. C'est un gain de temps et une source d'erreurs de montage en moins.
C'est le cas de Top Achat, partenaire du Site du Zéro, vers lequel nous vous redirigerons pour les composants.

Configurateur PC de Top AchatConfigurateur PC de Top Achat

Ça vous branche ? Alors bonne lecture !

Le processeur, son ventirad et la carte mère

Le processeur

Nous allons découvrir, composant par composant, de quoi est fait un ordinateur. Nous allons commencer par l’un des plus petits éléments de l’ordinateur (mais aussi l’un des plus importants) : le processeur. Accompagné de son ventirad, il est en quelque sorte le cerveau de l’ordinateur.

Nous continuerons notre promenade dans les entrailles de l’ordinateur en parcourant la carte mère et ses composants principaux. Je vous préviens tout de suite, nous allons apprendre beaucoup de nouveaux termes dans ce chapitre. Il est très important de les assimiler dès maintenant car ils reviendront tout au long de ce tutoriel. Mais rassurez-vous, il n’y a rien de bien compliqué et nous allons découvrir tout cela en douceur. ;)

Le processeur

Le processeur, son ventirad et la carte mère Le ventirad

L'un des composants les plus importants d'un ordinateur est le processeur (qu'on appelle aussi CPU). C'est, en quelque sorte, le cerveau de l'ordinateur. Et, tout comme pour un être humain, il est impossible à notre ordinateur de vivre sans cerveau. C'est pourquoi le processeur est très important dans un ordinateur : c'est lui qui va exécuter les différents programmes informatiques et effectuer les calculs nécessaires au bon fonctionnement de l'ordinateur. Il faut donc bien choisir son processeur. Hé oui, si vous avez l'habitude de faire tourner 2 ou 3 programmes en parallèle, vous n'aurez pas besoin d'un processeur aussi puissant que si vous en faites tourner 15 ! Et pour bien choisir son processeur, il y a différentes informations à prendre en compte.

Vous avez dit « cœur » ?

Si je vous dis qu'un processeur comporte un cœur, vous me prenez pour un fou ? Et si je vous dis qu'aujourd'hui, la plupart des processeurs comportent plusieurs cœurs ? :waw:

Le cœur est en fait une unité de calcul : c'est lui qui va faire tous les calculs demandés par votre ordinateur. Et croyez moi, il a du travail ! C'est pourquoi les fabricants proposent aujourd'hui plusieurs cœurs dans un même processeur : on augmente ainsi sensiblement la capacité de calcul de l'ordinateur. Pour reprendre l'exemple de tout à l'heure, on pourrait dire que les cœurs d'un processeur sont les neurones d'un cerveau. En théorie, plus vous avez de neurones, plus votre cerveau est réactif à son environnement. Les cœurs de votre processeur sont à peu près pareil : plus grand est leur nombre, plus ils opèrent de calculs, donc envoient plus de données en même temps. Votre ordinateur est donc bien plus rapide.

Il y a une dizaine d'années, les processeurs ne comportaient qu'un seul cœur. Aujourd'hui, il n'est pas rare de voir des processeurs à 2 cœurs (« dual core » en anglais), 4 ou même 8 !

Processeur mono-coeur
Processeur mono-coeur
Processeur multi-coeurs
Processeur multi-coeurs

Vous le voyez sur ces deux images : la première représente un processeur avec un seul cœur, la deuxième un processeur avec plusieurs cœurs.

Avant d'aller plus loin, il faut que je vous explique un peu comment un cœur exécute ses calculs. Toutes les opérations qu'il doit faire forment une sorte de file d'attente. Notre cœur prend la première opération à effectuer dans la file d'attente, effectue ses calculs, envoie le résultat au composant de l'ordinateur souhaité, prend la nouvelle opération à effectuer en tête de la file d'attente, etc. En réalité, le cœur fait des millions de calculs à la seconde (c'est qu'il est rapide, le bougre). Mais toujours est-il qu'il est limité, il ne fait les calculs qu'un par un. C’est pour pallier ceci que les processeurs multi-cœurs ont été inventés. Il existe deux techniques pour obtenir des processeurs multi-cœurs.

L'HyperThreading

L'HyperThreading est une technique développée par Intel, qui consiste à séparer un cœur physique en deux cœurs logiques. Autrement dit, on simule la présence d'un second cœur afin qu'il puisse exécuter lui aussi des calculs, parallèlement au premier.

Finalement, du point de vue du système d'exploitation (tel Windows), le processeur est doté de deux cœurs. Cela implique d'ailleurs que le système doit être capable de fonctionner avec un processeur multi-cœurs, bien que cela ne soit que « virtuel ». Cela dit, l'idéal reste tout de même d'avoir physiquement plusieurs cœurs, comme nous allons le voir à présent.

Le multi-cœur

Un processeur dit multi-cœur est composé non pas d'un seul cœur (HyperThreadé ou non) mais de plusieurs qui permettent, à fréquence égale (nous allons revenir sur ce point dans très peu de temps), de multiplier par autant de cœurs les performances. Avec deux cœurs, les performances sont doublées, avec quatre cœurs, elles sont quadruplées, etc.

Dans la pratique, les performances ne sont pas réellement multipliées. Il faut que le système d'exploitation et les logiciels soient conçus de manière à tirer parti de ce type d'architecture.

Une histoire de fréquence

La fréquence du processeur est importante, car c'est elle qui détermine la vitesse à laquelle il fonctionne. Elle désigne le nombre d'opérations que votre processeur est capable d'effectuer en 1 seconde et est exprimée en Hertz (Hz). Aujourd’hui, on parle plutôt en GigaHertz (c'est que ça évolue, ces petites bêtes là !).

Par exemple, si un processeur a une fréquence de 3 GHz, il peut alors effectuer… 3 milliards d'opérations à la seconde ! :waw:

Tant que ça ? Quand j’utilise mon ordinateur, je fais bien moins de choses ! Alors pourquoi l’ordinateur met parfois plusieurs secondes à réagir ?

Les opérations comme nous les entendons ici ne représentent pas des tâches comme celles que nous, utilisateurs, réalisons sur l’ordinateur. Il s’agit en réalité d’un tout petit calcul qui, associé à des millions d’autres, participe à la réalisation d’un simple copier-coller par exemple. Quoi qu’il en soit la règle reste valable : plus la fréquence est élevée, plus le CPU pourra réaliser de calcul et donc plus l’ordinateur sera rapide (en théorie bien sûr, car de nombreux autres paramètres entrent en compte).

La mémoire cache

Non, vous n'avez pas de la mémoire qui joue à cache-cache dans votre ordinateur. >_ La mémoire cache est un type de mémoire très rapide, assez cher à produire, ce qui explique qu'il y en ait peu dans les composants. En fait, elle sert d'intermédiaire entre le processeur et ce qu'on appelle la mémoire vive. Ce qui est stocké dans la mémoire cache est en fait une information dupliquée, c'est à dire qu'elle existe ailleurs que dans cette mémoire. Mais l'accès des données y est plus rapide.

Il existe 3 types de mémoire cache :


Le processeur, son ventirad et la carte mère Le ventirad

Le ventirad

Le processeur La carte mère

Vous l’aurez probablement déjà remarqué : un ordinateur, ça chauffe ! Pas de quoi faire des grillades, mais presque. Cela est dû à ce qu’on appelle l’effet Joule : quand un courant électrique traverse un matériau conducteur, de la chaleur est dégagée. Dans le cas des composants de l’ordinateur, c’est bel et bien ce qu’il se passe.

Le processeur ne déroge pas à cette règle et subit cet effet. Afin d’éviter que la chaleur ne l’endommage, il est donc impératif de le refroidir. On utilise pour cela un ventirad, contraction des mots ventilateur et radiateur. Drôle de contraction vous ne trouvez pas ? Je vous explique tout de suite son origine.

Le couple radiateur - ventilateur

Que faites-vous quand votre tasse de café est trop chaude pour la boire ? Vous soufflez dessus ? Vous attendez qu’elle refroidisse en allant sur le Site du Zéro pendant quelques minutes ? Eh bien les deux solutions sont possibles et même complémentaires.

Le radiateur

Contrairement à ce que l’on pourrait penser, un radiateur n’a pas pour seul but de chauffer une pièce en hiver. En réalité et par définition, un radiateur permet un échange thermique entre deux milieux. Par exemple, le radiateur de votre chambre permet de transférer de la chaleur depuis le circuit d’eau chaude qu’il contient vers l’air de la pièce.

Pour que cela soit efficace, il faut que la surface de contact entre les deux milieux soit la plus grande possible. En effet, c’est sur cette surface que se produit l’échange thermique. C’est pour cette raison que les radiateurs ont des formes si particulières (tubes, zig-zag, etc.) : la surface de contact entre l’air et le radiateur est plus importante que si ce dernier était tout à fait droit et rectiligne (un simple parallélépipède par exemple).

Radiateur
Radiateur

Ça, c’est le radiateur tel qu’on l’entend habituellement. Dans le cas qui nous intéresse ici, le radiateur va permettre le transfert de chaleur depuis le CPU vers l’air qui se situe dans le boîtier de l’ordinateur. Afin d’agrandir la surface de contact, le radiateur est composé d’ailettes (en Aluminium la plupart du temps).

À gauche sur le schéma ci-dessus, la surface de contact entre le CPU et l’air est bien plus grande grâce aux ailettes qu’avec la surface plane à droite
À gauche sur le schéma ci-dessus, la surface de contact entre le CPU et l’air est bien plus grande grâce aux ailettes qu’avec la surface plane à droite

Aujourd’hui, les radiateurs sont de plus en plus souvent accompagnés de caloducs (ou heat pipes en anglais). Les caloducs sont des tubes à l’intérieur desquels circule un fluide qui va aider la chaleur à se propager depuis la base du radiateur jusqu’aux ailettes.

Le ventilateur

Un radiateur, c’est bien mais ça ne suffit pas pour refroidir suffisamment le CPU. En effet, que se passe-t-il lorsque la chaleur a été transmise du processeur à l’air situé près du radiateur ? Eh bien cet air est chaud. La différence de température est donc moins grande entre les ailettes du radiateur et l’air alentour. Cela pose un problème car un transfert de chaleur entre deux milieux est plus grand si la différence de température entre ces deux milieux est importante.

C’est là qu’intervient le ventilateur : en soufflant sur le radiateur, il permet de renouveler l’air. L’air chaud est remplacé par de l’air plus frais, le transfert de chaleur peut donc se faire de nouveau plus efficacement. Finalement, il se passe exactement la même chose avec votre tasse de café. En soufflant dessus, vous renouvelez l’air situé près de la surface de liquide.

Vous avez peut-être remarqué que le bruit du ventilateur de votre ordinateur n’est pas constant. Tout dépend du besoin de refroidissement du CPU. Plus ce dernier fait de calculs, plus il chauffe et va par conséquent avoir besoin de l’aide du ventilateur (accompagné du radiateur) pour être refroidi. Certains modèles de ventilateurs sont thermorégulés, c’est-à-dire que la vitesse de rotation des pales varie en fonction de la chaleur à dissiper. D'autres sont réglables manuellement par l'intermédiaire d'un potentiomètre, comme on peut le voir sur l’image ci-dessous (regardez la petite molette à gauche de l’image, qui sera accessible à l’arrière de la tour) :

Ventilateur avec potentiomètre
Ventilateur avec potentiomètre

Le radiateur et le ventilateur sont donc tout à fait complémentaires. Le couple ainsi formé est appelé ventirad. Mais au fait, à quoi ressemble un ventirad ?

Formats de ventirad

On trouve essentiellement deux formats de ventirad, qui diffèrent par le positionnement de leurs composants par rapport au CPU.

Pour les ventirad de type top-Flow, le radiateur et le ventilateur sont superposés et mis parallèles au CPU :

Ventilateur top flow
Ventilateur top flow
Schéma d'un ventirad top flow
Schéma d'un ventirad top flow

En revanche, pour les ventirad de type tower, le radiateur et le ventilateur sont mis l'un à côté de l'autre, de façon perpendiculaire au CPU :

Ventilateur tower
Ventilateur tower
Schéma d'un ventirad tower
Schéma d'un ventirad tower

La plupart des ventirad fournis d'office avec les CPU sont de type top-flow.


Le processeur La carte mère

La carte mère

Le ventirad À retenir pour bien choisir

La carte mère est l’élément central de l’ordinateur. Elle est fixée au boîtier et est le support de tout un tas de cartes et autres composants dont nous parlerons bientôt. Voici à quoi une carte mère peut bien ressembler :

Carte mère ATX
Carte mère ATX

Magnifique, vous ne trouvez pas ? :D Comme vous pouvez le constater, la carte mère est constituée d’une grande plaque (que l’on appelle PCB), sur laquelle une multitude d’éléments se disputent la place. Nous passerons en revue ces éléments plus loin dans ce chapitre.

Format de la carte mère

Au cours des années, de nombreux formats de cartes mères ont vu le jour. Pourquoi différents formats me direz-vous ? Tout d’abord, la taille de la carte mère est un facteur important à prendre en compte. Vous imaginez bien qu’une carte mère de quatre mètres sur trois (je vous rassure, ça n’existe pas) sera plus encombrante qu’une carte mère de petite taille.

Les formats les plus courants actuellement sont les suivants :

Le format de la carte mère aura une influence sur le choix du boîtier. Évidemment, une grande carte mère ne pourra pas rentrer dans un boîtier trop petit ! Mais chaque chose en son temps, nous aborderons la question du boîtier dans un prochain chapitre.

Quelques composants importants

Le socket

Le socket est le socle qui va recevoir le CPU. Ce dernier n’est en effet pas branché directement sur la carte mère mais sur un support qui permet de le brancher plus facilement et avec moins de risque de l’abîmer (sauf dans un cas, que nous allons voir).

Il existe trois catégories de CPU :

Le chipset

Les composants de l’ordinateur, vous vous en doutez, échangent énormément de données entre eux. CPU, carte graphique, mémoire vive… Les 0 et les 1 vont bon train ! Il avait été question d’un petit lutin qui ferait le facteur entre tous ces composants, mais cette solution n’étant pas assez rapide, le chipset a été inventé. Cette puce gère donc tous les flux de données entre les composants de l’ordinateur.

On peut voir cela comme un énorme échangeur d’autoroute (où les voitures représentent les impulsions électriques). Une voiture arrive sur une branche et repart vers sa destination via une autre branche.

Chipset et autoroute
Chipset et autoroute

Bien souvent, le chipset de la carte mère est séparé en deux parties distinctes (donc deux puces) : NorthBridge et SouthBridge, chacune ayant son propre rôle. Par exemples, le NorthBridge relie le CPU à la mémoire vive, le SouthBridge relie quant à lui le NorthBridge à l’horloge RTC, etc.

La CMOS RAM et la pile

Certaines informations doivent pouvoir être conservées même lorsque l’ordinateur est éteint (et donc lorsque la carte mère n’est plus alimentée en courant électrique) : la configuration de l’ordinateur, la date et l’heure du système, etc. Pour cela, la carte mère contient une petite mémoire, appelée CMOS RAM.

C’est bien beau mais si l’ordinateur n’est pas alimenté pendant plusieurs jours, comment peut-il savoir la date et l’heure à son réveil ?

Même si l’ordinateur est débranché, la CMOS RAM est toujours alimentée grâce à une petite pile (ou une petite batterie). La pile est de type « pile bouton » (modèle CR2032 la plupart du temps) :

Pile de la CMOS RAM
Pile de la CMOS RAM

L'horloge

On l’a vu plus haut, le CPU exécute ses instructions à une certaine fréquence, exprimée en Hertz (Hz). Cela signifie qu'entre chaque opération, il se passe une période donnée. Le CPU est donc un peu comme un musicien qui suit la cadence de son métronome. Cette cadence est assurée par l'horloge de la carte mère (appelée RTC). Cette horloge cadence également les instructions des autres composants et périphériques internes, tels que le bus système (ou FSB), qui relie le CPU au chipset.

On peut également citer d’autres bus, tels que le bus mémoire, qui relie la mémoire vive au chipset ou le bus d’extension qui lui s’occupe de faire le lien avec les connecteurs d’entrées/sorties dont nous parlerons dans quelques instants.

La connectique

La carte mère est le point central de l’ordinateur, on y branche donc tous les éléments du système grâce à une large gamme de connecteurs.

La connectique « interne »

Commençons par les connecteurs destinés à brancher des composants internes à l’ordinateur : barrettes de mémoires, cartes en tout genre, disques durs, etc. Nous n’avons pas encore abordé tous ces éléments mais pas d’inquiétude, nous y reviendrons au cours de ce tutoriel.

Commençons ce petit tour du propriétaire avec les slots mémoire. Destinés à accueillir les barrettes de mémoire vive, on peut en trouver 2, 3, 4 ou 6 selon le format de la carte mère.

Slots RAM
Slots RAM

Viennent ensuite les ports PCI, qui servent essentiellement aux cartes filles (cartes son, carte réseau, etc.).

Ports PCI
Ports PCI

On trouve également des ports PCIe, actuellement dans leur seconde génération (PCIe 2.0, les débits sont doublés par rapport à la première génération). Ils sont de plusieurs types :

En haut (en blanc) : un port PCIe 2.0 x1. En bas (en bleu) : un port PCIe 2.0 x16.
En haut (en blanc) : un port PCIe 2.0 x1. En bas (en bleu) : un port PCIe 2.0 x16.

Du côté des périphériques de stockage (disques durs, SSD, graveur DVD, etc.), deux normes de connectique existent. La première, vieillissante et tendant à disparaître, décrit les ports IDE (également appelés ATA ou PATA).

Port IDE
Port IDE

Les larges nappes branchées à ces connecteurs attirent la poussière et gênent la circulation de l'air à l'intérieur du boîtier. Les toutes dernières cartes mères n'en sont donc plus équipées, au profit des ports SATA qui permettent l'utilisation de câbles plus fins :

Port SATA
Port SATA

Il en existe plusieurs types et si le SATA2 (3 Gbps) est encore le plus répandu, il y a, aujourd'hui, de plus en plus de cartes mères équipées de ports SATA3 (6 Gbps). Aussi, sur certaines cartes mères, il est possible d'associer plusieurs ports de ce type en RAID afin d'améliorer les performances (RAID 0), la sécurité (RAID 1) ou les 2 (RAID 0+1, RAID 5).

Enfin, les prises pour les ventilateurs, qui servent à alimenter le ventirad CPU et les ventilateurs du boîtier. Elles existent en 2 versions : 3 pins ou 4 pins (thermorégulé, ci-dessous).

Prise ventilateur
Prise ventilateur

La connectique « externe »

Nous nous trouvons à présent sur le panneau arrière (ou BackPanel), sur lequel se trouvent des connecteurs destinés à des appareils externes à l'ordinateur.

On peut tout d'abord trouver des ports PS2, utilisés pour les anciens claviers et les vieilles souris :

Ports PS2
Ports PS2

Ils sont aujourd'hui en voie de disparition, au profit des célèbres ports USB, bien plus pratiques. Vous en avez forcément déjà croisé ! Ils sont utilisés pour la plupart des périphériques externes (claviers, souris, disques durs externes, clés USB, imprimantes, etc.). La norme la plus répandue est l'USB2 (480 Mbit/s, soit 60 Mo/s) mais la récente norme USB3 (4,8 Gbit/s, soit 600 Mo/s) devrait la remplacer petit à petit. Notons que les ports (et câbles) sont noirs en USB2 et bleus en USB3 (voir ci-dessous).

Ports USB
Ports USB

Avec des débits bien plus élevés, les ports FireWire sont quant à eux utilisés pour les caméscopes (transférer un flux vidéo nécessite un débit élevé) et certains disques durs externes.

Port FireWire
Port FireWire

Ce type de port est aussi appelé IEEE 1394 (du nom de la norme qui le décrit), FireWire étant le nom donné par Apple. Sony de son côté utilise le nom i.LINK. Oui, cela serait bien trop simple s'ils se mettaient tous d'accord sur un seul et même terme ! >_

Vous souvenez-vous des ports SATA utilisés pour les périphériques de stockage (ne me dites pas non, nous en avons parlé il y a quelques minutes) ? Eh bien il en existe une version « externe » : eSATA (je vous laisse deviner la signification du « e »), essentiellement utilisée pour les disques durs externes.

Port eSATA
Port eSATA

Pour les réseaux Ethernet, on utilise les ports RJ45 (ou plus simplement ports Ethernet). Les anciennes cartes mères étaient équipées de ports RJ45 fonctionnant à 100 Mbps mais aujourd'hui on ne trouve pratiquement plus que du 1000 Mbps (soit 1Gbps).

Port RJ45
Port RJ45

Finissons ce petit tour des connecteurs en musique, avec les ports Audio. Ce sont des ports au format jack 3,5 mm sur lesquels vont se brancher les haut-parleurs, les casques ou autres micros.

Ports Audio
Ports Audio

Les couleurs ont généralement les significations suivantes :

Voilà pour ce qui est de la connectique de la carte mère. Un petit résumé en image ? Mais bien sûr, avec plaisir :

Résumé des composants de la carte mère
Résumé des composants de la carte mère

Je sais, ça fait beaucoup de choses d’un seul coup. Mais plus nous avancerons dans ce chapitre, plus nous verrons tous les éléments que nous avons abordés ici. Avant cela, passons à une partie… invisible de la carte mère : le BIOS.

Le BIOS

La mémoire est morte, vive la mémoire !

Quand on démarre l’ordinateur, une phase très importante consiste en l’initialisation de tous les composants matériels : disque dur, carte graphique, carte son, etc. Avant leur étape d’initialisation, il est impossible d’utiliser ces éléments. Mais pour que cette initialisation puisse avoir lieu, il est nécessaire que leur configuration soit connue et donc enregistrée quelque part. Mais où ? Sur le disque dur ? Problème : le disque dur n’a pas encore été initialisé et est donc inutilisable pour le moment. Il faut donc trouver un autre endroit où sauver cette configuration (entre autres choses), c’est là qu’intervient la mémoire morte, ou ROM.

ROM signifie « Read Only Memory », ce qui signifie « mémoire en lecture seule » (autrement dit, on ne peut pas écrire dessus). Elle contient notamment un petit programme permettant la gestion du matériel : le BIOS.

Rôles du BIOS

Le BIOS va servir d'interface entre la carte mère, le système d'exploitation et certains composants et périphériques. Il est notamment en charge de l’initialisation des composants matériels et de la vérification de leur bon fonctionnement. Si des problèmes sont détectés, ils sont transmis à l’utilisateur sous forme de BIPS émis directement par la carte mère (le matériel n’ayant pas encore été initialisé, les haut-parleurs que vous utilisez habituellement ne sont pas prêts).

Une fois les étapes d’initialisation du matériel achevées, le BIOS va avoir pour rôle de chercher une séquence d’amorçage afin de lancer le système d’exploitation (Windows par exemple). Cette séquence d’amorçage peut se trouver sur le disque dur (au niveau de la toute première section, appelée le MBR) ou bien sur un support externe ou même un disque inséré dans le lecteur. Une fois cette séquence trouvée, le BIOS passe le relais au système d’exploitation.

Le menu du BIOS

Au démarrage de l’ordinateur, après l’initialisation du matériel et avant l’amorçage du système d’exploitation, le BIOS affiche un écran d’accueil. À ce moment précis, il est possible d’entrer dans le menu du BIOS (ou setup) grâce à une touche ou une combinaison de touches indiquée à l’écran. Vous arrivez alors sur une interface pour le moins austère :

Menu BIOS
Menu BIOS

On navigue dans les différents menus avec les touches du clavier (les actions possibles sont affichées en bas de l’écran dans l’image ci-dessus).

Ce menu permet de régler bon nombre de paramètres, comme la date et l’heure du système mais aussi le mode de fonctionnement de vos disques durs, du CPU, etc. C’est aussi ici que vous pouvez définir l’ordre des éléments dans lequel le BIOS doit chercher une séquence d’amorçage pour lancer le système d’exploitation (menu « Boot » généralement). Pour démarrer à partir d’une clé USB par exemple, il faudra placer ce composant avant le disque dur. Ainsi, une fois la séquence d’amorçage trouvée, le BIOS n’ira pas plus loin dans ses recherches et passera le relais au système installé sur la clé.

Sur les cartes mères les plus récentes, ce menu est désormais remplacé par l'UEFI qui lui se pilote à la souris (ouf !).

BIOS UEFI
BIOS UEFI

Le ventirad À retenir pour bien choisir

À retenir pour bien choisir

La carte mère L'écran

Voilà une bonne chose de faite : avec ce chapitre, nous avons posé les bases du fonctionnement de l’ordinateur. Nous avons vu à la fois son « cerveau » (le CPU) mais aussi son « squelette » (la carte mère). Et pour éviter la fièvre, nous avons également parlé de son ventirad, élément plus important qu'on ne pourrait le penser.

Avec la carte mère, nous avons aperçu bon nombre de composants qui vous sont peut-être encore inconnus. Ne vous inquiétez pas, cela est bien normal, nous sommes encore au début de ce tutoriel. Une chose est sûre, nous allons revenir sur chacun de ces composants dans les chapitres à venir.

Dans le prochain chapitre, je vous propose de nous intéresser à ce que nous avons en permanence sous les yeux lorsqu’on utilise un ordinateur : l’écran.


La carte mère L'écran

L'écran

À retenir pour bien choisir Et l'homme créa le pixel

L’écran est l’interface entre le système et l’utilisateur. Tout ce que l’ordinateur peut vous transmettre (mis à part le son évidemment), c’est via l’écran qu’il le fera. C’est bien simple, lors de l’utilisation d’un ordinateur, nos yeux sont rivés dessus en permanence ! Alors dans ces conditions, il est nécessaire d’avoir un bon écran. Son choix sera donc très important, d’autant que les paramètres à prendre en compte sont plus nombreux qu’il n’y parait.

Dans ce chapitre, nous allons donc commencer par parler quelques instants de ce qu’est une image numérique et de sa brique de base, le pixel. Nous verrons ensuite les diverses caractéristiques utiles pour le choix d’un écran, telles que sa taille, son temps de réponse, sa luminosité, etc. Enfin, nous nous intéresserons à sa connectique. Bref, voilà un chapitre qui va nous permettre d’en prendre plein les yeux !

Et l'homme créa le pixel

L'écran Les caractéristiques utiles

Avez-vous déjà regardé un écran allumé de très près ? Je veux dire, de vraiment très près ! Bon ok, ça fait mal aux yeux… Mais on arrive à distinguer des petits points. Eh bien ces points sont ce qu'on appelle des pixels. Ils sont les briques de base d’une image numérique. Sur un écran donné, tous les pixels ont la même taille. Ils ont chacun une et une seule couleur et sont indivisibles. L’œil humain, sauf s’il s’en approche suffisamment, est incapable de distinguer les pixels les uns des autres. Leur union forme une image que le cerveau interprète en tant que telle, sans se préoccuper de ce qui la constitue.

On peut illustrer cela avec la désormais célèbre guerre des post-it qui fait rage dans les bureaux parisiens :

Post-it sur une fenêtre
Post-it sur une fenêtre

C’est la mise bout à bout de chacun des post-it qui forme l’image.

Revenons aux images numériques. Un écran est capable d’afficher un certain nombre de pixels (nombre qui ne varie pas tout au long de la vie de l’écran), qui vont chacun prendre une couleur précise afin d’afficher les images. Chaque pixel est en fait composé de 3 points (un rouge, un vert et un bleu) dont la combinaison par synthèse additive (le mélange de ces trois couleurs) va permettre d'obtenir différentes couleurs. Nous reviendrons sur ce point plus loin dans ce chapitre. ;)

Zoom sur un pixel
Zoom sur un pixel

Rouge, vert et bleu sont les trois couleurs primaires qui permettent d’obtenir toutes les autres couleurs. En informatique, on croise d’ailleurs souvent le modèle RGB, qui permet de définir une couleur.

Synthese additive
Synthese additive
Synthese soustractive
Synthese soustractive

L'écran Les caractéristiques utiles

Les caractéristiques utiles

Et l'homme créa le pixel Les types de dalles

Le choix d’un écran dépend de nombreux paramètres qui peuvent revêtir plus ou moins d’importance selon vos attentes.

Taille et format de l’écran

La taille de l’écran et son format sont deux critères à ne pas confondre. La taille de l'écran est déterminée par la diagonale de sa dalle (la partie où se trouvent les cristaux liquides qui afficheront l'image). Elle se mesure en pouce (rappelons qu’un pouce vaut 2,54 centimètres).

Diagonale de l'écran
Diagonale de l'écran

Le format quant à lui, est le rapport entre la largeur et la hauteur de l’écran. C’est un rapport, il est donc sans unité.

Lorsque la télévision a été créée (c’était évidemment bien avant les ordinateurs), le format par défaut était le 4/3. Avec un écran de ce format, le rapport largeur/hauteur vaut donc 4/3, soit 1,33. Autrement dit, si on note l la largeur de l'écran et h sa hauteur, on a donc : l = 1,33 x h. Il ne reste plus qu’à appliquer le théorème de Pythagore pour obtenir la taille de l’écran. ;)

Le format 4/3 a perduré pendant de nombreuses années, même avec l’arrivée des premiers ordinateurs. Il a été remplacé par le 16/10, lui-même en voie de disparition. De nos jours c’est le format 16/9 qui prédomine, plus proche de la vision humaine (notre champ de vision est plus « panoramique », donc plus proche du 16/9 que du 4/3). Les écrans de télévision (LCD/Plasma) et d’ordinateur tendent tous à s’uniformiser vers ce format.

Résumons les choses à l’aide d’un petit tableau :

Critère

Définition

Exemples

Taille

Taille de la diagonale de la dalle (en pouces).

14", 15", 17", 23", etc.

Format

Rapport entre la largeur et la hauteur de l’écran.

4/3, 16/10, 16/9

Définition et pitch

Sur un écran, les pixels sont organisés en lignes et en colonnes. Le produit entre le nombre de pixels en ligne et celui en colonne donne la définition de l’écran. La définition est donc le nombre de pixels pouvant être affiché à l’écran.

Par exemple, ce nombre peut s’élever à 786 432 pixels. Bon, ce nombre n’étant pas très parlant, on exprime la définition sous forme de produit : 1024x768. Dans ce cas, une ligne va contenir 1024 pixels et une colonne en sera elle composée de 768.

Le pitch d’un écran (aussi appelé pas de perçage) est la plus faible distance entre deux pixels. Le pitch est exprimé en millimètres (bien qu’il soit inférieur à 1 mm).

Critère

Définition

Exemples

Définition

Nombre de pixels pouvant être affiché à l’écran.

800x600, 1024x768, 1280x720, 1440x900, 1920x1080, etc.

Pitch (pas de perçage)

Plus faible distance entre deux pixels.

0.21mm, 0.25mm, 0.28mm, 0.31mm, etc.

Pour bien comprendre, on peut mettre en relation le pitch avec la taille de l’écran et sa définition. Prenons un exemple avec un écran dont le pitch vaut 0,31 mm et dont les dimensions de la dalle sont de 345,44 mm en largeur par 259,08 mm en hauteur. En largeur, il peut donc y avoir un pixel tous les 0,31 mm et cela sur 345,44 mm. Le nombre de pixels en largeur est donc de 345,44/0,31 soit 1114 pixels (je vous laisse faire le calcul pour la hauteur ;) ). Le produit des nombres de pixels en largeur et en hauteur donne la définition.

En théorie, plus le pitch est petit, plus on peut mettre de pixels dans une même surface et ainsi avoir une image plus détaillée. Mais en réalité, tout dépend de la distance à laquelle on se trouve par rapport à l'écran. Rappelez-vous du petit test que nous avons fait en début de chapitre, lorsque je vous demandais de vous approcher au plus près de votre écran. ;) L’important est que le pitch ne soit ni trop petit, auquel cas les caractères pourraient devenir difficile à lire, ni trop gros car dans ce cas on risquerait de « voir » les pixels :

Les pixels de Mario
Les pixels de Mario

Luminosité et contraste

La luminosité d’un écran caractérise sa capacité à émettre plus ou moins de lumière. Elle s’exprime en candelas par mètre carré (cd/m²). La candela étant l’unité de l’intensité lumineuse, la luminosité représente donc cette intensité rapportée à la surface de l’écran.

Les écrans actuels ont une luminosité comprise entre 200 et 500 cd/m². Mais attention, cette valeur représente la luminosité maximale de l’écran. Autrement dit, deux écrans aux luminosités affichées différentes pourront être réglés de façon à produire la même intensité lumineuse. Tout dépend de vos préférences et de la lumière régnant dans la pièce. Vous pouvez faire le test avec n’importe quel écran : selon que vous le regardiez en plein jour, volets ouverts ou dans la nuit noire, vous n’aurez pas le même ressenti de la luminosité.

Une caractéristique est très souvent associée à la luminosité : le contraste. Le contraste est le rapport de luminosité entre le pixel le plus sombre et le pixel le plus clair de l’écran. Vous allez me dire que les pixels n’ont jamais la même couleur selon l’image affichée à l'écran… C'est vrai. Le contraste représente en fait la capacité de l’écran à afficher, au sein d’une même image, des pixels de luminosités les plus différentes possibles.

Le contraste s’exprime sous forme d’un rapport, comme par exemple 50 000:1. Cela signifie qu’un tel écran pourrait afficher, en théorie, un pixel cinquante mille fois plus lumineux qu’un autre. Je dis bien « en théorie » parce qu’en réalité, les contrastes sont souvent situés autour de 850:1. Si les constructeurs se vantent d’afficher des niveaux de contrastes si délirants, c’est avant tout pour des raisons marketing.

Comme vous pouvez le constater, contraste et luminosité sont très liés. Lors du réglage de l’écran, ils sont donc très souvent réglés ensemble.

Enfin, une valeur trop souvent absente des caractéristiques données par les constructeurs est la valeur de noir. C'est une luminosité, elle s'exprime donc en candelas par mètre carré. Dans un monde parfait, un pixel noir aurait une luminosité de 0 cd/m². Seulement, nous ne vivons pas dans un monde parfait… Retenez simplement ceci : plus la valeur de noir sera proche de 0, plus les noirs seront profonds.

Critère

Définition

Exemples

Luminosité

Capacité de l’écran à émettre de la lumière.

350 cd/m², 500 cd/m², etc.

Contraste

Rapport de luminosité entre le pixel le plus sombre et le pixel le plus clair de l’écran.

3 000:1, 50 000:1, 80 000:1, etc.

Temps de réponse

Tel qu’il est défini dans sa norme ISO (l'organisation internationale de normalisation, qui s'occupe de produire des normes dans de très nombreux domaines et pour le monde entier), le temps de réponse d’un écran est le temps que va mettre un pixel pour passer du noir au blanc, puis à nouveau au noir.

Pourquoi s’embêter à faire revenir le pixel au noir ? Le temps pour passer du noir au blanc n’est-il pas déjà caractéristique ?

Pour qu’un pixel soit coloré, il faut « allumer » avec plus ou moins d’intensité chacune des cellules rouge, verte et bleue dont nous parlions plus tôt, à l’aide d’un courant électrique. Pour faire du blanc, il faut que les trois cellules soit stimulées au maximum (rappelez-vous de la synthèse additive). Le temps nécessaire à la stimulation de ces trois cellules est donc effectivement caractéristique, mais il ne suffit pas. En effet, pour que le pixel revienne au noir, il faut maintenant que la stimulation des cellules se dissipe après que le courant électrique ait été coupé. Le temps nécessaire à la dissipation de ce courant est donc tout autant caractéristique.

Dans la pratique, il est rare qu’un pixel passe du noir (« tout éteint ») au blanc (« tout allumé »). Les pixels passent d’une couleur quelconque à l’autre, ce qui signifie que les cellules rouge, verte et bleue reçoivent plus ou moins de courant électrique, sans pour autant être à leur maximum. Pour mesurer le temps de réponse, on s’intéressera donc plutôt au temps mis pour passer du gris au blanc, puis à nouveau au gris. C’est ce temps qui est indiqué par les constructeurs sur les fiches techniques des écrans.

Le temps de réponse est un critère important lors du choix d’un écran. Il s’exprime en millisecondes (1 ms = 0,001 s), ce qui est une échelle relativement petite mais tout de même significative car on peut presque la mesurer « à l’œil nu » (du moins, on peut ressentir les différences entre deux écrans). Si le temps de réponse est trop grand, les images ne se succèderont pas bien : une sensation de « flou » se fera ressentir.

Critère

Définition

Exemples

Temps de réponse

Temps nécessaire pour qu’un pixel passe du gris au blanc, puis à nouveau au gris.

5 ms, 8 ms, 12 ms, etc.

Angle de vision et rétro-éclairage

Avez-vous déjà essayé de regarder un écran d’ordinateur à plusieurs ? J’imagine que oui. Si vous n’étiez pas bien en face de l’écran, vous avez peut-être subi les effets néfastes d’un angle de vision trop faible : vous ne voyiez pas bien l’image.

Les angles de visions (horizontal et vertical) sont les angles auxquels on peut regarder l’écran sans que l’image ne se dégrade.

Angle de vision
Angle de vision

Les angles de visions varient entre 160 et 180°, selon le type de dalle (nous allons en parler dans quelques instants).

Le rétro-éclairage quant à lui est le procédé permettant de voir l’image dans le noir. Tous les écrans en sont bien sûr pourvus. Jusqu’à peu, le rétro-éclairage était effectué à la seule lumière de néons intégrés à l’écran. Aujourd’hui, on utilise plutôt des LED, ce qui permet de réduire l’épaisseur et la consommation électrique des écrans.

Critère

Définition

Exemples

Angles de vision

Angles (horizontal et vertical) auxquels on peut regarder l’écran sans que l’image ne se dégrade.

160°, 178°, etc.

Rétro-éclairage

Eclairage de l’écran permettant de l’utiliser dans le noir.

-

Fréquence

La fréquence d’un écran LCD est une caractéristique plutôt secondaire, le temps de réponse étant un critère plus significatif. En effet, quel que soit l’écran, une fréquence de 60 Hz convient tout à fait. Certains modèles permettent de monter à 75 Hz, mais cela a souvent pour effet de dégrader l’image… et de faire mal aux yeux ! >_

Aujourd’hui, on commence à voir apparaître des écrans capables de doubler cette fréquence et donc de monter à 120 Hz. Dans ce cas, il est recommandé d’utiliser cette fréquence afin de diminuer la rémanence (c’est-à-dire le temps que met l’écran à effacer une image après en avoir affiché une nouvelle). Cela dit, ces écrans sont peu nombreux, plus chers et la rémanence dépend aussi du temps de réponse. Avec certaines cartes graphiques, cette fréquence élevée permet même de jouer en 3D stéréoscopique. :soleil:


Et l'homme créa le pixel Les types de dalles

Les types de dalles

Les caractéristiques utiles La connectique

Les écrans les plus répandus : les LCD

Les écrans LCD utilisent, comme leur nom acronyme l’indique, des cristaux liquides pour afficher les images. Mais que représentent ces fameux cristaux au juste ? Eh bien disons qu’ils ont un rôle de guide pour la lumière… Explications.

Un écran LCD est composé de deux fines plaques de verre, qui vont devoir être toutes deux traversées par des rayons lumineux. Chacune de ces plaques a la propriété de laisser passer la lumière uniquement si elle est orientée dans un certain sens. En faisant pivoter une plaque, la lumière a de plus en plus de mal à la traverser. Une fois la plaque pivotée à 90 degrés, alors la lumière ne peut plus passer du tout. Il se trouve que dans un écran LCD, la seconde plaque est justement positionnée à 90 degrés de la première ! De base, un rayon lumineux ne peut donc pas passer :

Deux plaques orientées à 90 degrés ne laissent pas passer la lumière
Deux plaques orientées à 90 degrés ne laissent pas passer la lumière

Dans cette configuration, l’utilisateur ne reçoit aucune lumière et ne peux donc rien voir à l’écran.

C’est alors qu’interviennent les cristaux liquides ! Situés entre les deux plaques de verre, ils ont la faculté de faire pivoter, non pas les plaques, mais le rayon lumineux. Cela peut sembler étrange au premier abord, mais un rayon lumineux peut en effet être considéré comme une onde ayant une certaine orientation. Lorsque les cristaux liquides sont traversés par un courant électrique plus ou moins fort, alors l’onde lumineuse pivote proportionnellement. Ainsi, il est possible de faire traverser les deux plaques de verres par le rayon lumineux :

Avec les cristaux liquides (ici en rouge), c'est mieux !
Avec les cristaux liquides (ici en rouge), c'est mieux !

C’est ce principe qui permet d’afficher chacun des pixels d’un écran LCD. Il est même répété trois fois par pixel, afin de donner les trois composantes des couleurs : rouge, vert et bleu. Selon les intensités de courant électrique envoyées aux cristaux liquides des trois couleurs, il est possible d’obtenir la couleur désirée pour chaque pixel.

Ainsi, pour faire du blanc, les rayons lumineux des trois composantes de couleurs sont transmis (c’est la synthèse additive) alors que pour faire du noir, aucun rayon ne l’est.

Si j’ai bien compris, les rayons lumineux sont plus ou moins masqués selon la couleur voulue. Ils sont même complètement occultés pour faire du noir. Mais alors dans ce cas, comment peut-on encore voir quelque chose à l’écran si les rayons lumineux ne parviennent pas (ou mal) jusqu’à nos yeux ?

Vous avez très bien compris ! Cette technique nécessite un éclairage supplémentaire afin de permettre à l’utilisateur de voir le résultat : c’est le rétro-éclairage dont nous parlions tout à l’heure.

On distingue principalement trois types d’écrans LCD. Leur principe général de fonctionnement est le même, mais ils diffèrent par leurs caractéristiques.

Comme vous le voyez, ils ont chacun leur qualité et leur défaut.

Ecran LCD
Ecran LCD

Actuellement, on assiste à un retour des dalles IPS et, dans une moindre mesure, des dalles VA.

D’autres types d’écrans

Le Moyen-Age : les écrans CRT

Les plus jeunes d’entre vous ne s’en souviendront peut-être pas, mais les écrans n’ont pas toujours été aussi plats qu’aujourd’hui. Il fut un temps où les unités centrales étaient accompagnées de mammouths qui prenaient toute la place sur le bureau : les écrans CRT. Vous l’aurez compris, ces écrans sont en voie de disparition.

Ecran CRT
Ecran CRT

Sur ces écrans, une partie de la dalle est masquée par les bords de l’écran. Cela implique que la taille annoncée par les constructeurs est généralement un peu plus grande que la surface de dalle réellement visible (la différence est d’environ un pouce). Attention donc aux surprises si jamais vous… en fait il y a peu de risque que vous achetiez un tel écran. Mais si ça devait être le cas, pensez à ce petit détail. ;)

Les principes de définition, pitch, luminosité et contraste sont les mêmes que pour les écrans LCD. En revanche, la fréquence d’affichage d’un écran CRT est un point important à prendre en considération. Les écrans CRT affichent les images grâce à un système de balayage (de gauche à droite, du haut vers le bas). Si la fréquence n’est pas assez élevée, ce balayage peut provoquer un clignotement à l’écran, très gênant et pouvant provoquer des maux de têtes. Il est recommandé de ne pas descendre en dessous de 72 Hz pour éviter ce phénomène.

En fait la règle est simple : plus la fréquence d’un écran CRT est élevée, mieux c’est. ;)

Enfin, on parle rarement du temps de réponse d’un écran CRT car celui-ci est très faible. Il est même la plupart du temps inférieur à celui d’un écran LCD, quoique cela soit de moins en moins vrai avec les écrans LCD actuels.

Le futur (pas si loin que ça) : les écrans OLED

D'ici quelques années, on devrait voir apparaître un tout nouveau type de dalles, dites OLED. Comme leur nom l'indique, elles ne seront plus composées de cristaux liquides mais de LED qui ont l'avantage d'émettre leur propre lumière : il n’y a donc plus besoin de rétro-éclairage. Elles seront plus réactives et plus fines (à tel point que certains écrans pourront être souples :waw: ). L’absence de rétro-éclairage induit également un autre avantage non-négligeable : ces dalles consommeront moins d’énergie.

Ecran OLED
Ecran OLED

Les caractéristiques utiles La connectique

La connectique

Les types de dalles À retenir pour bien choisir

Bon, c’est bien beau tout ça, mais un écran ne sert à rien s’il n’est pas branché à un ordinateur ! Nous allons maintenant nous intéresser à la connectique d’un écran. Commençons par des connecteurs que vous risquez de ne plus beaucoup croiser : VGA et DVI.

Le port VGA date de 1987. C’est un type de connexion analogique dont la définition maximale est de 2048x1536. Il est généralement de couleur bleue :

Port VGA
Port VGA

Le DVI se voulait le remplaçant du port VGA. Il en existe de plusieurs types :

Un port DVI est généralement de couleur blanche, mais cela n’est pas systématique :

Port DVI
Port DVI

Les ports VGA et DVI sont en voie de disparition. En effet, avec l’arrivée de la HD, les ports HDMI ont fait leur apparition :

Port HDMI
Port HDMI

Le HDMI est une interface numérique qui, en plus de transmettre l’image, peut aussi transmettre le son. On le trouve aussi bien sur les ordinateurs que sur les écrans de télévisions HD. Il est l’équivalent numérique (et donc le remplaçant) de la célèbre et vieillissante prise péritel.

Pour la haute-définition, on trouve également le DisplayPort, lui aussi numérique, remplaçant du DVI et concurrent du HDMI :

Port DisplayPort
Port DisplayPort

Certains écrans haut de gamme intègrent des prises composites, composantes et audio (analogiques et/ou numériques), voir des prises USB.

Concernant les écrans CRT, on n’y trouve généralement qu'un unique port VGA. Certains modèles haut de gamme (pour les graphistes en particulier) peuvent cependant être équipés de prises BNC, qui améliorent la qualité de l'image.


Les types de dalles À retenir pour bien choisir

À retenir pour bien choisir

La connectique Les cartes filles

Un écran d’ordinateur possède bien plus de caractéristiques que ce que l’on pourrait penser au premier abord. Il ne s’agit pas seulement de choisir sa taille et son format ! ;) Selon vos attentes, vous aurez besoin d’un écran de plus ou moins haute qualité. Le tout est de vous poser les bonnes questions selon que vous soyez graphiste, amateur de jeux vidéo ou que vous utilisiez tout simplement votre ordinateur pour la bureautique.

Dans le prochain chapitre, nous allons revenir du côté de la carte mère, et plus précisément sur ce qu’on y branche : les cartes filles.


La connectique Les cartes filles

Les cartes filles

À retenir pour bien choisir Les cartes graphiques

Revenons à présent à l’intérieur du boîtier de l’unité centrale, et plus précisément au niveau de la carte mère. Dans un précédent chapitre, nous avions vu que cette dernière possédait de nombreux connecteurs internes, dont le nombre dépendait du modèle choisi. Vous en souvenez-vous ? Ces connecteurs servent notamment à brancher les cartes filles, qui vont nous intéresser dans le présent chapitre.

Si le rôle de la carte mère ne varie pas quel que soit le modèle (il s’agit toujours d’une grande plaque accueillant les autres composants de l’ordinateur), la donne n’est pas la même pour les cartes filles : il en existe plusieurs types, aux rôles bien définis. On parlera ainsi de carte graphique, de carte réseau, de carte tuner, etc. Elles ont chacune une fonctionnalité spécifique. Si elles sont toutes regroupées sous le terme de « carte fille », c’est avant tout pour leur dépendance vis-à-vis de la carte mère, à laquelle elles sont toutes branchées.

Au cours de ce chapitre, nous parlerons donc des cartes filles les plus courantes : cartes son, cartes réseau, cartes contrôleur, cartes tuner… Et pour commencer, les cartes à mettre en relation avec le chapitre précédent : les cartes graphiques.

Les cartes graphiques

Les cartes filles Les cartes son

Rôle de la carte graphique

Lorsqu’on utilise un ordinateur, nous avons les yeux rivés sur l’écran. Ce dernier est l’interface principale permettant à l’ordinateur de transmettre des informations à l’utilisateur. Ainsi, il n’est rien de plus naturel pour nous que de déplacer une fenêtre d’explorateur de fichiers, de lancer un jeu, de regarder un Blu-Ray, etc. Toutes ces images qui apparaissent à l’écran sont générées par l’ordinateur qui, comme vous le savez, travaille avec des 0 et des 1. Le rôle de la carte graphique est alors de transformer ces 0 et 1 en données graphiques, puis de les envoyer à l’écran.

De nos jours, les cartes graphiques font même beaucoup plus ! En effet, elles ont également pour tâche de procéder à de très nombreux calculs de rendu quand cela est nécessaire. C’est notamment le cas dans les jeux vidéo actuels ou pour les logiciels de modélisation et d’animation 3D (3DSMax, Blender, LightWave, Maya, etc.). La carte graphique sera également sollicitée lors de l'application de filtres dans des logiciels de traitement d’images 2D (Photoshop, Gimp, etc.), l'affichage de certains éléments de Windows (notamment les thèmes « Aero », apportant la transparence aux fenêtres), certains calculs mathématiques poussés, le décodage de certains formats vidéos, etc.

Si vous êtes intéressé par l’une de ces applications, alors il vous faut porter une attention toute particulière au choix de la carte graphique. Je vais même aller plus loin : la carte graphique est alors l’un des éléments les plus importants de votre configuration ! Il n’est donc pas étonnant de voir le prix de la carte graphique grimper à 20 ou 25% du prix total de votre PC ! :waw: Joueurs, vous êtes donc prévenus : ne sous-estimez pas le choix de votre carte graphique !

En revanche, si la principale utilisation que vous faites de votre ordinateur est la bureautique ou la navigation sur le Web, alors la carte graphique ne sera pas primordiale. Vous pourrez même vous contenter de la carte graphique intégrée de base à la carte mère. Celle-ci est souvent très basique, mais après tout, si vous n’avez pas de besoins particuliers en terme d’affichage, alors pourquoi se ruiner ?

Carte graphique AMD
Carte graphique AMD
Carte Graphique NVIDIA
Carte Graphique NVIDIA

La carte graphique est une carte fille complexe, dotée de plusieurs composants importants. Nous allons en décrire quelques uns.

Composants de la carte graphique

Carte « fille » ne veut pas dire carte « basique ». La carte graphique possède plusieurs composants très importants, à commencer par son propre processeur : le GPU.

Le GPU (Graphics Processing Unit)

On l’a vu plus tôt, le processeur (ou CPU) est un des éléments les plus importants de l’ordinateur : il s’occupe de tous les calculs nécessaires au fonctionnement du système. Tous ? Non ! Car un village peuplé d'irréductibles cela est parfois trop pour lui. Il s’aide donc du processeur de la carte graphique, le GPU, pour tous les calculs spécifiques à l’affichage.

L’intérêt est double. D’une part, le GPU soulage la charge de travail du CPU. En effet, on travaille plus efficacement à deux que tout seul. D’autre part, le GPU est spécialisé dans les calculs graphiques. C’est un peu comme dans la cuisine d’un restaurant : le cuisinier est capable de réaliser la plupart des plats, mais les clients sont bien plus satisfaits quand il est aidé par un spécialiste des desserts. Ce dernier ne s’occupe peut-être que des desserts, mais il s’en occupe très bien ! Et cela laisse du temps au cuisinier « principal » pour la préparation des plats.

Le GPU, le processeur de la carte graphique
Le GPU, le processeur de la carte graphique

Tout comme le CPU, le GPU a tendance à chauffer. Il est donc généralement accompagné d’un radiateur, voire d’un ventirad (si vous avez bien suivi le chapitre sur la carte mère, vous devriez savoir de quoi il s’agit ;) ).

La mémoire

Certaines images sont parfois très complexes, notamment les images 3D. Pour les générer, le GPU doit faire plusieurs « passes » afin d’ajouter les éléments les uns après les autres. Par exemple, le GPU doit être en mesure d’ajouter les textures à une image 3D, c’est-à-dire d’appliquer à chaque élément les couleurs ou habillages (une texture « brique » sur le mur d’une maison, etc.). Parfois, les textures elles-mêmes nécessitent de nombreux calculs avant d’être applicables. Avant de pouvoir être utilisés dans l’image, tous les éléments de l’image déjà constitués sont donc stockés dans la mémoire vidéo de la carte graphique. Ainsi, plus la quantité de mémoire est importante, plus la carte graphique pourra gérer un nombre important de textures ou des textures composées de plus de pixels.

La mémoire sert également à constituer les éléments d’une image pendant qu’une autre est affichée à l’écran (on parle de framebuffer). Tout cela doit aller extrêmement vite ! Il est hors de question pour l’utilisateur d’attendre que sa carte graphique construise chaque image de son jeu ou de son film. La mémoire sert donc de tampon, permettant de calculer les images aussi rapidement que nécessaire.

Il existe plusieurs types de mémoires vidéo. Les plus courants actuellement sont les GDDR2, GDDR3 et GDDR5 (la GDDR4 a été très vite remplacée par cette dernière). La GDDR2 équipe principalement les cartes graphiques d’entrée de gamme mais tend à être remplacée par la GDDR3. La GDDR5 quant à elle, est la plus performante et devient petit à petit la norme.

Les autres composants utiles

Une carte graphique est faite de beaucoup d’autres composants, parmi lesquels le RAMDAC et le BIOS vidéo.

Le RAMDAC est un convertisseur numérique-analogique. Il transforme les données numériques produites par le GPU en données analogiques pouvant être affichées à l’écran. Avec l’arrivée des ports numériques tels que le DVI, le RAMDAC est devenu inutile : le GPU peut envoyer à l’écran les données numériques directement.

Tout comme le BIOS de la carte mère, le BIOS vidéo contient quant à lui les informations nécessaires au fonctionnement de la carte graphique (modes d’affichage supportés, etc.) et à son démarrage.

La connectique

Sur les vieux PC (pardon, les PC d’un certain âge) la carte graphique était branchée à la carte mère via un port AGBP 8x, voire un port PCI (si vous ne vous souvenez plus de leur frimousse, je vous invite à relire le passage concerné dans le chapitre de la carte mère). Aujourd’hui, elle se connecte sur un port PCIe x16 :

Un port PCIe x16
Un port PCIe x16

Pour les PC portables, on peut trouver des cartes graphiques externes se branchant sur un port USB.

Une fois la carte graphique branchée, celle-ci offre plusieurs connecteurs externes, que nous avons vus dans le chapitre traitant de l’écran : VGA, DVI, HDMI ou encore Display Port (ces deux derniers étant les ports que l’on trouvera de plus en plus dans les années à venir).

Port HDMI
Port HDMI
DisplayPort
DisplayPort

Les cartes filles Les cartes son

Les cartes son

Les cartes graphiques Les cartes réseau

N’avez-vous jamais été averti par un magnifique ♫ DING ♪ qu’une erreur était survenue dans votre système ? Ou peut-être utilisez-vous votre ordinateur pour écouter de la musique, regarder un film, ou même pour communiquer de vive voix avec vos proches ? Bref, les applications « sonores » ne manquent pas ! Mais la carte son ne sert pas uniquement à émettre du son, elle a également pour tâche de le recevoir (avec l’aide d’un micro bien entendu).

Bonne nouvelle : si vous avez une carte mère, vous avez déjà une carte son ! En effet, les cartes mères actuelles intègrent toutes le nécessaire à l’émission et à la réception du son.

Sans vouloir passer pour le radin de service, pourquoi dépenser plus pour une carte son dédiée ? Y a-t-il un véritable intérêt comme pour les cartes graphiques ?

La réponse est… oui et non. Comme toujours, tout dépend de vos attentes.

Différentes cartes son
Différentes cartes son

L’installation d’une carte son a un autre inconvénient que son prix (même si ce n’est pas le composant le plus dispendieux) : elle occupe un port supplémentaire. Cela peut être un port PCI, un port PCIe ou même un port USB. Dans tous les cas, si vous êtes en pénurie de ports, la carte son n’est pas forcément à privilégier. L’apport d’une carte son dédiée (par rapport à la carte son intégrée à la carte mère) n’est pas aussi flagrant que pour les cartes graphiques.


Les cartes graphiques Les cartes réseau

Les cartes réseau

Les cartes son Autres cartes filles

Pour que votre ordinateur puisse échanger avec le reste du Monde, il a besoin d’une interface réseau. Ce « reste du Monde » peut être le réseau local de votre maison (afin d’échanger des photos avec l’ordinateur d’un ami par exemple), le réseau de votre entreprise (pour imprimer un document sur la photocopieuse du bout du couloir) ou bien le Monde tout entier lorsqu’il s’agit d’Internet. De nos jours, un ordinateur sans interface réseau (filaire ou non) se trouve bien esseulé.

Les cartes Ethernet

La méthode la plus courante pour relier un ordinateur à un réseau est sans doute l’utilisation d’un câble Ethernet :

Câble Ethernet
Câble Ethernet

La plupart des cartes mères récentes sont équipées d’une puce gérant le protocole Ethernet à des débits pouvant aller jusqu’à 1.000 Mbps (Gigabit Ethernet). Ainsi, il est de moins en moins fréquent d’utiliser une carte dédiée. Toutefois, vous ne pourrez pas y couper si vous souhaitez atteindre des débits de 10 Gbps (10 Gigabit Ethernet) ou supérieurs.

Carte Ethernet
Carte Ethernet

Dans le cas où vous choisissez l’installation d’une carte réseau dédiée, cette dernière sera à placer dans un port PCI ou PCIe.

Les cartes Wi-Fi

Quelques mots sur le Wi-Fi

Avec un fil, c’est bien. Sans fil, c’est mieux ! Le Wi-Fi est une variante du protocole Ethernet, spécialement conçue pour être utilisée sans fil (Wi-Fi est d’ailleurs la contraction de « Wireless Fidelity », soit « fidélité sans fil »). Ainsi, plus besoin de ce pénible câble toujours trop court et bien contraignant lorsqu’il s’agit de traverser une cloison. « Wi-Fi » est le sympathique nom donné à la norme, mais son véritable nom est 802.11.

Il existe des cartes mères pourvues d’une puce Wi-Fi mais cela est encore rare, au moins pour les PC de bureau (les cartes mères des ordinateurs portables récents en sont de plus en plus souvent équipées). L’utilisation du Wi-Fi passe donc la plupart du temps par l’installation d’une carte fille, branchée en PCI ou PCIe.

Carte Wi-Fi
Carte Wi-Fi

Avoir une interface Wi-Fi n’empêche en rien d’avoir une interface Ethernet, les deux peuvent très bien cohabiter. D’ailleurs, sauf cas particuliers, un ordinateur équipé d’une interface Wi-Fi est aussi équipé d’une carte Ethernet. L’ordinateur peut alors être connecté au réseau de deux façons différentes, selon votre choix ou bien les possibilités qui s’offrent à vous. Un ordinateur peut même avoir deux interfaces Ethernet ! Cela ne le gêne absolument pas.

C:\Users\Matthieu>ipconfig /all

Configuration IP de Windows

   Nom de l'hôte . . . . . . . . . . : SHIGERUM-PC
   Suffixe DNS principal . . . . . . :
   Type de noeud. . . . . . . . . .  : Hybride
   Routage IP activé . . . . . . . . : Non
   Proxy WINS activé . . . . . . . . : Non

Carte Ethernet Connexion au réseau local :

   Statut du média. . . . . . . . . . . . : Média déconnecté
   Suffixe DNS propre à la connexion. . . :
   Description. . . . . . . . . . . . . . : Atheros AR8132 PCI-E Fast Ethernet Controller (NDIS 6.20)
   Adresse physique . . . . . . . . . . . : BC-AE-C5-A0-CD-BB
   DHCP activé. . . . . . . . . . . . . . : Oui
   Configuration automatique activée. . . : Oui

Carte réseau sans fil Connexion réseau sans fil :

   Statut du média. . . . . . . . . . . . : Média déconnecté
   Suffixe DNS propre à la connexion. . . :
   Description. . . . . . . . . . . . . . : Broadcom 802.11n Network Adapter
   Adresse physique . . . . . . . . . . . : 48-5D-60-A8-90-C3
   DHCP activé. . . . . . . . . . . . . . : Oui
   Configuration automatique activée. . . : Oui

On distingue bien les deux interfaces réseau, filaire (« Carte Ethernet ») ou non (« Carte réseau sans fil »), ainsi que leurs adresses MAC.

Différentes normes

La norme 802.11 est la norme Wi-Fi de base. Comme toute norme, la 802.11 a évolué (et continue d'évoluer) et de nombreuses variantes ont vu le jour. Ces variantes ont pour but d’améliorer les débits, de régler des problèmes de sécurité, etc. Les normes les plus courantes aujourd’hui sont les suivantes :

Dans tous les cas, la compatibilité ascendante est respectée. Cela signifie qu'un appareil fonctionnant avec une norme 802.11 récente sera toujours capable de communiquer avec un appareil de norme plus ancienne.

Les prises CPL

Mis à part le Wi-Fi, il existe un autre moyen de s’affranchir des câbles pour monter un réseau informatique. Il consiste en l’utilisation d’un autre réseau déjà présent dans la maison, le réseau électrique, et de prises CPL :

Boîtiers CPL
Boîtiers CPL

Ces prises ne sont pas des cartes filles, dans le sens où elles ne se branchent pas directement sur la carte mère, mais sur une prise de courant classique de la maison. Ainsi, chaque prise CPL peut devenir un point d’entrée du réseau informatique. Voyons un exemple.

Imaginons que votre MODEM (ou votre routeur, box, etc.) se trouve dans le salon et que le but du jeu est d’amener le réseau informatique dans la chambre qui se situe à l’étage. Une première méthode serait de faire courir un câble Ethernet dans les escaliers, mais cela n’est ni très pratique, ni très esthétique. Autre méthode : les prises CPL. Une première prise CPL est reliée au routeur situé à quelques centimètres d'elle (grâce à un câble Ethernet) et est branchée sur le secteur. A l’étage, une seconde prise CPL est elle aussi branchée sur une prise de courant classique et est cette fois reliée à l’ordinateur de la chambre (toujours avec un câble Ethernet). Le réseau informatique est alors « porté » par le réseau électrique, du salon à la chambre. Cette méthode nécessite un peu plus de matériel, mais a le mérite d’éviter qu’un très long câble Ethernet ne traverse toute la maison.

Maison sans CPL à gauche, maison avec CPL à droite
Maison sans CPL à gauche, maison avec CPL à droite

Les prises CPL permettent de s'affranchir des encombrants fils qui parcourent la maison.

Les 1ers boîtiers permettaient des débits pouvant aller jusqu'à 85 Mbps mais aujourd'hui, les débits moyens se situent dans les 200 Mbps et peuvent même monter jusqu'à 500 Mbps. Les prises CPL ont donc un avantage non négligeable par rapport au Wi-Fi : le débit est meilleur.


Les cartes son Autres cartes filles

Autres cartes filles

Les cartes réseau À retenir pour bien choisir

Les cartes contrôleur

Une carte graphique permet l’ajout d’un connecteur graphique, une carte son permet l’ajout d’un connecteur audio, une carte réseau permet l’ajout d’un connecteur réseau, une carte… Enfin bref, je crois que vous avez compris. Le principe est le même pour les cartes contrôleurs, qui permettent d’ajouter des contrôleurs, bien souvent à destination de périphériques de stockage.

Par exemple, on utilisera une carte contrôleur SATA sur de vieilles cartes mère n’étant pas équipées de base par ce type de port. L’inverse est également possible : on peut très bien vouloir brancher un disque dur en IDE sur une carte mère récente ne disposant que de connecteurs SATA. Si un connecteur USB est endommagé ou bien si l’on souhaite profiter des débits de l’USB3, on se tournera là encore vers une carte contrôleur adéquate.

Différentes cartes contrôleur
Différentes cartes contrôleur

Les cartes tuner

On l’a vu dans le chapitre précédent : les écrans d’ordinateur et les écrans de télévision ont tendance à converger (si on exclut la taille gigantesque des derniers écrans de Home Cinema). Dans ces conditions, pourquoi ne pas faire de votre ordinateur une télévision à part entière ? Parce qu’il n’a pas de tuner TV peut-être ? Qu’à cela ne tienne, les cartes tuner sont là pour ça !

Mais avant tout, qu’est-ce qu’un tuner au juste ? Un tuner, c’est d’abord un appareil permettant d’exclure un certain nombre de plages de fréquence qui ne nous intéressent pas. Typiquement, un tuner TV ne s’intéressera qu’aux fréquences… TV. Idem pour un tuner audio, qui ne retient que les ondes radio. Dans tous les cas, un tuner peut être analogique (TV hertzienne traditionnelle), numérique (TNT) ou bien les deux à la fois (on parle de tuner hybride).

Les cartes tuner à destination d’ordinateurs peuvent être connectées sur un port USB ou bien en interne, sur un port PCI/PCIe. Pour les ordinateurs portables, on trouvera plus fréquemment des cartes au format PCMCIA.

PCMCIA tuner
PCMCIA tuner

Certaines cartes tuner sont accompagnées d’une petite télécommande, de quoi transformer votre PC en véritable télévision ou radio.

Cartes tuner
Cartes tuner

Les cartes réseau À retenir pour bien choisir

À retenir pour bien choisir

Autres cartes filles Les périphériques de stockage

En voilà des cartes ! Il y en a pour tous les sens : la vue (carte graphique), l’ouïe (carte son),… Bon, les autres cartes filles ne correspondent pas à des sens « humains ». Mais vous avez compris le principe : ces cartes sont primordiales pour l’ordinateur. Si ce n’est pas par le biais d’une carte fille dédiée, ces fonctionnalités doivent être gérées par la carte mère elle-même (je pense notamment aux cartes son ou réseau).

Dans le prochain chapitre, nous allons parler de…

Mince, j’ai oublié…

Ah si, ça me revient ! Nous allons parler de la mémoire de l’ordinateur.


Autres cartes filles Les périphériques de stockage

Les périphériques de stockage

À retenir pour bien choisir La mémoire vive

Plus tôt dans ce tutoriel, nous mettions en parallèle la capacité de réflexion du cerveau humain avec les calculs du CPU. Mais nous avions mis de côté une autre faculté du cerveau : sa capacité à mémoriser des informations. Sans mémoire, nous ne pourrions aller bien loin (parlez-en à mon poisson rouge). De la même façon, un ordinateur sans mémoire n’aurait pas beaucoup d’intérêt. Imaginez devoir recommencer un rapport de stage ou une partie de jeu vidéo à chaque fois que vous arrêtez votre ordinateur (les joueurs de Star Fox 64 comprendront de quoi je veux parler).

Nous avons déjà rapidement abordé la mémoire morte (ROM) dans le chapitre traitant de la carte mère, nous ne reviendrons donc pas ici sur ce type de mémoire très particulier. Nous nous intéresserons plutôt à d’autres types de mémoire : la mémoire vive et la mémoire de masse. La première représente les données en cours de traitement. La seconde sert à sauvegarder des données sur le long terme (fichiers systèmes, documents, photos, musiques, etc.), que ce soit en interne sur le disque dur ou sur des périphériques externes.

Les différentes mémoires d’un ordinateur prennent donc une place très importante dans sa configuration. Elles vont nous occuper tout au long de ce chapitre.

La mémoire vive

Les périphériques de stockage Le disque dur

Rôle de la mémoire vive

Vous souvenez-vous de ces jours de contrôles de Maths à l'école ? Après de longues révisions, la veille ou juste avant de rentrer dans la salle d'examen, votre tête était pleine de formules et de théorèmes ! Seulement sitôt l’épreuve terminée, vous aviez tout oublié. Impossible de vous faire réciter les fameux théorèmes… En fait, vous n’aviez gardé en mémoire que ce dont vous aviez besoin, au moment où vous en aviez besoin. Vous n’aviez pas rangé les théorèmes dans les mêmes « cases » de votre cerveau que votre numéro de téléphone ou que les souvenirs de vos dernières vacances.

Alors bien sûr, un ordinateur ne fonctionne pas exactement comme le cerveau humain mais l’idée est là. La mémoire vive, appelée également RAM, est utilisée pour les traitements en cours de l’ordinateur : fonctionnement du système d’exploitation, programmes lancés, etc. Par exemple, quand vous utilisez un logiciel de traitement de texte, la mémoire vive stocke les données nécessaires au fonctionnement du programme ainsi que votre travail en cours. Ce n’est qu’au moment où vous enregistrez votre document que ce dernier est sauvegardé sur le disque dur (c'est-à-dire la mémoire de masse, dont nous parlerons tout à l’heure).

La mémoire vive se présente sous forme d’une ou plusieurs barrettes, des circuits imprimés équipés de puces de mémoire. C’est une mémoire dite volatile, ce qui signifie qu’elle s’efface complètement lorsqu’elle n’est plus alimentée en courant électrique. C’est pour cette raison que vous perdez tout votre travail en cours si le réseau électrique a le bon goût de vous jouer des tours. :waw:

Si je comprends bien, la mémoire vive est un peu comme la mémoire du disque dur, sauf qu’elle s’efface à chaque fois que j’arrête l’ordinateur. C’est un peu dommage… Pourquoi ne pas utiliser le disque dur pour la mémoire vive ? Ainsi, plus de problème de coupure de courant !

La mémoire vive possède un autre atout considérable sur les disques durs classiques : elle est beaucoup plus rapide. Cela permet au processeur d’accéder très vite aux données dont il a besoin. Un disque dur étant très lent (nous le verrons dans quelques minutes), il ferait attendre le CPU à chacune de ses requêtes, ce qui ralentirait considérablement le système.

Caractéristiques importantes

La capacité

La quantité de mémoire vive est le premier critère à regarder lors de l'achat de barrettes de mémoire vive. C’est aussi le plus important. Aujourd’hui, le standard est de 4 Go, minimum. Le prix des barrettes n’étant pas excessif, il serait dommage de viser en dessous. Au-delà de 4 Go, votre OS devra nécessairement être en 64 bits (et non 32). Si vous souhaitez un peu plus de confort et avoir le temps de voir venir, vous pouvez pousser jusqu’à 8 Go, mais il est inutile d’aller bien au-delà.

Pour être utilisée, la mémoire est gérée par un contrôleur mémoire, inclus dans le processeur. Aujourd’hui, tous fonctionnent en « Dual Channel », ce qui leur permet d’accéder à deux barrettes en parallèle et ainsi de réduire les temps d’accès globaux. Ainsi, il est plus avantageux de se doter de deux barrettes de 2 Go plutôt que d’une seule barrette de 4 Go. C’est également pour cette raison que vous avez tout intérêt à choisir deux barrettes de même marque et même modèle. En effet, si les temps d’accès varient (ce qui est fatalement le cas si les marques sont différentes), les accès à la plus lente « brideront » les accès à la plus rapide.

Les timings

Au sein d’une barrette de mémoire, les données sont enregistrées dans des cases mémoires. Ces cases sont disposées en lignes et en colonnes. Ainsi, pour connaître le contenu d’une case mémoire, le contrôleur mémoire doit connaître ses numéros de ligne et colonne puis y accéder. Cela prend un certain temps, défini par ce qu’on appelle les timings de la mémoire vive.

Les timings sont au nombre de quatre et représentent des temps d’accès précis dans la mémoire :

Dans les caractéristiques d’une barrette de mémoire, vous les trouverez notés séparément, ou bien sous forme de listes, telles que 9-9-9-24 ou 7-8-7-24.

Il n’est pas primordial de connaître précisément la définition de chacun des timings pour choisir sa barrette de mémoire vive. Une chose est sûre, comme ce sont des temps d'accès, ils doivent être le plus petits possible. Cela dit, il faut bien reconnaître que ces valeurs ne sont pas primordiales pour les performances de vos barrettes.

A quoi ça ressemble, la RAM ?

Le format

Il existe plusieurs formats de barrettes de mémoire, mais aujourd’hui les deux plus répandus sont le DIMM et le SO-DIMM. Le premier est à destination des PC de bureau, le second est quant à lui utilisé pour les ordinateurs portables.

À gauche deux barrettes au format DIMM, à droite deux barrettes au format SO-DIMM
À gauche deux barrettes au format DIMM, à droite deux barrettes au format SO-DIMM

Certaines barrettes de mémoire vive sont équipées de radiateurs, leur permettant de refroidir plus rapidement. Il existe même des modèles haut de gamme pourvu de ventilateurs ! Mais à ce niveau-là, je pense qu’on peut parler de « fioritures ». ;)

Barrette de RAM avec radiateur
Barrette de RAM avec radiateur

Le type

Il existe plusieurs types de RAM. La mémoire qui nous intéresse ici est la SDRAM, à mettre en opposition à la VRAM, utilisée dans les cartes graphiques. La VRAM n'a strictement rien à voir avec la SDRAM, il n'y a donc aucun lien à faire entre la carte graphique et la mémoire vive.

Au sein des mémoires SDRAM, on distinguera principalement la DDR2-SDRAM de la DDR3-SDRAM. La DDR2 est en fin de vie et est donc à éviter au profit de la plus récente DDR3, qui améliore les performances tout en consommant moins d'énergie. :soleil:


Les périphériques de stockage Le disque dur

Le disque dur

La mémoire vive Le SSD

Comme je le disais plus haut, la mémoire vive est à mettre en opposition à la mémoire de masse. Cette dernière est non-volatile (les données persistent même sans alimentation électrique) et bien plus lente que la RAM. Son représentant le plus courant est bien sûr le disque dur, que l'on abrège très souvent HDD.

Le disque dur sert ainsi de mémoire « à long terme » des données contenues dans l'ordinateur. C’est lui qui stocke vos documents, photos, musiques, vidéos, etc. Il contient également les fichiers systèmes de votre OS (système d'exploitation).

Structure et fonctionnement d’un disque dur

Structure globale

Un disque dur est composé de plusieurs plateaux superposés, tournant autour d’un même axe. Les données sont stockées sur l’une des deux faces de chaque plateau ou bien sur les deux selon les modèles. Pour lire ou écrire sur ces plateaux, le disque est équipé de têtes de lecture/écriture, une par face de plateau utilisée. S’il y a trois plateaux double-faces par exemple, il y aura donc six têtes.

Trois plateaux double-faces impliquent six têtes de lecture/écriture
Trois plateaux double-faces impliquent six têtes de lecture/écriture

Les têtes se déplacent sur un arc de cercle à la surface des plateaux. Ce mouvement combiné à celui de la rotation des plateaux permet aux têtes d’accéder à la totalité de la surface inscriptible.

Tête de lecture parcourant le disque
Tête de lecture parcourant le disque

L’espace entre une tête de lecture et son plateau est extrêmement petite : environs 10 nanomètres (soit $$10^{-8}$$ mètre). Pour vous donner un ordre d’idée, un cheveu a un diamètre d’environ 50 micromètres (soit $$50.10^{-6}$$ mètre). Un cheveu est donc environ 5000 fois plus épais que l’espace entre une tête et son plateau ! Vous imaginez donc bien l’effet dévastateur d’une poussière qui se promènerait sur un plateau… Mais pas d’inquiétude, les disques durs sont protégés et hermétiques. Ils restent fragiles bien sûr, mais on peut tout de même les manipuler normalement sans aucun problème.

Différents éléments d’un disque dur
Différents éléments d’un disque dur

Pistes, secteurs, cylindres et clusters

Les têtes ne sont pas indépendantes les unes des autres. Elles se déplacent toutes en même temps, sur le même arc de cercle, et sont ainsi toujours superposées les unes aux autres.

C’est bête, chaque tête devrait pouvoir se déplacer de façon autonome et ainsi lire ou écrire une section différente du disque. Pourquoi n’est-ce pas le cas ?

Tout simplement parce que les données sont inscrites sur le disque d’une façon tout à fait particulière, un petit morceau de fichier sur chaque plateau. Pour bien comprendre, je dois vous présenter la façon dont sont découpés les plateaux du disque.

Tout d’abord, chaque plateau est composé de pistes, que l'ont peut considérer comme des cercles concentriques. Chaque piste est à son tour divisée en petites sections, appelées secteurs, que l’on peut voir cette fois comme des arcs de cercle.

Pistes et secteurs d'un disque dur
Pistes et secteurs d'un disque dur

Voilà pour le découpage d’un plateau. Mais comme nous l’avons vu tout à l’heure, un disque contient plusieurs plateaux superposés. Je fais donc appel à vos souvenirs de géométrie et vous pose la question : que forment des cercles empilés les uns au-dessus des autres ? Vous avez trouvé ? Des cylindres bien sûr ! C’est ainsi qu’on appelle la section d’un disque dur formée par les pistes « voisines » (en hauteur) sur les différents plateaux.

Cylindre d'un disque dur
Cylindre d'un disque dur

Le regroupement d’un certain nombre de secteurs forme ce qu’on appelle un cluster (ou bloc). Ce nombre dépend du système de fichier utilisé pour formater le disque dur (ou une partition de celui-ci).

Le bloc est la plus petite unité de stockage d’un système de fichier. Autrement dit, du point de vue du système de fichiers, un fichier enregistré sur le disque occupe nécessairement au moins un bloc, même s’il est plus petit que la taille d’un bloc.

Prenons l’exemple d’un système de fichiers quelconque dont la taille de bloc serait de 4 ko. Un fichier de 13 ko occupera alors quatre blocs :

Au final, nos 13 ko sont répartis sur les 16 ko disponibles, 3 ko sont donc perdus. Cette perte est normale et est fort heureusement négligeable à l'usage grâce aux algorithmes des systèmes de fichiers actuels, mais il est toujours bon de la connaître. ;)

Caractéristiques importantes

Tournent les plateaux !

La structure d’un disque dur est impressionnante. Elle l’est d’autant plus quand on sait que tout cela est en rotation à une vitesse très élevée ! En effet, les plateaux sont en continuelle rotation lors du fonctionnement d’un disque dur. Ils le sont à une vitesse constante, appelée vitesse de rotation, exprimée en tours par minute (tpm ou rpm, c’est la même chose).

Cette vitesse est une des caractéristiques les plus importantes des disques durs car plus elle est élevée, plus l’accès aux données (en lecture ou en écriture) sera rapide. En effet, les têtes de lecture/écriture doivent régulièrement « attendre » que les plateaux arrivent dans la bonne position pour pouvoir accéder aux données. S’ils tournent plus vite, les têtes attendent moins longtemps. Logique.

Aujourd’hui, on distingue principalement deux vitesses de rotation : 5400 ou 7200 tours par minutes. Les disques en 7200 rpm sont bien sûr à privilégier pour des accès plus rapides.

Attention cependant à un point : qui dit vitesse de rotation plus élevée dit aussi usure plus rapide. Un disque en 7200 rpm risque donc (même si c'est à relativiser bien évidemment) de tomber en panne plus rapidement qu'un 5400 rpm. Si votre disque doit contenir des données importantes, il peut être préférable d'opter pour un disque moins rapide mais plus robuste. Quoi qu'il en soit, faire des sauvegardes est toujours nécessaire ! ;)

Format, densité surfacique et nombre de plateaux

S’il y a une caractéristique simple concernant les disques durs, c’est bien le format ! Il n’y a pas trente-six solutions mais principalement deux : 2,5" ou 3,5" (le format se mesure en pouces). Les disques durs 2,5" sont destinés aux ordinateurs portables alors que leurs grands frères sont utilisés pour les PC de bureau. On trouve également des disques de 1,8" mais ils sont utilisés dans des cas bien particuliers (tels que les baladeurs). Bref, les disques les plus petits pour les appareils les plus petits, c’est logique, c’est simple. ^^

Disques durs 3,5 pouces (à gauche) et 2,5 pouces (à droite).
Disques durs 3,5 pouces (à gauche) et 2,5 pouces (à droite).

Une autre caractéristique importante est indirectement liée au format : la densité surfacique. Cette dernière détermine la quantité de données par unité de surface. Autrement dit, plus la densité surfacique est élevée, moins les têtes de lecture/écriture ont besoin de se déplacer pour accéder aux données. Il faut donc qu’elle soit le plus élevée possible.

La densité surfacique est donc le ratio entre la quantité de données et la surface de disque. À format et capacité égaux, on pourrait donc imaginer que la densité surfacique est constante selon les disques. Mais c'est sans compter un paramètre souvent oublié : le nombre de plateaux. En effet (toujours à format et capacité égaux), plus le nombre de plateaux sera élevé, plus la densité surfacique sera faible. Les données sont d’avantages « éparpillées » sur le disque s’il dispose de trois plateaux, plutôt que de deux. Cela implique que les têtes ont plus de travail et que par conséquent, le disque est moins rapide.

Mémoire cache

Mais même avec une densité surfacique très élevée, le disque dur reste un élément mécanique et par conséquent très lent. Cela est fortement pénalisant, notamment pour le fonctionnement du système d’exploitation qui accède en permanence à plusieurs petits fichiers. Faire se déplacer les têtes de lectures pour ces fichiers à chaque fois qu’ils sont sollicités rendrait le système trop peu réactif. Pour pallier à ce problème, la plupart des disques durs possèdent une petite mémoire cache, capable de stocker les données les plus souvent utilisées.

Cette mémoire est électronique (ce n’est donc pas la tête de lecture qui s’en occupe) et donc très rapide. Ainsi, les petits fichiers fréquemment utilisés sont toujours sous le coude du disque dur, qui peut laisser les têtes de lecture vaquer à leurs occupations. Aujourd’hui, la plupart des disques durs possèdent une mémoire cache de 32 Mo, voir 64 Mo. Dans les faits, au-delà de 16 Mo, le gain de réactivité est négligeable. Ce n’est donc pas un critère de la plus haute importance lorsque l’on choisit son disque dur. ;)

Capacité

Enfin (et surtout), la capacité du disque dur est bien sûr un critère important. 250 Go, 500 Go, 1 To (soit 1000 Go)… vous trouverez des disques durs de toutes les tailles ! Bien sûr, au sein d’une même gamme, le prix augmente avec la capacité. Attention tout de même, au-delà de 3 To, à ce que votre système d’exploitation soit capable de gérer une telle quantité de mémoire (avec Windows, il vous faudra par exemple Vista au minimum).

Connectiques et débits

Comment SATA aujourd’hui ?

Nous en parlions dans le chapitre sur la carte mère, deux connecteurs principaux existent pour brancher un disque dur : IDE (également appelé ATA ou PATA) et SATA. Les ports IDE impliquent la présence de larges nappes gênant la circulation de l’air dans l’unité centrale (et donc limitant le refroidissement des composants). De plus, leur débit théorique est plus faible que celui des ports SATA. Tout cela fait donc que l’on assiste aujourd’hui à une disparition progressive des ports IDE au profit des ports SATA.

Nappes IDE (à gauche) et câbles SATA (à droite)
Nappes IDE (à gauche) et câbles SATA (à droite)

Il existe principalement trois normes SATA, sobrement nommées SATA I, SATA II et SATA III. Ce sont des évolutions successives de la norme, ayant pour but (entre autres) d’améliorer le débit, c’est-à-dire la quantité de données pouvant être lue ou écrite par seconde.

Norme

Débit théorique / débit réel (Mo/s)

SATA I

187 / 150

SATA II

350 / 300

SATA III

700 / 600

Pour information, le débit théorique maximum en IDE (ATA-7, dernière norme en date) était de seulement 133 Mo/s. Vous voyez la différence. Plus rares, on trouve également des disques durs en SCSI (débits jusqu'à 64 Mo/s) ou SAS (jusqu'à 600 Mo/s).

Alimentation électrique

Pour fonctionner, un disque dur a besoin d’une alimentation électrique. Celle-ci est assurée par le boîtier d’alimentation, que nous verrons dans un prochain chapitre. Pour l’instant, nous allons nous contenter de voir les connecteurs utilisés pour alimenter le disque dur.

Pour les disques en IDE, on utilise une prise MOLEX, branchée à côté du port IDE :

Prise MOLEX
Prise MOLEX

Pour les disques en SATA, l’alimentation électrique est faite en… SATA. Oui, les ports utilisés pour les données et l’alimentation sont définis par la même norme et ont ainsi le même nom. Pour les différencier, le port d’alimentation est plus large que celui des données. Voici un petit schéma résumant les choses :

Connecteurs de disques en IDE (à gauche) et en SATA (à droite)
Connecteurs de disques en IDE (à gauche) et en SATA (à droite)

Certains disques en SATA disposent également d’une prise MOLEX, comme on peut le voir ci-dessus, afin de pouvoir être utilisés avec un boîtier d’alimentation ne proposant que des connecteurs MOLEX. Il existe toutefois des adaptateurs MOLEX → SATA si besoin.


La mémoire vive Le SSD

Le SSD

Le disque dur Mémoire flash, encore et toujours

Un disque SSD n’est pas un disque

Ne trouvez-vous pas cela incroyable qu’à notre époque il reste des parties mécaniques dans nos ordinateurs, telles que les têtes de lecture/écriture des disques dur ? Comme nous venons de le voir à l’instant, ces parties forcément « lentes » sont de véritables goulets d’étranglement dans le fonctionnement du système. Eh bien vous n’êtes pas seuls à penser cela ! Voilà pourquoi a été inventé un autre type de disque : le SSD. Et vous allez voir que la rapidité n’est pas le seul avantage des disques SSD.

Les SSD étant les dignes remplaçants de nos chers disques durs, on a rapidement tendance à les appeler « disques SSD ». Pourtant ils n’ont absolument rien en commun avec un disque : ils ne sont pas en rotation, ils ne possèdent pas de plateaux… Ils ne sont même pas ronds ! C’est donc un abus de langage comme on les aime, dû à l’histoire de l’informatique. :D

Mais alors si un SSD n’a ni plateaux, ni de têtes de lecture/écriture mécaniques, comment fonctionne-t-il ? La réponse tient en deux mots : mémoire flash. En effet, la mémoire d’un SSD est de type « flash », ce qui signifie que les données sont inscrites dans de petites cellules de mémoire au sein d’une puce. Il n’y a donc aucun élément mécanique. Chaque cellule de mémoire peut être lue ou écrite avec le même délai, peu importe son positionnement sur la puce. Avec un disque dur classique, il fallait attendre que la tête de lecture se déplace à la surface des plateaux pour aller chercher les données. C’était long, trop long, mais cela n’a plus lieu d’être avec les SSD. Cette prouesse est rendue possible grâce au contrôleur, premier des critères que nous allons voir à présent.

Caractéristiques importantes

Le contrôleur

A côté de sa puce de mémoire flash, le SSD est équipé d’un contrôleur, qui est chargé de choisir les cellules où lire et stocker les données. C’est ce contrôleur qui fait d’ailleurs toute la force des SSD, car il est capable d’accéder à plusieurs cellules à la fois, ce qui augmente considérablement le débit de données ! Plutôt que de lire une cellule, puis une autre, puis une autre, etc., le SSD lit plusieurs cellules à la fois et rassemble le tout. Le gain de temps est net. La qualité du contrôleur (et de son firmware) est donc primordiale dans le choix d’un SSD.

Une SSD, c'est comme une ruche, des alvéoles à remplir…
Une SSD, c'est comme une ruche, des alvéoles à remplir…

Finalement, on peut donc voir un SSD comme une sorte de ruche où chaque alvéole représente une cellule mémoire. Les abeilles (le contrôleur) sont capables de déposer du miel (nos données) en adressant plusieurs alvéoles à la fois.

Bien, et comment procéderait une abeille si elle voulait modifier le contenu d’une alvéole (pour y mettre du miel tout neuf par exemple) ? Il lui faudrait en tout état de cause regarder ce qu’il y a dans l’alvéole, la vider si besoin, avant de la remplir. Eh bien c’est exactement la même chose avec une cellule de SSD : pour écrire dans une cellule, il faut que le contrôleur en vérifie le contenu au préalable, ce qui prend du temps. La conséquence directe est qu’il est plus rapide de lire le contenu d’une cellule que d’y écrire. Et comme je n’ai aucune idée de la véritable façon de procéder des abeilles, je vais m'arrêter là avec ces dernières. :p

Autre caractéristique qui a une très grande importance comme nous le verrons tout à l’heure : les contrôleurs SSD sont bien plus performants pour la gestion des petits fichiers que pour celle des gros. Concrètement, un SSD est plus efficace avec un fichier texte de quelques kilooctets qu’avec une vidéo de plusieurs gigaoctets.

Type de mémoire

Le contrôleur est donc en charge de choisir les cellules mémoires à adresser. Ces cellules mémoires peuvent être de plusieurs types, ayant chacun leur avantages et inconvénients. Nous allons passer en revue ces différents types, pour le plaisir, mais vous allez voir que le choix sera finalement assez rapide. ^^

Premier type : la mémoire SLC. Comme son nom l’indique (avec un peu d'imagination en tout cas), il s’agit d’une mémoire dont les cellules contiennent chacune un et un seul bit de données, c’est-à-dire un 0 ou un 1. À l’inverse, les cellules mémoires de type MLC contiennent chacune plusieurs bits de données (de deux à quatre).

Cette différence majeure implique plusieurs choses. Tout d’abord, la SLC est plus rapide que la MLC, le contrôleur n’ayant pas besoin de se poser la question du bit à impacter au sein d’une cellule (il n’y en a qu’un, c’est facile). Ensuite, pour impacter plusieurs bits par cellule, la MLC nécessite plus de courant électrique, elle consomme donc plus que la SLC. Enfin, les tensions appliquées sur les cellules MLC étant plus fortes, ces dernières sont usées plus rapidement. Au final, la SLC semble donc meilleure sur tous les plans. Tous, sauf un bien évidemment, son prix.

Ainsi la SLC est plus rapide que la MLC, consomme moins, à une meilleure durée de vie mais est aussi plus chère. Le choix du type de mémoire est-il donc un simple choix performance/prix ? Eh bien non, pour la simple et bonne raison que l’on trouve très majoritairement des mémoires MLC dans les SSD grand public. Les SLC sont plutôt destinés aux entreprises et aux serveurs. Si vous décidez d’équiper votre ordinateur personnel d’un SSD, il y a fort à parier qu’il sera équipé d’une mémoire MLC.

On trouve également un type de mémoire intermédiaire, la mémoire eMLC, qui se situe à mi-chemin entre la MLC et la SLC.

Format et connectique

Après le point de vue micro avec les types de mémoire, prenons un peu de hauteur pour nous intéresser aux différents formats de SSD et à leurs connectiques.

La majorité des SSD sont en 2,5", soit la taille des disques durs pour ordinateurs portables. On en trouve également en 3,5", généralement un peu moins chers, mais cela est plus rare. Dans les deux cas, l'interface la plus courante est SATA (2 ou 3). Bien sûr, les SSD en SATA3 permettent d’obtenir des débits plus importants, mais on peut se poser la question de l’intérêt de la chose. En effet, les temps d’accès des SSD étant extrêmement faible, ce sont les applications elles-mêmes qui n’arriveront plus à suivre la cadence de débits trop élevés. Plus rares, on trouve des SSD se connectant en IDE ou USB3.

SSD 2,5 pouces SATA
SSD 2,5 pouces SATA

Voilà pour ce qui est des SSD de format « classiques », dont le principe se rapproche fortement des disques durs habituels. Mais il existe également des SSD sous forme de « cartes filles », se connectant sur un port PCIe. Ce sont les SSD offrant les débits les plus élevés, mais ce sont également les plus chers.

SSD 2,5 pouces PCIe
SSD 2,5 pouces PCIe

Enfin, il existe des SSD se connectant en mini-SATA. Ils sont essentiellement utilisés dans les PC portables, NetBooks, Tablettes, les smartphones, ou autres baladeurs.

SSD 2,5 pouces mini-SATA
SSD 2,5 pouces mini-SATA

Capacité

Tout comme les disques durs classiques, la capacité d’un SSD est évidemment un critère central dans le choix de celui-ci. De la même manière, le prix grimpe avec la capacité : plus elle est importante, plus le SSD est cher. Cela semble logique.

Ce qui diffère des disques durs classiques, c’est le « prix au giga », bien plus grand pour les SSD. Il est inconcevable de s’équiper d’un SSD de capacité équivalente à celles auxquelles nous sommes habitués avec les disques durs. Même en étant très riche, les SSD ne vont de toute façon guère au-delà des 480 Go. Et les prix sont alors faramineux ! Vous êtes donc prévenus : SSD ne rime pas avec forte capacité (enfin si, en l’occurrence ça rime, mais vous avez compris ce que je voulais dire).

Faut-il choisir un SSD plutôt qu’un disque dur classique ?

Maintenant que nous connaissons mieux ces messieurs les SSD, pouvons-nous nous tourner vers eux les yeux fermés ? Pas si sûr…

Du pour, du contre…

Les SSD ont d'indéniables avantages par rapport aux disques durs classiques, au premier chef desquels leur formidable rapidité. L’absence de toute partie mécanique permet de décupler les temps d’accès aux données bien au-delà de ce que pourrait proposer un disque dur. Les SSD sont également bien plus résistants aux chocs (toujours grâce à l’absence de partie mécanique). Ils consomment moins, ce qui permet non seulement d’alléger la facture d’électricité, mais également de s’affranchir de la chaleur et du bruit produits par un disque dur classique. À première vue, il n’y a donc pas de doute : les SSD sont à préférer !

Oui mais voilà, tout n’est pas si rose dans ce monde de brutes. L’inconvénient majeur des SSD reste leur prix beaucoup trop élevé pour le commun des mortels. Si vous souhaitez éviter de mettre votre foyer sur la paille, il faudra donc opter pour un SSD de faible capacité. Deuxième inconvénient important : la durée de vie des SSD est plus faible que celle des disques durs classiques. Cela est dû au nombre de cycles de lecture/effacement/écriture que peuvent subir les cellules, usées un peu plus à chaque fois qu’une tension leur est appliquée. Alors finalement, qu’est-ce qu’on fait ?

… et du compromis.

Nous avons vu tout à l’heure que les SSD étaient plus efficaces pour lire que pour écrire. Nous avons également vu qu’ils étaient plus performants quand il s’agissait de petits fichiers. On peut donc facilement en conclure que les SSD sont parfaits pour… lire des petits fichiers. Bien, et dans quels cas avons-nous surtout besoin de lire des fichiers de petites tailles ? Eh bien pour le système d’exploitation, rien que ça ! En effet, un OS passe son temps à trifouiller ses fichiers systèmes (petits en général) et a rarement besoin de les modifier. Le principe est le même pour la majorité des logiciels.

Ainsi, vous l’aurez compris, les SSD sont tout à fait adaptés pour jouer le rôle de disque système. Un SSD de 60 ou 128 Go est généralement suffisant pour l’OS et les logiciels, vous n’aurez donc pas besoin de vous ruiner. En parallèle, vous devrez disposer d’un disque dur classique de bonne capacité pour stocker toutes vos données : documents, photos, musiques, vidéos, etc. Le couple SSD/disque dur est ainsi une très bonne façon d’obtenir un système très réactif, tout en conservant une bonne capacité de stockage.

Plus haut, tu nous disais que la durée de vie des SSD était relativement faible. Est-ce judicieux de placer son système sur un disque qui peut mourir à tout moment ?

Je vois que vous êtes prudent, c'est bien. :D Premièrement, il est préférable de perdre son système que ses données (on peut réinstaller Windows ou sa distribution GNU/Linux préférée, mais on ne peut pas retrouver ses photos et documents perdus). Cela dit, le but n’est pas de mettre une épée de Damoclès au-dessus de la tête de votre système ! Dans la pratique, la faible durée de vie des SSD est à relativiser.

Tout d’abord, même si le taux de pannes reste plus élevé que pour les disques durs, cela n’est pas une règle générale. Si vous achetez un SSD, il ne tombera pas forcément en panne dans les premiers jours d’utilisation ! Ensuite, il faut bien se mettre dans la tête qu’un SSD n’est pas un disque : les technologies sont différentes et par conséquent, les usages doivent l’être aussi. Il existe une série de recommandations permettant d’allonger la durée de vie d’un SSD, à commencer par la limitation des écritures. En effet, comme on l'a vu plus haut, plus on utilise un SSD, plus ses cellules sont abîmées par les tensions appliquées. Parmi les recommandations courantes visant à augmenter la durée de vie d'un SSD, on peut citer les suivantes :

La commande TRIM

TRIM est le nom d’une commande permettant d’optimiser l’utilisation des SSD. Le « trimming » doit être supporté par le SSD lui-même, mais aussi par l'OS utilisé. Tous les SSD actuels savent la gérer, pas de soucis de ce côté-là. Au niveau des OS, Windows 7 (avec des partitions en NTFS) et GNU/Linux (avec un noyau Linux 2.6.33 au minimum et des partitions en ext4) sont parfaitement aptes. Pour bien comprendre en quoi cette commande consiste, il me faut d’abord vous parler de la suppression de fichier.

Que se passe-t-il « réellement » lorsqu’un fichier est supprimé (après un éventuel passage par la corbeille) ? Le fichier est-il perdu à jamais ? Eh bien non, le fichier n’est pas vraiment supprimé. En fait, seul son emplacement sur le disque est « oublié » par le système de fichier. Physiquement, le fichier est toujours sur le disque !

Lors de la suppression d’un fichier, seule son adresse sur le disque est perdue, mais pas le fichier lui-même
Lors de la suppression d’un fichier, seule son adresse sur le disque est perdue, mais pas le fichier lui-même

Physiquement, le fichier est donc toujours sur le disque. C’est d’ailleurs grâce à cela que certains logiciels sont capables de récupérer des fichiers supprimés, même lorsque la corbeille a été vidée. Tant qu’un autre fichier n’est pas écrit par-dessus (ce qui peut arriver à tout moment, l’adresse ayant été libérée du point de vue du système de fichier), alors le fichier est toujours lisible.

C’est la qu’intervient la commande TRIM ! Si cette dernière est activée, alors la suppression d’un fichier sera complète : non seulement l’adresse sera perdue, mais le fichier sera également physiquement supprimé du disque. Dans ces conditions, il devient impossible de le récupérer, même avec un logiciel spécial.

Alors où se situe l’intérêt pour les SSD dans tout ça ? Plus haut, nous avons vu que le contrôleur du SSD devait lire le contenu d’une cellule avant de pouvoir y écrire. Si la cellule est vide, alors le contrôleur ne perd pas de temps et écrit directement ce qu’il a à écrire. Sans la commande TRIM, au bout d’un certain temps d’utilisation du SSD, toutes les cellules auraient fini par être pleines (ce qui ne veut pas dire que le système de fichier voit le SSD plein, attention). Les performances en écriture se seraient alors dégradées, le contrôleur n’ayant plus jamais le luxe de pouvoir écrire sans lecture préalable. La commande TRIM améliore ainsi la durée de vie du SSD. :soleil:


Le disque dur Mémoire flash, encore et toujours

Mémoire flash, encore et toujours

Le SSD Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray)

Les SSD n’ont pas le monopole de la mémoire flash, bien au contraire. Celle-ci se trouve par exemple dans un périphérique que vous avez certainement déjà manipulé : la clé USB.

Les clés USB

Il fût un temps, pas si lointain, où nous nous embêtions avec de fragiles disquettes, pas performantes pour un sou. Heureusement, les clés USB sont venues révolutionner nos usages ! Comme leur nom l’indique, elles se connectent à l’ordinateur sur un port USB (USB 2 ou USB 3). Les clés USB 1 ont aujourd’hui quasiment disparues. Bien évidemment, les clés les plus rapides sont en USB 3, mais elles sont également les plus chères.

Il en existe de toutes capacités (de 1 à 256 Go) et de toutes formes, du bâtonnet sobre à la brique de Lego, en passant par la forme d’une véritable… clé. Bref, il y en a pour tous les goûts, même les plus kitchs. :D

Des clés USB de toutes formes
Des clés USB de toutes formes

Tout comme les SSD, elles sont à base de mémoire flash (MLC). Cela dit, les contrôleurs utilisés ne sont pas les mêmes que dans les SSD, les performances constatées sont donc bien inférieures que sur ces derniers.

Un critère important à prendre en considération lors de l’achat d’une clé USB est sa vitesse de lecture/écriture (en Mo/s). Plus ces vitesses sont grandes, moins vous mettrez de temps à transférer un fichier depuis ou vers un ordinateur.

Enfin, certaines clés USB offrent des fonctionnalités supplémentaires telles que le cryptage des données qu’elles contiennent ou bien l’interdiction d’écriture. Mais pour cela, à vous de voir si vos besoins valent le surcoût engendré. ;)

Les cartes mémoires

Les appareils photos et caméras numériques actuels sont équipés de cartes mémoires, elles aussi de type flash. Le but de ce tutoriel n’est pas de vous parler des appareils photos ou des caméras, mais bien des cartes mémoires et de leur lecteur.

Le lecteur

Pour transférer vos photos (ou vidéos) depuis une carte mémoire vers votre ordinateur, deux méthodes s’offrent à vous :

C’est cette seconde solution qui nous intéresse ici. Les lecteurs de cartes mémoire existent en versions « interne » (format 3,5"), s’intégrant dans le boîtier de l’ordinateur, ou bien en version « externe » :

Lecteurs de cartes mémoire, interne à gauche et externe à droite
Lecteurs de cartes mémoire, interne à gauche et externe à droite

Dans les deux cas, le lecteur se branche généralement en USB 2 ou USB 3 (port interne pour le lecteur « interne »). Ainsi, certains lecteurs offrent des ports USB supplémentaires.

Prenez garde à ce que le lecteur soit compatible avec le type de carte mémoire qui vous intéresse. Cela dit aujourd’hui, beaucoup de lecteurs sont capables de lire la plupart des cartes mémoires du marché. À ce sujet, voyons à présents les types de cartes mémoires les plus courants.

Les différents types de cartes mémoires

Il existe de nombreux types de cartes mémoire, chacun décliné en plusieurs variantes. Petit tour d’horizon.

Commençons avec les cartes les plus courantes aujourd’hui, les cartes SD. Elles sont utilisées dans les appareils photos et caméras de plusieurs grandes marques. Pour les appareils de petites tailles (typiquement, les téléphones), on trouvera des cartes Micro SD :

Une carte Micro SD et son adaptateur, permettant de la lire dans un lecteur SD classique
Une carte Micro SD et son adaptateur, permettant de la lire dans un lecteur SD classique

Les cartes SD de première génération ont une capacité maximale de 2 Go, mais les cartes SDHC et SDXC peuvent monter respectivement jusqu’à 32 Go et 2 To. :waw:

Sur les appareils de marque SONY, on trouve essentiellement des cartes Memory Stick (ou MS). Elles sont souvent plus chères que les cartes SD, mais si votre appareil photo est conçu pour les utiliser, vous n’avez pas trop le choix.

Plus petites que les MS classiques, les « Duo » et « Pro Duo » sont maintenant les plus répandues des Memory Stick :

Une carte Memory Stick Pro Duo
Une carte Memory Stick Pro Duo

Côté miniaturisation, on trouve les cartes Memory Stick Micro M2. En règle générale, les Memory Stick ont une capacité maximale de 32 Go.

Plus rares, les cartes MMC ont quant à elle une capacité maximale de 2 Go. Elles sont déclinées en MMC Micro, MMC Mobile, MMC Plus et MMC Reduced Size.

Carte MMC
Carte MMC

Chez Olympus et Fuji principalement, on utilise des cartes SM (Micro Drive) et cD Card. Enfin, on trouve parfois des cartes CF et miCARD, bien que ces types de cartes soient plus rares.

Autres cartes
Autres cartes

Le SSD Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray)

Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray)

Mémoire flash, encore et toujours À retenir pour bien choisir

Copier un CD audio en MP3, installer un logiciel, regarder un film en DVD ou Blu-ray… Toutes ces actions ont un point commun : elles utilisent un disque optique. Ces petites galettes aux multiples usages ne sont pas à oublier lorsque vous montez votre ordinateur.

Les différents types de disques optiques

On trouve trois principaux types de disques optiques : les CD, les DVD et les Blu-ray, selon leur ordre d’apparition sur le marché. Chacun est une évolution du précédent, offrant une plus grande capacité. On peut garder à l’esprit cet ordre de grandeur : un DVD équivaut à environ sept CD et un Blu-ray représente environ cinq DVD (soit 35 CD !).

Un CD permet de stocker 650 Mo ou 74 minutes de musique (on peut également en trouver de 700 ou 800 Mo). Il peut être inscriptible une seule fois (CD-R) ou réinscriptible (CD-RW).

Logo CD
Logo CD
Face inscriptible d'un CD
Face inscriptible d'un CD

Le DVD a quant à lui une capacité de 4,7 Go en simple couche et 8,5 Go en double couche (on parle alors de DVD-DL). Il existe deux normes de DVD : les DVD « - » et les DVD « + ». Ces derniers sont plus récents et plus adaptés au stockage de données. Tout comme les CD, ils peuvent être inscriptibles ou réinscriptibles. Au final, on retrouve une petite foule de types de DVD : DVD±R, DVD±R DL, DVD±RW et DVD±RW DL.

Logo DVD
Logo DVD
Face inscriptible d'un DVD
Face inscriptible d'un DVD

Enfin, le Blu-ray (attention à l’orthographe, il n’y a effectivement pas de « e » à « Blu ») a une capacité de 25 Go en simple couche, 50 Go en double couche et 128 Go en quadruple couche. Les BD (c’est l’abréviation des Blu-ray Disc) inscriptibles sont nommés BD-R et les réinscriptibles sont nommés BD-RE. J’imagine que les appeler R et RW comme tout le monde devait être trop simple… >_

Logo Blu-ray
Logo Blu-ray
Face inscriptible d’un Blu-ray
Face inscriptible d’un Blu-ray

Au fait, savez-vous d’où vient le nom « Blu-ray » ? Tout simplement de la couleur du laser utilisé pour les lire et graver. La faible longueur d’onde du bleu permet d’obtenir une précision supérieure, et donc de stocker plus de données sur une même surface. La perte du « e » au nom de couleur « blue » est une affaire purement commerciale, permettant aux inventeurs (SONY en l’occurrence) de déposer la marque.

Le lecteur/graveur

Passons à l’appareil permettant de lire ou graver ces petites galettes. Tout d’abord, précisons que la compatibilité ascendante a été respectée, ce qui signifie que les lecteurs/graveurs de Blu-Ray sont capables de lire/graver des DVD. Idem avec les lecteurs/graveurs DVD et les CD.

Si les graveurs sont forcément lecteurs, l’inverse n’est pas vrai. Et bien sûr, les graveurs sont plus chers que les simples lecteurs. Il faut donc bien définir vos besoins. Première question à se poser : avez-vous besoin de lecteur Blu-ray ? La réponse est oui si vous êtes amateurs de films en HD. Maintenant, votre lecteur Blu-ray doit-il aussi être graveur ? Etant donné le prix actuel des BD-R ou BD-RW, on peut se poser la question de l’intérêt de la chose.

Pour les DVD, on ne trouve principalement plus que des graveurs. Pas d’inquiétude en ce qui concerne les normes « + » et « - », tous les graveurs actuels sont capables de gérer les deux.

Dans les caractéristiques des lecteurs/graveurs, vous trouverez fréquemment des vitesses de lecture/écriture, notées 16x, 24x, 48x, etc. Celles-ci caractérisent en réalité le débit de données lues/écrites. L'unité de référence de cette notation, la vitesse « 1x », a une signification historique : le débit de lecture d'un CD audio, soit 150 ko/s. « 2x » signifie donc 300 ko/s, « 4x » signifie 600 ko/s, etc.

Lecteurs/graveurs interne
Lecteurs/graveurs interne
Lecteur-graveur externe
Lecteur-graveur externe

Reste à se poser la question de la connectique et du format. Les lecteurs/graveurs internes se connectent aujourd’hui très majoritairement en SATA. Leurs homologues externes sont quand à eux plutôt tournés vers l’USB ou le FireWire. Une chose est sûre, la connectique ne change pas grand-chose en terme de performances.


Mémoire flash, encore et toujours À retenir pour bien choisir

À retenir pour bien choisir

Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray) L'alimentation

Les différentes mémoires de l'ordinateur sont une part importante de son fonctionnement. Si la mémoire vive est gage de réactivité, il ne faut pas non plus mettre de côté les performances du disque dur. Les SSD sont pour cela le meilleur choix possible, à condition d'y mettre le prix. Bien souvent, on choisira un compromis SSD/disque dur, afin d'obtenir un système très réactif, tout en conservant une grande capacité de stockage.

Dans le prochain chapitre, nous abordons un point souvent négligé : l'alimentation électrique de l'ordinateur.


Les lecteurs/graveurs de disques optiques (CD, DVD et Blu-ray) L'alimentation

L'alimentation

À retenir pour bien choisir Fonctionnement du bloc d’alimentation

Un ordinateur consomme de l’énergie. Et pas qu’un peu ! Votre facture d’électricité ne manquera pas de vous le rappeler en temps voulu. Du disque dur au processeur, en passant par la RAM ou la carte graphique, tous les composants sont concernés, même si certains sont plus gourmands que d’autres.

Dans ce chapitre, nous allons nous intéresser à l’élément central de la gestion de l’énergie : le bloc d’alimentation. Ce dernier a pour mission de transformer le courant alternatif du secteur électrique en un courant continu « consommable » par l’ordinateur.

Un bloc d'alimentation
Un bloc d'alimentation

Nous commencerons donc par expliquer en quoi consiste cette transformation. Cela impliquera donc un peu de théorie sur l’électricité, qui vous rappellera peut-être quelques cours du lycée. ;) Nous parlerons également de la « qualité » du courant pour un ordinateur, notion souvent négligée mais néanmoins très importante pour la bonne santé de tous les composants de votre ordinateur ! Enfin, nous décrirons les différents formats d’ « alim’ » (on les appelles souvent ainsi) et les types de connectiques disponibles.

Fonctionnement du bloc d’alimentation

L'alimentation La facture d’électricité, à court et moyen terme

Quand on parle d’alimentation électrique, on parle de courants, tensions, résistances et autres puissances. Je vous propose donc une petite mise au point sur ces notions afin de bien comprendre pourquoi notre ordinateur a besoin d’un bloc d’alimentation.

Quelques notions de bases pour bien comprendre la suite…

Savez-vous ce qu’est un électron ? Mais si, ce sont ces petites particules qui constituent (avec d’autres) les atomes. On en « voit » donc tous les jours autour de nous ! Il se trouve que les électrons ont une charge électrique, et que cette charge a la particularité d’être négative. Ainsi, on les notes souvent $$e^-$$, le signe « - » témoignant de cette fameuse charge négative.

Quand beaucoup d’électrons sont concentrés en un endroit précis, la charge (ou potentiel) électrique est de plus en plus négative. À l’inverse si un manque d’électron est provoqué, la charge est de moins en moins négative (donc de plus en plus positive). Entre ces deux potentiels se produit alors une différence de potentiel électrique, appelée tension. C’est le cas entre les bornes d’une pile ou encore entre les deux fils arrivant dans la prise électrique de la maison. La tension est exprimée en volts (V).

Lorsque les deux potentiels se trouvent sur un circuit fermé, les électrons sont attirés par la borne chargée positivement, tout comme des magnets sur un frigo. En se déplaçant, ils laissent derrière eux une charge positive (puisqu’ils sont eux-mêmes chargés négativement), ce qui attire à nouveau d’autres électrons situés alentour, etc. Le déplacement de tout ce petit monde est appelé courant électrique. L'unité d'intensité du courant électrique est l'ampère (A).

Déplacement des électrons au sein d'un matériau conducteur
Déplacement des électrons au sein d'un matériau conducteur

Mais le courant électrique ne se balade pas sans encombre sur son fil (ou son matériau conducteur quel qu’il soit). Il lui est opposé une résistance dans sa progression, qui dépend notamment de la forme et de la longueur du fil, ainsi que du matériau utilisé. La résistance est exprimée en ohms (Ω).

Votre courant, vous le prenez alternatif ou continu ?

Définitions

Le courant électrique présente une particularité tout à fait étonnante : il peut s’inverser. En effet, les électrons peuvent changer leur sens de déplacement ! Si on mesure la tension du courant sur un circuit, ce changement de sens se traduit par une inversion de signe du courant (il passe d’une valeur positive à négative ou inversement). Si ce changement de sens s'effectue de façon périodique, alors le courant est dit alternatif. La courbe de la tension au cours du temps ressemble alors à une courbe sinusoïdale telle que la suivante :

Évolution de l’intensité d’un courant alternatif au cours du temps
Évolution de l’intensité d’un courant alternatif au cours du temps

Ce signal est périodique, ce qui signifie que ses variations se reproduisent à l'identique à intervalles réguliers. On appelle alors fréquence le nombre de fois que ces variations se répètent en une seconde. La fréquence est exprimée en Hertz (Hz).

Inversement (si je puis dire), un courant qui conserve toujours le même sens est dit continu :

Évolution de la tension d’un courant continu au cours du temps
Évolution de la tension d’un courant continu au cours du temps

Ici, pas de notion de fréquence puisque la courbe est « plate », il n’y a donc pas lieu de parler de répétition.

Dans la pratique

En pratique, le courant qui sort des prises électriques de la maison est un courant alternatif. Sa tension oscille périodiquement de -325 V à +325 V (ce n'est pas le cas en Amérique du Nord mais le principe est exactement le même) :

Évolution de la tension au cours du temps
Évolution de la tension au cours du temps

On calcule alors une valeur appelée tension efficace, qui correspond à la valeur qu’aurait la tension si elle était continue et constante :
$$U_{eff} = \frac{U_{max}}{\sqrt{2}}$$

Ainsi, la tension efficace de nos prises de courant est de $$\frac{325}{\sqrt{2}} \approx 230 V$$. Elle a une fréquence de 50 Hz (ou 60 Hz selon la région du globe dans laquelle vous vous trouvez, mais peu importe).

Manque de chance, les composants de l’ordinateur, comme la plupart des appareils électriques de la maison, utilisent pour fonctionner un courant continu de tension 5 ou 12 V. On est donc très loin du courant alternatif de tension 230 V fourni par les prises électriques ! :waw:

Toute la problématique est donc de transformer un courant alternatif de tension efficace 230 V, 50 Hz en un courant continu et constant, de tension 5 ou 12 V. Vous l’avez compris : c’est le rôle du bloc d’alimentation.
Voyons donc à présent comment celui-ci procède pour réaliser cette transformation.

Principe de fonctionnement du bloc d’alimentation

Tout d’abord, à quoi ressemble un bloc d’alimentation ? C’est une boîte, ok, mais encore ? Qu’y a-t-il dans cette boîte ?

Intérieur d’un bloc d’alimentation
Intérieur d’un bloc d’alimentation

Tous les composants du bloc d’alimentation que vous apercevez ci-dessus ont un rôle à jouer dans la transformation du courant dont nous parlions plus tôt. C’est un peu comme une recette de cuisine : pour réaliser votre plat, vous devez faire passer les ingrédients de départ par toute une série d’étapes et d’ustensiles en tout genre. Après chaque étape, le plat n’est pas encore fameux mais s’approche du résultat final. Ici, notre recette est en cinq étapes principales.

Première étape : protections et filtres

Le bloc d’alimentation est tout d’abord équipé d’un fusible, dont le rôle est de protéger l’installation électrique de votre maison. En cas de court-circuit, ce fusible va « sauter » et ainsi ouvrir le circuit électrique afin de stopper les dégâts. Un autre composant appelé varistance protégera cette fois le bloc d’alimentation (et les autres composants de l’ordinateur par la même occasion) en cas de surtension. Typiquement, cela se produit lorsque la foudre s’abat dans le coin. Sans cette protection, votre ordinateur ressemblerait alors à un toast laissé un peu trop longtemps dans le grille-pain. :-°

Varistance (à gauche) et fusible (à droite)
Varistance (à gauche) et fusible (à droite)

Côté filtre, on utilise un « correcteur du facteur de puissance » (PFC) afin de limiter les interférences électromagnétiques (EMI) engendrées par le découpage de la tension. Le but est de limiter les parasites qui polluent à la fois le courant fourni à l’ordinateur, mais également le réseau électrique de la maison. Un PFC peut être actif ou passif. Un PFC actif est plus efficace qu’un PFC passif, mais il est aussi plus cher, ce qui a forcément un impact sur le prix global de l’alimentation.

Pour l’instant, aucune transformation n’a encore eu lieu, notre courant est toujours alternatif et notre tension toujours sinusoïdale, oscillant de -325 V à +325 V (soit une tension efficace de 230 V).

Deuxième étape : redresser la tension avec le pont de diode

Le pont de diode sert à « redresser » la tension. Je n’entre pas dans les détails du schéma électrique, sachez simplement qu’il s’agit de quatre diodes montées entre elles de façon à ce qu’elles ne laissent passer le courant que dans un seul sens. Après le pont de diode, notre tension ressemble donc à ceci :

Tension redressée
Tension redressée

Le signe du courant ne s’inverse plus, on a donc un courant continu qui s’approche de notre objectif. C’est mieux, mais ce n'est pas encore ça.

Troisième étape : lisser la tension avec le premier condensateur

Les composants de l’ordinateur ne supporteraient pas les oscillations toujours présentes qu’on observe sur la courbe ci-dessus. La tension a donc besoin d’être « lissée ». Pour cela, on utilise un condensateur qui va agir comme un « réservoir » à courant. Je m’explique.

Lorsqu’on injecte du courant dans un condensateur, celui-ci se charge, ce qui signifie qu’il accumule de l’énergie. Cette énergie peut alors être restituée au circuit électrique, un peu comme le ferait une pile rechargeable (même si le principe physique n’a en fait rien à voir). On va alors utiliser le condensateur de façon à combler les creux de tension : quand la tension est croissante, le condensateur est chargé ; lorsque celle-ci redescend, on utilise la réserve d’énergie pour la lisser.

Charge et décharge d’un condensateur pour lisser une tension
Charge et décharge d’un condensateur pour lisser une tension

Au final, on a donc une courbe de tension lissée :

Tension lissée
Tension lissée

Là encore, c'est mieux, mais on doit encore triturer notre tension afin qu'elle ressemble tout à fait à ce que nous cherchons (une tension continue de 5 ou 12 V, je le rappelle pour les étourdis ;) ).

Quatrième étape : abaisser la tension avec le transistor de découpage et le transformateur

Nous voici donc avec un courant continu presque constant. En revanche, la tension efficace est toujours de 230 V. Pour ne pas faire fondre comme neige au soleil les composants de l’ordinateur, on va devoir utiliser un transformateur, composant capable d’abaisser ou d’élever une tension. Dans notre cas, nous allons bien sûr nous servir du transformateur pour baisser la tension, de 230 V à 5 V ou 12 V.

Problème : la taille d’un transformateur est inversement proportionnelle à la fréquence du courant qui le traverse. Pour éviter de nous retrouver avec un bloc d’alimentation gros comme un camion, il faut donc trouver un moyen d’augmenter la fréquence de notre signal. Cela se fait en « découpant » la tension, grâce à un ou plusieurs transistors. Le principe consiste à ouvrir et fermer un interrupteur à intervalles très restreints et régulier afin d’obtenir une tension qui ressemble à ceci :

Tension découpée
Tension découpée

On passe ainsi de 50 Hz à environ 100 000 Hz ! On peut donc envoyer notre courant au transformateur. Problème résolu ! :D Pour comprendre le principe général d’un transformateur, deux choses sont à savoir :

Un transformateur est composé de deux bobines, c’est-à-dire des enroulements de fils conducteurs :

Transformateur
Transformateur

La première bobine reçoit le courant de tension 230 V, ce qui génère un champ magnétique. Ce champ magnétique induit alors un courant dans la seconde bobine, dont la tension est inférieure. En jouant sur le nombre de spires des deux bobines, on peut parvenir à induire un courant de tension voulue dans la seconde bobine. Le tour est joué ! Enfin presque.

Cinquième étape : redresser et lisser à nouveau la tension avec la diode Schottky et le second condensateur

Avec tout ça, notre tension est devenue complètement hachée, ce qui ne va pas plaire aux composants de l'ordinateur. On va donc la redresser de manière similaire à ce qui a été fait précédemment.

On n’utilise plus un pont de diodes mais une diode « Schottky », cette dernière chauffant moins et donc souffrant de moins de pertes d’énergie. Un second condensateur est ensuite utilisé pour lisser au mieux notre tension afin d’obtenir en sortie la tension désirée, la plus constante possible. Mais comme nous le verrons tout à l’heure, ce n’est pas toujours le cas et cela peut malheureusement entraîner quelques désagréments.

Tension finale (idéalement constante)
Tension finale (idéalement constante)

Maintenant que nous savons un peu mieux à qui nous avons affaire, je vous propose de nous attarder sur quelques critères importants concernant le bloc d’alimentation.


L'alimentation La facture d’électricité, à court et moyen terme

La facture d’électricité, à court et moyen terme

Fonctionnement du bloc d’alimentation Format et connecteurs

Je vous le disais en introduction, l'ordinateur consomme de l'électricité et les effets s'en ressentent donc sur la facture d'électricité à court terme. Mais le choix d'une bonne alimentation a également des effets à moyen terme. Avant de comprendre pourquoi, il nous faut voir ensemble la notion de puissance d'une alimentation.

Puissance de l'alimentation

On appelle puissance la quantité d'énergie fournie sur une période donnée. Elle se calcule par le produit de la tension (U, en volts) et du courant (I, en ampères) :

$$P=UI$$

La puissance s'exprime en watts. C'est cette unité que vous retrouverez dans les fiches caractéristiques des blocs d'alimentation.

Chaque composant de l'ordinateur a besoin d'une certaine quantité de puissance pour fonctionner convenablement. Ils tireront tous sur le bloc d'alimentation, qui devra alors être à la hauteur de leurs besoins. Il est donc primordial de choisir un bloc d'alimentation capable de délivrer suffisamment de puissance pour votre configuration.

La puissance nécessaire dépend des composants choisies. De ce fait, le choix de l'alimentation doit se faire après celui de la majeure partie des autres composants. Ce n'est pas un hasard si ce chapitre n'arrive que maintenant. ;)

Il faut donc trouver les puissances nécessaires pour chacun des composants et les additionner pour pouvoir choisir le bloc d'alimentation ? Fastidieux…

Eh oui, il le faut. Mais rassurez-vous, de nombreux outils existent pour vous faciliter la tâche ! C'est notamment le cas des PSU Calculator (tels que celui-ci par exemple) qui donne une puissance recommandée en fonction de votre configuration.

Rendement

Dans un monde parfait, toutes les transformations de courant et tension que nous venons de voir se dérouleraient sans encombre et toute la puissance délivrée par la prise électrique serait utilisée par l’ordinateur. Mais une alimentation n’est jamais parfaite, malheureusement. Le rapport entre la puissance délivrée à l'ordinateur et la puissance reçue par l'alimentation est appelé rendement :

$$r = \frac{\text{puissance d\'{e}livr\'{e}e \`{a} l'ordinateur}}{\text{puissance re\c cue par l'alimentation}}$$

Si l’alimentation délivrait à l’ordinateur toute la puissance qu’elle reçoit en entrée, alors le rendement serait de 1 (c’est-à-dire 100%). Mais ce n’est jamais le cas, le rendement est donc toujours inférieur à 1. Le tout est de faire en sorte qu’il soit le plus près possible de 1, histoire de ne pas payer une énorme facture d’électricité pour pas grand-chose.

Pourquoi une perte de puissance ?

Mais au fait d’où vient cette perte de puissance ? Pourquoi les transformations effectuées sur le courant et la tension font perdre de l’énergie ? La réponse, je suis sûr que vous la connaissez si vous avez déjà pris un chargeur d’ordinateur portable dans les mains : ça chauffe !

En effet, tout courant électrique traversant un matériau conducteur provoque un dégagement de chaleur. Vous souvenez-vous de la résistance dont nous parlions plus tôt ? Elle est dû aux chocs entre les atomes du matériau conducteur et les électrons qui y circulent. Ces collisions provoquent un dégagement de chaleur, appelé effet Joule. Et la chaleur, c’est de l’énergie ! Toute la chaleur émise par le bloc d’alimentation est autant d’énergie qui n’est pas transmise à l’ordinateur. Ça chauffe la pièce, c’est bien, mais ce n’est pas le rôle d’un ordinateur à la base. :p

Une partie de la puissance consommée est perdue en chaleur, c’est l’effet Joule
Une partie de la puissance consommée est perdue en chaleur, c’est l’effet Joule

Comment s’y retrouver ?

Depuis 2007, le label 80 Plus a été mis en place afin de garantir un rendement acceptable pour les alimentations du commerce. « Acceptable » signifie que les pertes n’excèdent pas 20%. Autrement dit, le rendement doit être d’au moins 80%. Par soucis d'économie, certains constructeurs n'hésitaient pas à proposer des alimentations au rendement exécrable ! Ce n'était bon ni pour l'environnement, ni pour la facture ! Le but de ce label est donc d'éliminer ces escroqueries.

Plusieurs labels ont ainsi été déclinés afin de permettre au consommateur que nous sommes de repérer du premier coup d’œil les alimentations ayant le meilleur rendement :

Charge

80 Plus
80 Plus
80 Plus Bronze
80 Plus Bronze
80 Plus Silver
80 Plus Silver
80 Plus Gold
80 Plus Gold
80 Plus Platinium
80 Plus Platinium

20%

80%

82%

85%

87%

90%

50%

80%

85%

88%

90%

92%

100%

80%

82%

85%

87%

89%

Rendements minimaux en fonction de la charge et du label.
Comme vous pouvez le voir dans le tableau ci-dessus, le rendement varie selon la sollicitation de l’alimentation. Si cette dernière est trop ou trop peu sollicitée, alors le rendement est légèrement inférieur. Le meilleur rendement est atteint entre les deux, c'est-à-dire lors d’une utilisation « normale ».

Qualité du courant

Le « ripple »

Vous l’aurez compris, une bonne alimentation se doit d'avoir un rendement élevé. Mais ce n’est pas le seul paramètre à prendre en compte. En effet, le courant fourni par l’alimentation est envoyé à la majorité des composants de l’ordinateur : carte mère, processeur, carte graphique, disque dur, etc. Imaginez un peu les effets dévastateurs d’une alimentation qui enverrait aux composants un courant corrompu. Imaginez les effets dévastateurs d’une cantine d’entreprise qui donnerait des aliments avariés aux salariés. Leur après-midi ne serait pas très productive…

La qualité du courant est donc primordiale pour ne pas abîmer les composants de votre ordinateur. Comme on l’a vu, le courant attendu est continu et la tension doit être la plus stable possible. Cependant, il reste toujours ce qu’on appelle du « ripple » (« ondulation » en anglais), de toutes petites oscillations de tensions qui vont s’avérer nocives pour les composants de l’ordinateur.

Tension avec ripple
Tension avec ripple

Plus le ripple est élevé, plus les composants vont être abîmés au fil du temps. Acheter une alimentation délivrant une tension « propre » est donc un investissement d’avenir : mieux vaut mettre 20 ou 50 € de plus maintenant, que de devoir changer la carte mère ou la carte graphique dans un an. ;)

L’alimentation génère également des ondes électromagnétiques qui peuvent interférer avec les autres appareils de la maison. Ces ondes sont censées être filtrées par le PFC dont nous parlions plus tôt, mais les alimentations bas de gamme s’en affranchissent un peu trop souvent.

Les onduleurs

Pour éviter les effets indésirables sur les composants de votre ordinateur, rien ne vaut une alimentation de qualité. Mais même avec un bloc haut de gamme, vous ne serez pas à l'abri d'un autre type d'incident : la coupure électrique. L'échelon de tension provoqué par une telle coupure risque de poser des problèmes irréversibles sur votre configuration. La coupure peut même se faire vicieuse et ne durer que quelques millisecondes (on appelle ça une micro-coupure). Tellement court que vous ne vous rendrez peut-être même pas compte que la lumière s'est éteinte un instant, mais suffisamment long pour que votre PC se redémarre tout seul. Pas top.

À l'inverse, il peut surgir des surtensions sur votre réseau électrique, si la foudre s'abat sur votre maison par exemple. Là encore, votre configuration risque d'en pâtir.

Pour se prémunir de tout cela, vous pouvez vous procurer un onduleur. Le principe de base est simple : l'onduleur est branché à la fois au secteur et à l'ordinateur et en cas de soucis, une batterie contenue dans l'onduleur prend le relais. Il en existe trois types différents :


Fonctionnement du bloc d’alimentation Format et connecteurs

Format et connecteurs

La facture d’électricité, à court et moyen terme À retenir pour bien choisir

Passons à présent à des considérations plus « visibles » : le format et les connectiques d’une alimentation.

Côté format, on retrouve le même genre de dénominations que pour les cartes mères. Le format le plus courant est le format ATX. On trouve également des micro-ATX ou mini-ITX pour les boîtiers de plus petite taille. Nous aurons l’occasion de parler plus en détail des boîtiers dans le prochain chapitre.

Concernant les connecteurs, on retrouve de nombreuses normes afin de répondre aux attentes des différents composants de l’ordinateur. Concrètement, c’est autant de câbles qui sortent de l’alimentation et qu’il faudra brancher sur chaque composant.

Pour la carte mère, on utilisera un connecteur ATX 24 pins (ou broches) :

Connecteur d’alimentation ATX 24 broches
Connecteur d’alimentation ATX 24 broches

Afin de respecter la compatibilité avec les anciennes cartes mère qui nécessitaient un connecteur de 20 pins seulement, quatre broches de l’ATX 24 pins sont désolidarisées des vingt autres.

Le connecteur ATX 8 pins, également appelé ATX-P4, se branche également sur la carte mère mais est dédié à l’alimentation du CPU :

Connecteur d’alimentation ATX 8 broches ou ATX-P4
Connecteur d’alimentation ATX 8 broches ou ATX-P4

Là encore, une ancienne norme impose de pouvoir détacher des blocs de broches afin d’obtenir des connecteurs adaptés aux besoins.

Pour la carte graphique, un connecteur PCIe 6 ou 8 pins est disponible :

Connecteur d’alimentation PCIe
Connecteur d’alimentation PCIe

Enfin, nous avons vu dans le chapitre précédent les connecteurs utilisés pour les disques dur : MOLEX pour les disques en IDE et SATA pour les disques et SSD en… SATA :

Connecteur d’alimentation MOLEX
Connecteur d’alimentation MOLEX
Connecteur d’alimentation SATA
Connecteur d’alimentation SATA

Notons que les lecteurs disquettes sont également alimentés via des ports MOLEX. Mais je doute que vous en ayez encore grand besoin aujourd’hui. ;)

Certaines alimentions dites « modulaires » permettent de débrancher les câbles inutilisés. Cela dans le but de ne pas encombrer l’espace et ainsi de permettre une meilleure circulation de l’air dans le boîtier.

Alimentation modulaire
Alimentation modulaire

La facture d’électricité, à court et moyen terme À retenir pour bien choisir

À retenir pour bien choisir

Format et connecteurs Le boîtier

Qui aurait cru qu'un simple bloc pouvait faire subir autant de choses au courant électrique et à sa tension ? Finalement, tout serait plus simple si le courant sortant des prises était directement « propre à la consommation ». Mais cela poserait de gros problèmes de transport du courant, des centrales électriques jusqu'à nos habitations.

Le bloc d'alimentation ne doit surtout pas être négligé, car c'est un investissement d'avenir. Une bonne alim' vous fera économiser de l'argent à court terme sur votre facture d'électricité, mais aussi à moyen terme dans le sens où vous n'aurez pas à changer des composants abîmés par des oscillations de tensions trop importantes.

Les boîtiers sont souvent vendus avec une alimentation mais attention, celle-ci est souvent bas de gamme et donc à éviter. Les boîtiers font d'ailleurs l'objet du prochain chapitre. À l'instar de C-3PO dans l'épisode II, nous allons donc à présent voir comment habiller notre machine !


Format et connecteurs Le boîtier

Le boîtier

À retenir pour bien choisir Apparence générale du boîtier

Demander au voisin de 80 ans de définir ce qu'est un ordinateur, il vous répondra sûrement que « c'est une grosse boîte ». Il aura entièrement raison ! Il fera simplement abstraction du contenu pour ne voir que ce qui est à portée de son regard. C'est d'ailleurs une des caractéristiques du boîtier : il se voit. S'il est plaisant d'avoir une carte graphique qui en jette, aux couleurs accordées à celles des autres composants, ce n'est pas un spectacle que l'on contemple tous les jours (quoi que?). En revanche, même relativement caché sous le bureau, le boîtier reste apparent et a donc tout intérêt à être plutôt beau, esthétiquement parlant. Cela dit, étant donné le caractère hautement subjectif de la chose, nous ne nous attarderons pas sur ce point ici.

Si on creuse un peu, on se rend vite compte que le boîtier n'est pas « juste » une boîte. Il a, comme tous les autres composants, des caractéristiques bien précises qu'il faudra surveiller à l'heure du choix. Taille, ventilation, isolation, vibration, nombre d'emplacements pour disques durs… Il y a de quoi dire. Mais pour commencer, il faut choisir sa taille.

Apparence générale du boîtier

Le boîtier Caractéristiques utiles

Le format

Première caractéristique à définir dans le choix d'un boîtier : la place qu'il va prendre chez vous. Mais ce choix ne peut être fait qu'en prenant en compte le format d'un élément dont nous avons déjà parlé, je veux bien sûr parler de la carte mère. En effet, cette dernière étant l'élément le plus « large » du PC, il est normal qu'elle influe directement sur la taille du boîtier. Vous pouvez alors vous trouver dans deux cas de figure :

Dans les deux cas, la corrélation entre les deux est inévitable.

Pour rappel, les formats les plus courants des cartes mères sont ATX, micro-ATX et mini-ITX (un petit retour sur ce chapitre vous en dira plus si vous avez quelques trous de mémoire ;) ). Lors du choix du boîtier, veillez donc à ce que le format de la carte mère soit compatible.

La taille

Indirectement liée au format, la taille du boîtier est évidemment la caractéristique la plus « voyante » de votre PC. La plupart des boîtiers sont sous forme de tours, mais ce n'est pas une obligation, comme nous allons le voir.

Les tours

Le plus souvent, c'est sous forme de tours verticales que sont présentés les PC. Il en existe trois familles : mini, moyennes et grandes tours. Elles se différencient principalement par le nombre de baies 3,5" et 5,25" dont elles disposent.

Évidemment, plus la tour est grande, plus son nombre de baies peut être important. Une mini-tour peut par exemple ne comporter qu'une seule baie 5,25" alors qu'une grande tour peut en comporter une dizaine !

Mini tour
Mini tour
Moyenne tour
Moyenne tour
Grande tour
Grande tour

Le faible encombrement des petites tours peut être séduisant, mais attention, elles ont l'inconvénient de limiter les possibilités d'évolution de votre configuration. Elles ont également tendance à chauffer plus vite car l'air dispose de moins de place pour circuler.

Les spéciales du chef

Pour certains usages bien précis, les boîtiers peuvent prendre une forme particulière, comme les barebone, ou mini-PC :

Mini PC
Mini PC

Ce sont les plus petits boîtiers. Ils sont généralement pré-assemblés mais on en trouve de plus en plus acceptant les cartes mères au format ITX, ce qui permet de monter des configurations relativement performantes tout en étant facilement transportables.

Autre usages, autre formes : les boîtiers Desktop et HTPC sont horizontaux, ce qui leur permet d'intégrer facilement un meuble de salon :

Boîtier HTPC
Boîtier HTPC

Comme vous pouvez le voir ci-dessus, certains sont équipés d'une télécommande et d'un petit écran en façade, de quoi les faire passer pour un lecteur Blu-ray classique, ou presque. :p Ils ont d'ailleurs pour vocation le remplacement pur et simple des autres appareils multimédias. On utilise pour cela un logiciel de « media center » (Windows Media Center par exemple) en les connectant à la télévision plutôt qu'à un moniteur d'ordinateur.

En général, ils sont faits pour accueillir des cartes mères au format micro-ATX, mais on en trouve également des compatibles avec le format ATX.

Les matériaux utilisés

En attendant les boîtiers prétendument écologique en bambou, les principaux matériaux utilisés à l'heure actuelle sont l'acier et l'aluminium. Visuellement, il n'y a pas de grandes différences entre les deux, mais l'alu est plus léger et donc plus facilement transportable. Il est cependant également plus cher que l'acier. :(

Les boîtiers en acier sont en revanche généralement plus solides. Ils sont plus lourds et moins soumis aux vibrations ce qui les rend un peu moins bruyants que leurs homologues en alu. Cela dit, on trouve dans les deux cas des boîtiers dont les parois sont isolées afin de limiter le bruit.

Des parties en plastiques, plus fragiles, peuvent compléter le tout. Elles se cassent plus facilement, il faut donc prendre garde. Lorsqu'il s'agit d'éléments de décors ce n'est pas bien important, même si cela peut faire mal sur un boîtier à 100 €. En revanche, cela devient beaucoup plus problématique lorsque ce sont poignées, portes ou charnières qui se cassent.


Le boîtier Caractéristiques utiles

Caractéristiques utiles

Apparence générale du boîtier À retenir pour bien choisir

Outre ces considérations globales, un boîtier peut présenter des caractéristiques fort intéressantes, voire indispensables dans certains cas.

La ventilation

On a eu l'occasion d'en parler dans les chapitres précédents : la dissipation de la chaleur produite par les composants de l'ordinateur est un problème récurrent. Le boîtier joue un rôle très important dans la régulation de la température car son architecture va définir le nombre et l’emplacement des ventilateurs, ainsi que la façon dont l’air pourra circuler à l’intérieur.

Les boîtiers d’entrée de gamme ne sont généralement équipés que d'un seul ventilateur, à l’arrière ou à l’avant. Il est recommandé d’en avoir plutôt deux, à l’avant et à l’arrière, voir un troisième sur le dessus ou sur le côté si votre configuration le nécessite (cas des grosses cartes graphique par exemple).

Plusieurs ventilateurs disponibles
Plusieurs ventilateurs disponibles

Côtés accessoires, les grilles d’aérations peuvent être équipées de filtres anti-poussière, limitant ainsi l’accumulation de cette dernière dans le boîtier :

Filtre anti-poussière
Filtre anti-poussière

Qui a déjà démonté un ordinateur vieux de quelques années comprendra l’importance de ces filtres. ;)

Enfin, certains ventilateurs sont équipés de LED, mais nous revenons dans des considérations purement esthétiques que je ne me risquerais pas à commenter ici. :p

La connectique

Le boîtier n’est pas qu’une coque de protection, il fait également office d’interface entre l’ordinateur et l’utilisateur. Ainsi, il peut présenter divers connecteurs en façade, beaucoup plus faciles d’accès que ceux présents derrière.

Au minimum, un boîtier est généralement équipé de deux ports USB ainsi que des ports audio (micro et casque) en façade. Selon vos usages, cela peut s’avérer insuffisant. Le nombre de ports USB est important, mais le type de ports disponibles l’est tout autant. Pensez notamment à l’USB 3, qui n’est pas encore systématique. Des ports moins courants mais néanmoins très pratiques peuvent également être accessibles du bout du bras. Je pense aux ports FireWire pour les caméras numériques ou bien aux ports eSATA pour brancher un disque externe :

Ports disponibles en façade : deux audio, deux USB et un eSATA
Ports disponibles en façade : deux audio, deux USB et un eSATA

On trouve même des boîtiers pourvus d’un dock « Hot Swap », permettant de brancher un disque dur ou un SSD « à chaud », c’est-à-dire sans avoir besoin d’ouvrir l’ordinateur pour le brancher en interne :

Dock Hot Swap
Dock Hot Swap
Dock Hot Swap avec HDD
Dock Hot Swap avec HDD

Cela dit, les ports en façade ne font pas tout : ils doivent être reliés à la carte mère. Prenez donc garde à ce que cette dernière soit équipée en conséquence.

Éléments de montage

Les boîtiers peuvent disposer de petits agréments facilitant le montage et l’organisation interne des composants. Parmi ceux-ci, on notera les fixations sans vis des périphériques de stockage, extrêmement pratique si vous avez à intervenir régulièrement sur ces derniers. Dans la même idée, certains boîtiers sont presque intégralement montables et démontables sans outils :

Parois amovibles sans outils
Parois amovibles sans outils

Cela dit, l’esthétique en prend un sacré coup ! :-° (Oups ! Pardon, je n’ai pas pu m’en empêcher de donner mon avis sur ce coup-là. :p )

Enfin, certains boîtiers peuvent accepter des cages de disque dur placées à 90° (voir amovibles), disposer de « cable management » (pour éviter que les câbles ne traînent partout) et d’un accès « Backplate CPU » (afin de pouvoir monter/démonter le ventirad sans avoir à démonter la carte mère), etc. Bref, il y a de quoi faire si vous souhaitez optimiser les possibilité de votre PC.


Apparence générale du boîtier À retenir pour bien choisir

À retenir pour bien choisir

Caractéristiques utiles Les périphériques externes

Voilà qui met fin à ce court mais très important chapitre consacré au boîtier de l'ordinateur. N'oubliez pas qu'un bon boîtier peut vous apporter un grand confort au quotidien, tant au montage qu'à l'utilisation. Il n'est donc pas à négliger ! Cela dit, si votre budget est serré, je ne vous encouragerai pas à opter pour un boîtier haut de gamme pour autant.

Nous avons à présent fait le tour du boîtier et de son contenu, il ne manque plus grand-chose à notre configuration pour pouvoir passer au montage du tout, si ce n'est quelques périphériques externes, clavier et souris en tête.


Caractéristiques utiles Les périphériques externes

Les périphériques externes

À retenir pour bien choisir Le clavier

Si les interfaces tactiles se font de plus en plus nombreuses entre nos mains, elles n'ont pas encore vraiment percé sur les ordinateurs de bureau. Des modèles d'écran tactiles existent et les systèmes d'exploitation récents les supportent nativement, mais rien ne remplacera jamais le clavier et la souris pour certain jeux, ou tout simplement pour taper du texte. Alors vous allez me dire qu'il ne faut jamais dire jamais et qu'on ne sait pas de quoi sera fait l'avenir. Certes, mais le fait est qu'à l'heure actuelle, vous allez devoir passer par le choix de ces périphériques. ;)

De la même façon, il vous sera difficile de vous passer du son de votre ordinateur. Selon vos besoins, nous verrons donc quels haut-parleurs choisir et quelles sont les différences entre une enceinte de qualité et une enceinte d’entrée de gamme.

Enfin, nous irons un peu plus loin dans les périphériques externes, avec des outils spécialisés qui n’intéresseront certainement pas tout le monde : les tablettes graphiques, les gamepads et joysticks, et enfin les webcams.

Le clavier

Les périphériques externes La souris

Je ne vous apprendrai probablement rien en vous disant que le clavier sert à saisir différents caractères (lettres, chiffres, symboles) et ainsi à envoyer des commandes à l'unité centrale. Un clavier, c'est un clavier ! Mais saviez-vous qu'il en existait de nombreuses variantes ?

Disposition des touches

Selon le pays dans lequel vous vivez, la disposition des touches du clavier n'est pas forcément la même. En France, les claviers sont dits « azerty », en référence à l'ordre des touches de la première ligne de lettres. Au Québec, les claviers sont plutôt des claviers « qwerty ». Il existe même différentes variantes selon le pays. Un « QWERTY » américain n'est pas le même qu'un « QWERTY » québécois par exemple. Savez-vous d'où provient cette différence de clavier entre les pays ?

C'est en rapport avec la langue parlée, non ? Peut-être pour permettre de taper un texte plus rapidement ?

Cette différence provient bien des différentes langues parlées, mais le but n'est pas d'optimiser le temps de frappe. Au contraire, ces dispositions sont conçues pour ralentir l'utilisateur, pour qu'il tape moins vite ! :waw: Très étrange, à l'heure où l'information automatique recherche toujours à nous faire gagner du temps ! Pour comprendre, il faut revenir aux origines, non pas seulement de l'informatique, mais du clavier.

Les premiers claviers ont été conçus pour les machines à écrire. À l'époque, une logique implacable avait animé l'esprit de l'américain Christopher Latham Sholes : il avait placé les touches dans l'ordre… alphabétique. C'est vrai après tout, pourquoi aurait-il fait différemment ? Eh bien c'est à l'usage qu'il s'est rendu compte de son erreur : quand les utilisateurs ont appris à taper rapidement un texte, les mécanismes des machines à écrire se bloquaient. Ils tapaient tout simplement trop rapidement ! Il a donc fallu imaginer une disposition de touches plus complexe que l'ordre alphabétique, avec laquelle les utilisateurs étaient obligés de faire des gestes plus amples pour passer d'une touche à l'autre. Ainsi, les mécanismes avaient le temps de se repositionner correctement entre deux frappes. Le clavier « QWERTY » était né (Christopher Latham Sholes étant américain, c'est la langue anglaise qui a d'abord été étudiée). Les claviers « AZERTY » ont suivis pour les machines à écrire des francophones.

Aujourd'hui, cette limitation n'a plus lieu d'être, mais l'Histoire (et les habitudes) ont fait perdurer ces dispositions de touches. Cela dit, de nouveaux claviers visant cette fois à nous faire gagner du temps et à améliorer le confort d'utilisation ont depuis fait leur apparition. On peut citer parmi eux les claviers « Dvorak » (du nom de l'inventeur de la méthode utilisée pour placer les touches de façon optimale selon la langue) ou une variante adaptée au français : le « bépo ».

Clavier Bépo
Clavier Bépo

Type de clavier

Claviers classiques

Au fil des années, la disposition générale des touches a perduré, mais plusieurs types de clavier se sont succédés. Les premiers claviers « externes » (non intégré à l'ordinateur comme c'était le cas sur les premiers PC) étaient de type PC/XT et possédaient 83 touches. Ils ont été remplacés par les claviers PC/AT, comportant eux 84 touches. L'intérêt des claviers PC/AT ne résidait pas simplement dans l'ajout d'une touche, mais aussi dans la forme et le placement des touches. Par exemple, les touches Majuscule et Entrer ont été agrandies afin d'améliorer le confort d'utilisation.

Clavier PC/XT
Clavier PC/XT
Clavier PC/AT
Clavier PC/AT

Sont ensuite apparus les claviers étendus, se rapprochant bien plus de nos claviers actuels. Les touches F1 à F12 ont par exemple été placées en haut du clavier. Mais l'innovation la plus marquante de ce type de claviers est la présence des quatre flèches directionnelles (, , et ), aujourd'hui incontournables.

Clavier étendu
Clavier étendu

Avec l'avènement du système d'exploitation Windows, des claviers qui lui sont spécialement adaptés se sont fortement répandus. On les reconnaît facilement par la présence de trois nouvelles touches : deux touches « Windows » (Image utilisateurImage utilisateur) et une touche « Application » ().

Clavier Windows
Clavier Windows

Claviers spéciaux

Outre ces types de claviers « classiques », on trouve des claviers spéciaux, dédiés à une utilisation bien particulière. Certains claviers possèdent par exemple un trackball permettant d'utiliser l'ordinateur sans souris, bien installé au fond du canapé ou encore des boutons dédiés aux fonctionnalités multimédias (lecture, pause, avance rapide, etc.).

Un clavier bien pratique pour le Home Cinéma
Un clavier bien pratique pour le Home Cinéma

Les joueurs se tourneront quant à eux vers des claviers haut-de-gamme, bien souvent rétro-éclairées et pourvus de touches supplémentaires programmables. On trouve même des claviers comportant un écran LCD (parfois tactile) ! A vous de voir si le prix en vaut la peine. ;)

Un clavier de « gamer »
Un clavier de « gamer »

Dans les caractéristiques des claviers, vous croiserez régulièrement le terme « polling ». Il s'agit de la fréquence à laquelle sont envoyées les informations du clavier vers l'ordinateur. Il est bien souvent de 1000 Hz pour les claviers pour joueurs.

Certains claviers sont dits « ergonomiques » car leur forme est plus adaptée à la position des bras et des mains :

Le clavier ergonomique de l'un de vos serviteurs
Le clavier ergonomique de l'un de vos serviteurs

Ces claviers ont des blocs de touches séparés et orientés, permettant aux mains de rester dans l'alignement des bras (voir à gauche ci-dessus). Si vous avez devant vous un clavier classique, observez la position de vos bras lorsque vous tapez du texte : ils sont en « V », car vos épaules sont plus larges que votre clavier. Les touches y étant alignées parallèlement à vos épaules, vos poignets doivent être « cassés » pour pouvoir appuyer sur les touches. Ainsi, les mains ne sont plus alignées avec les bras. Si, si, essayez, vous verrez. ;) Sur le long terme, cela peut poser des problèmes irréversibles au niveau des articulations.

Dans la même idée, ces claviers sont inclinés de façon inverse par rapport aux claviers classiques, ils penchent vers l'avant : la partie devant soi est plus haute que celle du côté de l'écran (voir l'image de droite ci-dessus).

Utiliser ce type de claviers demande un temps d'adaptation non-négligeable, mais le confort apporté est tel qu'il est bien souvent difficile de repasser à un clavier classique après coup. ^^

Un autre point d'ergonomie souvent négligé est la gêne procurée par la présence d'un pavé numérique sur la droite du clavier. Si vous êtes droitier, cela vous oblige à placer la souris plus loin que nécessaire sur la droite. Vous êtes ainsi amené à tendre le bras et casser votre poignet (là encore) pour utiliser la souris. Pour remédier à cela, vous pouvez choisir un clavier sans pavé numérique et vous en procurer un séparé, que vous brancherez en USB ou sans fil :

Pavé numérique séparé
Pavé numérique séparé

Ces éléments sont également utiles pour les ordinateurs portables, ne disposant souvent pas de pavé numérique intégré.

Certains modèles possèdent un petit écran, permettant d’en faire des calculatrices même lorsque l’ordinateur est éteint.

Connectique

Les vieux claviers se connectaient sur un port PS2, mais l'immense majorité des claviers actuels utilisent un port USB. La norme (USB 1 ou USB 2) n'est pas très importante au vu de la très faible quantité d'information transitant entre l'ordinateur et le clavier.

Si les fils vous gênent, vous pouvez opter pour un clavier se connectant en infra-rouge ou par ondes radio (Bluetooth ou autres).

Mais il y a un revers à la médaille : la relative perte de réactivité de ces claviers. Celle-ci est totalement négligeable pour une utilisation « bureautique », mais les joueurs chevronnés ne manqueront pas de l'utiliser comme excuse en cas de défaite. ;)


Les périphériques externes La souris

La souris

Le clavier La tablette graphique

Je suis sûr que vous n'êtes pas dans le même cas que Jacques Chirac, qui lors de l'inauguration de la bibliothèque François-Mitterrand en 1995 s'était approché d'un étrange objet en demandant : « La souris, qu'est-ce que c'est ? ». Bref, vous savez ce qu'est une souris et vous en avez tous déjà utilisé une. Cela dit à l'heure du choix, il y a quelques petites choses à savoir à propos du « mulot ».

Souris
Souris

La souris a été inventée en 1963 par Douglas Engelbart, dans le but d'apporter une solution d'interface homme-machine. Il donne au brevet de son invention le nom somme toute très poétique de « X-Y position indicator for a display system » (traduisez « Indicateur de position X-Y pour un système d'affichage »). Le nom « souris » n'est apparu que quelques années plus tard dans une publication scientifique (il n'est donc pas breveté, ce qui peut faire sourire à l'heure où une guerre des brevets fait rage chez les constructeurs de matériel informatique). Le brevet de la souris n'a d'ailleurs été vendu qu'une bouchée de pain au MIT.

la première souris
la première souris

Différents types de capteur

Très vite, un dispositif de capteur de mouvement s'est imposé : celui d'une boule située sous la souris, qui entraîne deux rouleaux correspondant aux axes X et Y :

Souris à capteur mécanique
Souris à capteur mécanique

Si ce type de souris a perduré pendant de nombreuses années, on ne le croise presque plus aujourd'hui. Et c'est tant mieux, car la boule et les rouleaux avaient une fâcheuses tendance à accumuler de la poussière, ce qui imposait un entretien régulier de ces derniers.

Aujourd'hui, nos souris sont « optiques » et non plus mécaniques. Le principe général de fonctionnement est le suivant : un capteur acquiert les images du support sur lequel glisse la souris et s'en sert pour déterminer le mouvement effectué. Ce sont les aspérités de la surface qui permettent à la souris de se repérer :

Déplacement des aspérités d'une surface par rapport au capteur de la souris
Déplacement des aspérités d'une surface par rapport au capteur de la souris

Sans ces aspérités (sur une surface parfaitement lisse par exemple), la souris ne peut pas se rendre compte qu'elle a été déplacée. De la même façon, une surface réfléchissante fera perdre la boule à votre souris optique. :-°

Plusieurs technologies coexistent, à commencer par la plus ancienne d’entre elles : la souris à LED. Selon les constructeurs, elle a été remplacée par un laser ou par un rayon infrarouge, ce qui améliore la détection des aspérités.

Dans le chapitre traitant du choix de l'écran, nous avons parlé de résolution pour définir la « densité de pixels sur une surface donnée». On retrouve cette notion de résolution dans les caractéristiques des souris optiques car elle définit l'image de la surface analysée par la souris. Plus elle est élevée, plus les aspérités seront facilement « visibles » par la souris, assurant donc une meilleure précision.

Une résolution de 800 ppp est un minimum pour une utilisation « bureautique ». Un joueur aura par contre besoin d'une souris d'au minimum 1800 ou 2000 ppp, mais on en trouve des encore plus précis, pouvant monter à 3500, 5000 ou même 6000 ppp. Comme d'habitude, il est bon de se poser la question du réel intérêt de la chose, si ce n'est une course à l'argument commercial entre les constructeurs.

Avec ou sans boutons ?

Excepté chez Apple, où les souris n'en ont longtemps comporté qu'un seul, les premières générations de souris comportaient deux ou trois boutons. Le troisième bouton a aujourd'hui été remplacé par une molette permettant un défilement vertical, voir horizontal pour certaines, pouvant également servir de bouton. Chez Logitech, certains modèles permettent une utilisation crantée de la molette, ce qui améliore la précision mais peut s'avérer désagréable pour faire défiler une page Web.

Certaines souris sont dotées de boutons supplémentaires comme par exemple des boutons de choix de la résolution ou encore les boutons « Suivant » et « Précédent » d'un navigateur Web, très utiles si vous surfez beaucoup,

Boutons « Suivant » et « Précédent », utiles sur le Web
Boutons « Suivant » et « Précédent », utiles sur le Web

Comme pour les claviers, on trouve des modèles de souris à boutons programmables.

Pour les professionnels d'imagerie 3D, des souris tout à fait… spéciales existent. À ce niveau, il devient presque difficile de classer ces périphériques dans la catégorie « souris ». ^^ Jugez plutôt :

Ceci… est une souris
Ceci… est une souris

Certaines personnes plutôt habituées aux ordinateurs portables préfèrent parfois utiliser un pavé tactile qu’une souris. Il est tout à fait envisageable de s’en procurer un pour ordinateur fixe, que l’on branchera alors via un port USB (certains modèles sont également sans fil) :

Pavé tactile pour ordinateur fixe
Pavé tactile pour ordinateur fixe

Enfin, si vous êtes allergiques aux boutons, quelques constructeurs proposent des souris tactiles, qui sont finalement un parfait mélange entre le pavé tactile et la souris classique :

Souris tactile
Souris tactile

Connectique

Côté connectique, il n'y a pas grand-chose de plus à dire sur la souris qui n'ait déjà été dit pour le clavier. Les anciennes souris utilisaient un port PS2 mais sont depuis passées à l'USB. Pour les technologies sans fil, le confort d'utilisation est compensé par une réactivité moins bonne qu'avec une souris filaire. Là encore, ce sont surtout les joueurs ou les graphistes qui seront à cheval sur ce critère. Très peu de souris sans fil sont donc adaptées pour jouer (ou alors elles sont bien plus chères).


Le clavier La tablette graphique

La tablette graphique

La souris Le son : haut-parleurs, casques, micros

Longtemps réservées aux professionnels, les tablettes graphiques sont désormais accessibles au grand public. Il ne s'agit pas simplement de remplacer la souris par un stylet, même si ce simple fait présente déjà un indéniable intérêt pour le dessin. Non, les tablettes graphiques ont d’autres atouts dans leur sac.

Principe de fonctionnement d'une tablette classique

Tout d’abord, voilà à quoi ressemblent une tablette et son stylet :

Une tablette graphique et son stylet
Une tablette graphique et son stylet

La tablette se connecte au PC via un simple port USB (ou bien sans-fil). Sa surface « utile » (là où le stylet est utilisable) a des proportions basées sur les standards de taille des feuille de papier (A4, A5, A6).

Le comportement d'une tablette est tout à fait différent de celui d'une souris ou même d'un pavé tactile d'ordinateur portable. Si votre souris arrive en bout de course sur son tapis, vous pouvez la lever et la repositionner au centre de ce dernier pour continuer votre geste. Pendant ce temps, à l'écran, le curseur ne bouge pas. Avec une tablette, ce cas de figure ne peut pas se produire car la position du stylet sur la tablette représente la position du curseur à l'écran. Si votre stylet se trouve dans le coin inférieur gauche de la surface utile par exemple, alors le curseur est sur ce même coin au niveau de l'écran. On dit que la tablette offre un mouvement absolu du curseur, par opposition au mouvement relatif obtenu avec une souris ou un pavé tactile.

Positionnement absolu du curseur
Positionnement absolu du curseur

Ce comportement peut poser problème quand les dimensions et la taille de la tablette sont très différentes de celles de l'écran. L'idée est donc de se procurer une tablette la plus semblable possible à l'écran. Mais vous vous en doutez, plus la tablette est grande, plus elle est chère… Évidemment.

L'autre atout majeur d'une tablette graphique par rapport à une souris est la possibilité de fournir plus d'informations que la simple position du curseur. Je pense notamment à la force avec laquelle vous tracez un trait dans un logiciel de dessin : plus vous appuyez fort et plus le trait est épais. Il est tout à fait impossible d'indiquer cela au logiciel avec une souris classique. La tablette est donc sensible à ce paramètre, ainsi qu'à l'inclinaison du crayon par rapport à la tablette et bien d'autres choses encore. Certains stylets disposent même d'un capteur supplémentaire à son autre extrémité afin de simuler la gomme se trouvant en haut des crayons à papiers.

Tout est donc fait pour que vous ayez l'impression de vous servir d'un véritable crayon ! Tout, sauf le fait que vous devez regarder l'écran et non votre main pour voir ce que vous faites. L'idéal serait que la tablette soit elle-même un écran…

Tablette LCD

De par leur prix élevé, les tablettes graphiques LCD restent à destination des professionnels. Cette fois, vous n’avez plus besoin de regarder l’écran pour voir ce que vous faites mais bel et bien votre main.

Une tablette graphique LCD
Une tablette graphique LCD

Attention à ne pas confondre ces tablettes graphiques avec les tablettes de type iPad ou Galaxy Tab. Ici, la tablette ne comporte pas de système d’exploitation. Elle est d’ailleurs reconnue comme un écran supplémentaire lorsqu’elle est branchée à l’ordinateur. De ce fait, elle doit être connectée à l’ordinateur à l’aide d’un port DVI ou VGA. En outre, elle nécessite bien souvent une alimentation électrique séparée, contrairement aux tablettes graphiques classiques.


La souris Le son : haut-parleurs, casques, micros

Le son : haut-parleurs, casques, micros

La tablette graphique Gamepads et Joysticks

Donnons à présent de la voix à notre ordinateur ! Certains écrans intègrent de petites enceintes mais ce n’est pas systématique et la qualité de ces dernières est rarement au rendez-vous. Pour profiter pleinement des capacités multimédia de votre machine il vous faudra donc vous procurer des haut-parleurs dignes de ce nom, surtout si votre PC doit faire office de Home Cinema ! Alors quelles sont les caractéristiques essentielles sur lesquelles focaliser votre attention ? Voyons cela.

Nombre de canaux et woofer

Tout d’abord, il faut définir le nombre de canaux dont vous disposerez. Autrement dit, le nombre d’enceintes de votre installation, chacune disposant de sa propre voie sonore. Vous devrez également choisir la présence ou non d’un woofer (ou caisson de basse). Ce dernier permet de reproduire les sons graves (basses fréquences), qu’on appelle communément « les basses ». C’est précisément le « boom-boom » dont vous a parlé votre voisin la dernière fois qu’il est venu râler parce que vous faisiez trop de bruit. L’autre nom du woofer n’est d’ailleurs autre que « boomer ». :-° Vous croiserez peut-être le terme LFE, qui désigne le canal audio destiné au woofer.

Ces deux paramètres se présentent sous la forme de deux chiffres séparés par un point : x.y :

Les configurations les plus courantes sont le 2.0 (stéréo), le 2.1 (stéréo et woofer) et le 5.1 pour le Home Cinema. Vous trouverez également du 6.1 voire du 7.1 dans le haut de gamme. Plus rare, on peut monter jusqu’au 7.2 voir au 12.4, mais ces configurations ne sont pas disponibles dans le commerce.

Configurations de son courantes : en bleu les enceintes, en rouge les woofer
Configurations de son courantes : en bleu les enceintes, en rouge les woofer

Petite précision amusante : le woofer peut être positionné où bon vous semble dans la pièce. En effet, l’oreille humaine ne sait pas reconnaître la provenance des sons graves. Cela dit, il est tout de même conseillé de le placer devant soit, pas totalement au milieu (légèrement décalé sur la gauche ou sur la droite) et de le mettre à même le sol afin de profiter des vibrations qu’il procure. C’est le voisin qui va être content ! ;)

Caractéristiques techniques

Puissance

La puissance d’un haut-parleur est directement liée à la quantité de décibels pouvant être émis. Ainsi, plus un haut-parleur est puissant, plus le son émis pourra être « fort ». Évidemment, une installation sonore dispose d’un contrôle du volume. La puissance indiquée est donc la puissance maximale que le haut-parleur pourra supporter.

La puissance est donnée en Watt RMS, ce qui correspond à la puissance efficace, seule mesure de puissance significative lorsque l’on parle d’acoustique.

Il faut être vigilant à la façon dont est présentée la puissance par les constructeurs. Bien souvent, on parlera de plusieurs puissances :

Par exemple, une configuration 2.1 avec une puissance par satellite de 66 W RMS et une puissance du woofer de 68 W RMS aura une puissance totale de 2*66 + 68 = 200 W RMS. Ainsi, si vous désirez avoir énormément de basses dans votre installation, il vous faudra privilégier un lot de haut-parleurs donc la puissance du woofer est importante.

Rapport signal sur bruit

Le rapport signal sur bruit s’exprime lui aussi en décibels mais attention, il ne définit pas la puissance sonore de votre installation ! Pour cela, vous avez suivi, c’est la puissance RMS qui est à prendre en considération. Le rapport signal sur bruit représente la dégradation du son liée aux parasites présents dans l’installation.

Les parasites sont inévitables dans une installation électrique, le tout est de faire en sorte qu’ils se fassent le moins ressentir sur le résultat final (ici la qualité du son). Cela dépend notamment de la qualité des composants électriques des haut-parleurs. Tout comme dans un bloc d'alimentation, si le constructeur a choisi de faire quelques économies en utilisant des composants de mauvaise qualité, alors la qualité du produit final en pâtira.

Bande passante

La bande passante est la bande de fréquences que peuvent fournir les haut-parleurs. Les fréquences basses correspondent aux sons graves, les fréquences hautes aux sons aigus. La bande passante est donc définie par une borne basse et une borne haute. Plus la borne basse est faible, meilleurs seront les sons graves. Plus la borne haute est élevée, meilleurs seront les sons aigus.

Connectique et alimentation

La quasi-totalité des haut-parleurs se branchent à la carte son via une prise Jack 3,5 mm. C’est la prise « casque » classique que l’on retrouve sur n’importe quel baladeur.

Prise Jack 3,5mm
Prise Jack 3,5mm

Selon la puissance nécessaire à votre installation, l’alimentation électrique ne sera pas faite de la même manière. Pour les petits haut-parleurs stéréo, une alimentation via port USB (attention, on parle bien de l’alimentation électrique là, pas du transfert de données) peut suffire. En revanche, pour les plus grosses configurations, une alimentation séparée peut être nécessaire.

Casques et micro

Si votre voisin est vraiment trop regardant quant à sa tranquillité, il vous faudra peut-être opter pour un casque plutôt que des haut-parleurs. On retrouve bon nombre de paramètres similaires, à commencer par le type : Stéréo, 5.1 ou 7.1.

La forme du casque dépend de vos propres goûts. On trouves des casques « tour de tête », « tour de cou » ou bien « compact » :

Casques « tour de tête », « tour de cou » et « compact »
Casques « tour de tête », « tour de cou » et « compact »

Bien sûr, de par leur taille, les casques « compact » et « tour de cou » ne peuvent pas fournir le même confort qu'un casque « tour de tête ». Vous ne pourrez pas profiter du 5.1 ou 7.1 par exemple.

Si vous préférer les casques « tour de tête », vous avez alors le choix entre (amis des termes techniques-compliqués-pour-pas-grand-chose, bonjour !) circum-aural et supra-aural. La bonne nouvelle, c'est que vos plus ou moins lointains cours de latin vont enfin vous servir ! « aural » vient du latin « auris », qui veut dire « oreille ». « supra » signifie « supérieur » et « circum » est utilisé pour « autour ». Bref, un casque circum-aural est un casque dont les écouteurs englobent l'oreille, alors qu'un casque supra-aural a des écouteurs qui viennent s'appuyer sur l'oreille, sans toutefois l'entourer.

Bon, je sens que le latin vous est monté à la tête… Regardez l’image ci-dessus, le premier casque est circum-aural (l'oreille est englobée), alors que le second est supra-aural. C’est plus clair ? :p

Au niveau de la connectique, on utilisera là encore une prise Jack 3,5 mm. De plus en plus de casques-micros se connectent en USB ou proposent les deux à la fois (Jack 3,5 mm et USB). Si votre boîtier vous le permet, il est plus pratique d’avoir une entrée audio directement en façade, histoire de ne pas se contorsionner derrière sa tour à chaque branchement du casque.

Certains casques sont équipés d’un micro, très utile dans certains jeux ou pour discuter avec des proches via Internet. Cela dit, vous pouvez tout à fait vous procurer un micro séparément du casque. Dans ce cas, on retrouve principalement deux grandes familles de micros :

Micros « informatique » et « multimédia »
Micros « informatique » et « multimédia »

La tablette graphique Gamepads et Joysticks

Gamepads et Joysticks

Le son : haut-parleurs, casques, micros La webcam

Nous arrivons à un point de ce chapitre qui intéressera particulièrement les joueurs. ;) Commençons « classique », avec les gamepads :

Gamepad
Gamepad

Ces manettes de jeux universelles permettent de jouer à pratiquement n’importe quel jeu. Parmi les détails intéressants à regarder avant l’achat, on peut citer la présence ou non d’un retour de force ainsi que la connectique, USB ou sans fil. Certains gamepads sont multiplateformes, ce qui vous permettra de les utiliser avec une console de salon (Xbox 360 ou PS2/3, mais pas les deux) en plus du PC.

Les fans de simulation de vols ne se contenteront pas longtemps d’un simple gamepad et se tourneront très vite vers un joystick, accompagné d’un accélérateur :

Accélérateur et joystick
Accélérateur et joystick

Les plus acharnés complèteront cet ensemble par un pédalier, voir un siège. Bref, il ne manquera plus que les ailes… Notons que certains joysticks sont également multiplateformes et à retour de force.

Enfin, un ensemble volant/pédalier ravira les fans de simulations de courses :

Volant et pédalier
Volant et pédalier

Le son : haut-parleurs, casques, micros La webcam

La webcam

Gamepads et Joysticks À retenir pour bien choisir

Finissons ce chapitre avec un périphérique désormais intégré à la majorité des ordinateurs portables : la webcam. Sur un PC fixe en revanche, il vous faudra en choisir une. Voyons justement les critères de choix importants.

Tout d’abord, même si cela n’apporte rien techniquement, la fixation de votre webcam est importante. Il n’y a rien de plus rageant qu’une webcam que l’on doit faire tenir en équilibre sur un support de fortune trouvé rapidement sur un bureau mal rangé… Au moindre courant d'air, elle tombe, et votre interlocuteur doit avoir le cœur bien accroché. :colere: Les webcams à fixation « universelle » sont censées pouvoir être posées n’importe où :

Webcam à fixation universelle
Webcam à fixation universelle

Seulement voilà, essayez de poser cette webcam « universelle » sur un écran LCD… Il existe donc des fixations spécialement conçues pour les écrans plats :

Wecam à fixation adaptée aux écrans plats
Wecam à fixation adaptée aux écrans plats

Ce détail pratique réglé, intéressons-nous à la qualité du capteur. Deux points sont à prendre en compte : le nombre de pixels et la définition maximale. Je ne reviens pas sur ces points, nous en avons parlé dans le chapitre consacré à l’écran. Attention tout de même à la résolution maximale qui peut être différente de la photo à la vidéo. La plupart du temps, une webcam est utilisé pour de la vidéo, se baser sur la résolution photo n’est donc peut-être pas le plus judicieux. :-°

Les webcams peuvent aussi êtres équipées d'un micro, voire deux sur certains modèles.

Les meilleures webcams sont autofocus et certaines sont même en HD. Reste à savoir si ces caractéristiques vous sont utiles pour l’usage que vous ferez de votre webcam, une simple session de chat vidéo de temps en temps ne les justifie peut-être pas.


Gamepads et Joysticks À retenir pour bien choisir

À retenir pour bien choisir

La webcam L'imprimante et le scanner

Arrêtons-nous là pour le moment. L'idée n'est pas de décrire en détail tous les périphériques susceptibles de graviter autour de votre ordinateur. Nous avons vu les principaux, mais il y en a beaucoup d'autres ! Je pense par exemple aux télécommandes de HTPC ou à la reconnaissance vocale, mais aussi à des périphériques d'avenir tels que les appareils à détection de mouvement (le fameux Kinect de Microsoft en est un des premiers représentants). Imaginez un PC pouvant être totalement dirigé au doigt et à l’œil, un geste pour ouvrir un dossier, un autre pour le refermer, etc. Mais nous n'en sommes pas encore tout à fait là. ^^

Ce chapitre étant terminé, nous avons passé en revu tous les composants (et même un peu plus) nécessaires à l'achat d'un PC à assembler. Avant de passer au montage à proprement parler du PC, j'aimerai vous parler d'une dernière gamme de périphériques : les imprimantes et scanners.


La webcam L'imprimante et le scanner

L'imprimante et le scanner

À retenir pour bien choisir L’imprimante

Finissons cette première partie avec des éléments tout à fait optionnels mais ô combien pratiques : les imprimantes et les scanners. Nous ne détaillerons pas l’ensemble des types d’imprimantes existants mais simplement ceux destinés aux particuliers. Nous verrons les principes généraux de fonctionnement, avant de nous pencher sur les caractéristiques importantes.

Idem pour les scanners, nous resterons dans des gammes de prix abordables et des usages classiques. Nous aborderons pour terminer les imprimantes multifonctions.

L’imprimante

L'imprimante et le scanner Le scanner

Jet d'encre ou laser ?

Il existe deux principaux types d’imprimante à destination des particuliers que nous sommes : les imprimantes jet d’encre et les imprimantes laser. Commençons par voir les différences entre ces deux catégories.

Principes de fonctionnement d’une imprimante jet d’encre

Le principe de fonctionnement d’une imprimante jet d’encre est très simple, « tout est dans le nom » : de l’encre est projeté sur la feuille sous forme de petites gouttelettes d’encre. Si l’idée paraît simple, l’application l’est beaucoup moins quand on connaît la taille des gouttelettes, dont le volume est de l’ordre de quelques picolitres ($$10^{-12} {L}$$) !

Cartouches d'encre
Cartouches d'encre

Une tête d’impression est équipée de très nombreuses buses, chacune capables de projeter une goutte d’encre. Afin de garantir un rendu d’impression précis et constant, il est très important que le volume de ces gouttes soit lui aussi constant. Pour cela, la technique la plus répandue est l’utilisation d’un quartz piézo-électrique, dont la particularité est de pouvoir se déformer lorsqu’il est soumis à une impulsion électrique. En se déformant, il éjecte la goutte de la buse vers le papier. En fait, c’est comme une bouteille de ketchup, mais la pression de la main sur le flacon est remplacée par une impulsion électrique sur un quartz. :p

Principes de fonctionnement d’une imprimante laser

Imprimantes laser et jet d'encre n'ont absolument rien à voir. Tout d'abord, il n'est plus question de cartouches d'encre liquide mais de toner, également appelé « encre en poudre ». Par abus de langage, on appelle « toner » le consommable des imprimantes laser, même s'il s'agit en réalité de la poudre qui y est contenue.

Toner d'imprimante laser
Toner d'imprimante laser

L'imprimante est également constituée d'un laser (d'où son nom) et d'un tambour, qui sera utilisé pour déposer le toner sur le papier.

Afin de fixer le toner sur le papier, l'imprimante va utiliser le principe des charges électro-statiques, que nous avons déjà croisées dans ce tutoriel. Une charge peut être négative ou positive, deux charges identiques se repoussent, deux charges opposées s'attirent (comme un magnet sur une porte de frigo). Tout d'abord, le papier est chargé positivement, alors que le tambour est chargé négativement.

À l'aide d'un jeu de miroirs, le laser va charger le tambour positivement en certains endroits précis, correspondant aux points à imprimer. À cet instant, le tambour est alors chargé positivement en ces endroits et négativement partout ailleurs.

Schéma simplifié de fonctionnement d'une imprimante laser
Schéma simplifié de fonctionnement d'une imprimante laser

Le laser « écrit » en charges positives sur le tambour qui, lui, est chargé négativement.
En rouge les éléments chargés négativement, en vert les éléments chargés positivement.

Le toner, chargé négativement, est alors présenté au tambour. Le tambour attire donc la poudre aux seuls endroits chargés positivement. En faisant rouler le tambour sur la feuille de papier, le toner y est déposé. Mieux, le papier étant chargé positivement, il attire à lui le toner. Le tour est joué, la feuille est imprimée !

Pour terminer, le papier est chauffé afin de faire fondre le toner, ce qui a pour effet de le fixer durablement sur le papier. Voilà pourquoi une feuille est chaude lorsqu'elle sort d'une imprimante laser ! Ce n'est pas le laser qui l'a chauffée, comme on aurait tendance à croire. ;)

Le principe est le même pour les imprimantes laser noir & blanc et couleur. Dans ce dernier cas, les toners cyan, magenta et jaune peuvent être appliqués en une seule passe (on parle d'imprimantes « tandem ») ou en quatre passes (imprimantes « carrousel »).

Des différences plus ou moins apparentes

Un fait saute aux yeux : une imprimante laser est plus chère qu'une jet d'encre, surtout s'il s'agit d'une imprimante laser couleur. Mais attention, on ne parle ici que du prix d'achat ! À y regarder de plus près, on remarque que les imprimantes laser peuvent être rentabilisées relativement vite en raison du prix des « consommables », c'est-à-dire des cartouches et toners. Les constructeurs utilisent en effet une petite arnaque bien connue : ils baissent le prix des imprimantes pour inciter à l'achat et font la plus grosse partie de leur marge sur les consommables. À ce petit jeu-là, les imprimantes laser ont un avantage certain car quand un lot de cartouches permet d'imprimer quelques centaines de pages tout au plus, un toner sera toujours d’aplomb au bout de quelques milliers d’impressions. :waw: En moyenne, l’impression d’une page revient trois fois moins chers avec une imprimante laser. La différence se fait sentir sur le long terme !

En parlant de long terme, il faut également garder à l’esprit que les têtes d’impression d’une imprimante jet d’encre ont tendance à s’encrasser. Cela est d’autant plus vrai si l’imprimante n’est pas utilisée pendant quelques mois : il reste toujours un petit peu d'encre qui risque de sécher dans les buses d'impressions. Ce problème n’existe pas (ou peu) avec les imprimantes lasers, ce qui leur confère une durée de vie généralement plus grande.

Cela dit les imprimantes jet d’encre n’ont pas que des vices cachés et offrent un bien meilleur rendu pour l’impression de photos. Les imprimantes laser sont plutôt limitées à ce niveau là et sont ainsi plus adaptées à l’impression de textes bruts. Tout dépend donc de votre consommation. Imprimez-vous plutôt des photos ou des textes ?

Enfin, les imprimantes laser surclassent largement les imprimantes jet d’encre en terme de vitesse d’impression. Cela étant, toutes les imprimantes d'une gamme ne sont pas forcément sur un pied d'égalité concernant la vitesse. Cette dernière est mesurée en ppm (à ne pas confondre avec le ppp de la résolution !).

Caractéristiques importantes d'une imprimante

Un certain nombre de caractéristiques importantes sont communes à toutes les imprimantes, laser ou jet d’encre. Ce qui suit va donc vous intéresser quel que soit votre choix.

Format de papier

Commençons par ce qu'il y a de plus « macro » : le format du papier que peut gérer l'imprimante. Le format le plus courant est le format A4, soit 21 sur 29,7 centimètres. C’est le format le plus répandu dans le Monde, à l’exception notable de l’Amérique du Nord (et donc du Québec) où le format de prédilection est le « US Letter » (8,5 sur 11 pouces). Dans les faits, les imprimantes sont compatibles d’un continent à l’autre. Vous n’aurez qu’à remplir le bac de papier avec le format qu’il vous plaira. ;)

Le format A3 (29,7 sur 42 centimètre) est le second format le plus répandu. Il est le « double » du format A4. Certaines imprimantes sont présentées comme « A3+ », ce qui leur permet d’imprimer en un format légèrement supérieur au format A3 standard.

Au-delà du format A3, on utilise plutôt des tables traçantes :

Table traçante
Table traçante

Mais ces tables sont surtout utilisées en milieu professionnel, nous n'en parlerons donc pas plus que ça.

Résolution

La notion de résolution que nous avons croisée dans plusieurs chapitres est à nouveau de la partie ! Pour l’écran, elle caractérisait une densité de pixels présents à l’écran. En terme d’impression il n’y a pas lieu de parler de pixel mais l’idée est la même : la résolution représente ici le nombre de points par unité de longueur. Elle est exprimée en ppp (ou dpi en anglais). Bien sûr, plus la résolution est grande, meilleure sera la qualité de l'impression. Cela est particulièrement important pour l'impression de photos.

Aujourd’hui, les meilleures imprimantes « grand public » atteignent une résolution de 9600 ppp. Notons que les résolutions des imprimantes laser noir & blanc sont souvent moins élevées (2400 ppp par exemple), ce qui n’est pas étonnant dans la mesure où elles ne sont pas destinées à faire de la photo.

Connectique

Une imprimante se branche généralement via un port USB. Les quantités de données n'étant pas énormes, il n’est pas important de regarder la norme USB (2 ou 3) utilisée. Mais de nos jours, de plus en plus d’imprimantes sont accessibles sans fil, en Bluetooth, en Wi-Fi ou même en Ethernet.

Il peut en effet être intéressant, même au sein d'un petit réseau domestique de quelques ordinateurs, de s'équiper d'une imprimante « réseau », branchée cette fois à votre routeur en Wi-Fi ou via un câble Ethernet. Ainsi, tous les ordinateurs de la maison pourront imprimer à n'importe quel moment. Cela dit, certaines NetBoxes permettent d'obtenir le même résultat en branchant l'imprimante en USB. Il n'est alors pas nécessaire que l'imprimante soit une imprimante « réseau ».

Les petits plus

Reste des caractéristiques de moindre importance, mais que l'on qualifiera de « petits plus », telle que la capacité d'imprimer en recto-verso de façon automatique. Évidemment, dans l'absolu, il est possible d'imprimer en recto-verso quelle que soit l'imprimante. Il suffit d'imprimer le recto, de retourner la feuille « à la main » et de lancer l'impression du verso. Cela dit, il est bien plus confortable de laisser faire cette petite manipulation automatiquement par l'imprimante. ^^

La présence d'un bac interne (tiroir) pouvant accueillir beaucoup de feuilles peut s'avérer pratique à l'usage. Les imprimantes compactes ne peuvent souvent recevoir que quelques dizaines de feuilles en attente d'impression.

Si vous souhaitez imprimer régulièrement vos photos numériques, vous pouvez choisir une imprimante dotée de lecteur de cartes mémoires ou bien équipée de la norme « PictBridge », permettant d'imprimer une photo directement en branchant votre APN.

Plus spécialisées, certaines imprimantes peuvent imprimer directement sur un support optique (CD, DVD ou Blu-ray spécialement prévus à cet effet). Il suffit de positionner le disque dans l'emplacement dédié sur l'imprimante :

Imprimante pour supports optiques
Imprimante pour supports optiques

Impression sur supports optiques

Enfin, certaines imprimantes sont particulièrement bruyantes. Ce n'est pas un critère de la plus haute importance, mais ça compte, surtout si vous aimez le calme.


L'imprimante et le scanner Le scanner

Le scanner

L’imprimante Les imprimantes multifonctions

Une imprimante sert à sortir sur papier un document numérique, un scanner fait tout à fait l'inverse. À partir d'un objet matériel (généralement une feuille de papier), il permet d'obtenir un document numérique. Je vous propose d'aborder le scanner de la même façon que l'imprimante, en commençant par le principe de fonctionnement, avant de passer aux caractéristiques importantes.

Principe du scanner

Les scanners les plus courants sont les scanners « à plat », accueillant le document à numériser sous leur capot :

Scanner « à plat »
Scanner « à plat »

Mais ce type de scanner n'est pas le seul existant. On trouve également des douchettes (lecteurs de codes barres) ou des scanners à défilement :

Scanner « douchette » à gauche, scanner « à défilement » à droite
Scanner « douchette » à gauche, scanner « à défilement » à droite

Les douchettes sont plutôt utilisées en milieu professionnel. Les scanners à défilement sont plus compact, ce qui peut s'avérer un atout précieux sur un petit bureau, mais ils ont le gros inconvénient de ne pas pouvoir scanner autre chose qu'une feuille. Impossible de numériser une carte d'identité ou un livre par exemple (certains ont essayé, ils ont eu des problèmes…).

Sceyex
Sceyex

Quel que soit le type de scanner, le principe est à peu près similaire. L'idée est de parcourir tout le document afin d'en faire une « photo » numérique. Pour ce faire, une puissante source lumineuse éclaire le document et un capteur récupère les rayons réfléchis. Selon la longueur d'onde du rayon, le scanner est alors capable de déduire la couleur en un point particulier du document.

Ce procédé est répété sur l’ensemble du document à numériser, de différentes façons selon le type de scanner :

Caractéristiques

Résolution et interpolation

Passons à présent aux critères de choix d'un scanner. Le plus important d'entre eux est, là encore, la résolution. Elle définit le nombre de pixels par unité de surface des images produites par le scanner. Elle doit donc naturellement être la plus élevée possible. Une résolution de 2400 ppp est un minimum, mais elle peut monter jusqu'à 9600 ppp.

Mais il y a mieux. La résolution dont je parle ci-dessus est la résolution « optique » du scanner, c'est-à-dire la résolution d'image que peuvent produire les capteurs du scanner. Les scanners sont dotés d'un logiciel interne capable d'interpoler la résolution des images obtenues, afin de l'augmenter artificiellement. Concrètement, le scanner peut par exemple produire une image de résolution 2400 ppp puis la transformer en une image de résolution 4800 ppp.

Si la résolution augmente, cela signifie que l'image est constituée de davantage de pixels. Comment le scanner s'y prend-il pour produire les nouveaux pixels ? Il les invente ?

Exactement ! Le scanner invente les nouveaux pixels ! Il le fait en se basant sur les pixels déjà présents. Prenons un exemple avec une image de résolutions horizontale et verticale de 2 ppp (oui, c'est peu, mais c'est pour l'exemple ;) ). 2 ppp de résolution horizontale, cela signifie qu'horizontalement, sur une longueur d’un pouce, il y a de la place pour 2 pixels. Idem verticalement. Ainsi, en prenant un petit carré d'un pouce de côté au sein de notre image, celui-ci sera constitué de quatre pixels :

Quatre pixels colorés dans un carré d'un pouce de côté
Quatre pixels colorés dans un carré d'un pouce de côté

L'image ci-dessus a été créée par le scanner à partir d'un document numérisé. Mais le nombre trop faible de pixels ne permet pas de représenter convenablement la réalité.

L'interpolation à laquelle procède le scanner a pour but d'augmenter la résolution. Dans notre exemple, soyons fous, nous allons la doubler ! Il y aura donc maintenant quatre pixels horizontalement et verticalement (et non plus deux), soit seize pixels en tout. Mais alors quelle va-t-être la couleur des nouveaux pixels ainsi créés ?

En interpolant la résolution, on créé de nouveaux pixels. Il faut maintenant déterminer leur couleur.
En interpolant la résolution, on créé de nouveaux pixels. Il faut maintenant déterminer leur couleur.

Toute la difficulté réside dans la détermination des couleurs des nouveaux pixels. Le scanner les calcule en se basant sur les couleurs des pixels déjà présents. Il existe de nombreuses méthodes aux algorithmes parfois très poussés. Mais une possibilité serait de faire une sorte de « moyenne » des couleurs des pixels alentours. Par exemple, si le pixel à « colorer » se trouve entre un pixel blanc et un pixel vert, alors la couleur résultante du nouveau pixel sera un vert clair . Dans notre cas, les nouveaux pixels seront un savant mélange de rouge, vert, bleu et jaune, selon leur position :

La couleur des pixels interpolés dépend de la couleur des pixels alentours
La couleur des pixels interpolés dépend de la couleur des pixels alentours

L'image ainsi produite par le scanner a donc une meilleure résolution que ce que permet en théorie le matériel. Elle semble ainsi moins « pixelisée » que si aucune interpolation n'avait été faite et représente donc mieux la réalité.

Cette technique a toutefois ses limites, car si l'on pousse un peu trop l'interpolation, les pixels déduits n'auront plus grand rapport avec la réalité. De plus, le poids de l'image (en Mo) augmente avec sa résolution : plus il y a de pixels, plus il y a d'informations, plus l'image est lourde.

Profondeur de couleur

On l'a vu, une image numérique produite par le scanner est un ensemble de pixels. Une image est donc une liste de pixels, pour chacun desquels on connaît les deux informations suivantes :

Vous le savez, en informatique on utilise des « 0 » et des « 1 », les bits, pour stocker les informations. La couleur d'un pixel ne fait pas exception et est également codée sous forme de bits. On appelle profondeur de couleur le nombre de bits utilisés pour définir la couleur que peut prendre un pixel.

Si la profondeur de couleur est de 1, alors les couleurs sont codées sur un seul bit : 0 ou 1. En général, dans ces cas-là, 0 correspond au noir et 1 correspond au blanc. Une image de profondeur 1 est donc une image en noir et blanc.

Avec une profondeur de 2, les couleurs peuvent maintenant être codées sur deux bits chacune. On a ainsi :

Avec une profondeur de 2, il y a donc 4 couleurs différentes possibles. La relation entre la profondeur p et le nombre de couleurs n est donnée par la simple formule suivante :

$$n=2^p$$

La profondeur de couleur définit donc indirectement le nombre de couleurs différentes que peut gérer le scanner.

Les scanners actuels gèrent des profondeurs de couleurs de 24, 36 ou 48 bits. Je vous laisse faire les calculs… ^^ Cela étant, quand on sait que l’œil humain est capable de discerner environ 2 millions de couleurs « seulement », on peut se poser la question du réel intérêt de disposer de $$2^{48} = 281 474 976 710 656$$ couleurs. ;)

Reconnaissance de caractère

La ROC (ou OCR en anglais) consiste à produire un document informatisé à partir d'un document imprimé. Vous passez ainsi d'un format physique (une feuille de papier) à un format numérique (un fichier .txt), que vous pourrez alors utiliser dans votre logiciel de traitement de texte préféré. Cela peut s'avérer par exemple très utile pour récupérer un document dont vous avez perdu toutes les sauvegardes numériques et dont il ne vous reste plus qu'une version papier.

Tout le processus de reconnaissance des caractères se fait au niveau software, grâce à un logiciel dédié. Cela ne concerne donc pas directement les caractéristiques techniques du scanner. Néanmoins, certains scanners sont vendus avec un logiciel de ROC, ce qui en fait un point à prendre en compte à l'heure du choix.

Il est bien sûr possible d'acheter un tel logiciel à part, mais si votre besoin est précisément la numérisation des textes, il peut être intéressant (financièrement parlant) de faire un tir groupé. Notons cependant qu'il existe des logiciels libres (et gratuits) facilement accessibles sur Internet.

Comme pour les imprimantes…

Les critères de format, de vitesse et de connectique sont tout à fait similaires à ce dont nous avons déjà parlé du côté des imprimantes. Le format de scanner le plus répandu est le format A4, soit 21 sur 29,7 centimètres. Les scanners de plus grand format sont destinés à un usage professionnel.

De la même façon que pour la vitesse d’impression d’une imprimante, la vitesse d’acquisition d’un scanner se mesure en ppm. Elle dépend généralement de la résolution du scanner : plus celle-ci est élevée, plus le scanner mettra de temps à numériser une page. Cette caractéristique n'est cependant valable que pour les scanners à défilement.

Pour ce qui est de la connectique, l’USB, le Bluetooth et le Wi-Fi seront là encore les interfaces les plus courantes avec l’ordinateur. Enfin, certains rares (et chers) scanners peuvent être branchés en réseau.


L’imprimante Les imprimantes multifonctions

Les imprimantes multifonctions

Le scanner À retenir pour bien choisir

Je n'ai plus rien à ajouter concernant les imprimantes et scanners en tant que tels, mais il reste une gamme d'appareils dont nous n'avons pas parlé : les « multifonctions ». Ils font office d'imprimante et de scanner bien sûr, mais pas seulement (nous en parlerons tout à l'heure). Je ne reviens pas sur les caractéristiques de ces deux fonctions, car ce sont les mêmes que pour des appareils dédiées.

Imprimante multifonctions
Imprimante multifonctions

Qui dit « plus de fonctions », dit en général « plus cher ». Ce n'est pas faux. Cela dit, les imprimantes jet d'encre monofonctions ne sont plus si avantageuses que cela en terme de prix si on les compare à des multifonctions d'entrée de gamme. L'encombrement n'est même plus un problème car certaines multifonctions s'avèrent très compactes. Maintenant, si vous refusez catégoriquement la présence d'un scanner chez vous (chacun ses principes…), alors pourquoi pas une monofonction, mais regardez au moins du côté des imprimantes laser ! Bref, j'essaie simplement de vous dire que les imprimantes jet d'encre monofonctions sont en fin de vie. ^^

Mais qui dit « plus de fonctions », dit également parfois « fonctions de moins bonne qualité ». Il est tentant de se payer un appareil tout-en-un, mais s'il se trouve être un piètre scanner et une imprimante médiocre, cela ne vaut peut-être pas le coup. Mais aucun problème puisque vous connaissez maintenant les caractéristiques importantes à regarder pour bien choisir. ;)

Un des avantages souvent apprécié chez les multifonctions, est la possibilité de scanner une feuille puis de l'imprimer aussitôt, sans même avoir besoin d'allumer l'ordinateur. Et scanner pour imprimer aussitôt… on appelle cela une photocopie ! Pensez-y.

Enfin, vous trouverez des multifonctions « 4 en 1 », incluant une fonction « fax » en plus de l'impression, du scanner et de la copie. Bien sûr, leur prix est plus élevé.


Le scanner À retenir pour bien choisir

À retenir pour bien choisir

Les imprimantes multifonctions Acheter les composants et se préparer

Le choix d'une imprimante et d'un scanner commence par le choix du type d'appareil : mono ou multifonctions. Ci-dessous, nous abordons chaque point séparément.

Nous en avons maintenant terminé avec les imprimantes et scanners. En fait, nous en avons terminé avec la première partie de ce tutoriel ! Vous devez maintenant pouvoir reconnaître les différents éléments pouvant se trouver à l'intérieur du boîtier ainsi que les périphériques pouvant s'y connecter. Cela étant, à l'heure du choix, il est fortement recommandé de lire un maximum de tests et comparatifs sur différents sites de hardware. Vous avez maintenant toutes les bases nécessaires pour les lire et les comprendre au mieux.

Dans la deuxième partie de ce tutoriel, nous allons passer à la pratique, avec le montage de l'ordinateur.


Les imprimantes multifonctions Acheter les composants et se préparer

Acheter les composants et se préparer

À retenir pour bien choisir Ordinateur déjà monté ou pas ?

Vous êtes impatients de mettre les mains dans le cambouis ? Eh bien je vais vous faire patienter encore quelques instants, le temps de lire ce petit chapitre introductif sur l’assemblage de notre ordinateur. Maintenant que nous avons passé en revue l’ensemble des composants d’un ordinateur, vous savez de quoi il retourne précisément. C’est donc le moment pour moi de revenir sur l’intérêt même de monter soi-même son ordinateur. Nous parlerons ensuite des quelques outils indispensables et des précautions à prendre avant de commencer l’assemblage.

Je vous présenterai également la configuration qui va nous servir d’exemple dans le reste de ce tutoriel. En effet pour illustrer l’assemblage d’un ordinateur, nous nous sommes basés sur un cas pratique : le choix et l’assemblage de la configuration d'un joueur (dont nous tairons le nom bien entendu ;) ). Je vous expliquerai donc comment et pourquoi nous avons choisi tel ou tel composant. Cela constituera une petite étude de cas, afin de compléter ce que nous avons vu dans la partie précédente.

Ordinateur déjà monté ou pas ?

Acheter les composants et se préparer Les outils indispensables

Si les « config' » pré-assemblées peuvent sembler plus pratiques de prime abord, il est souvent plus intéressant de choisir un à un ses composants et d’assembler le tout soi-même. Pourquoi donc ? Est-ce vraiment certain ? Eh bien je vais tâcher de vous répondre. ;)

Le prix, le choix

Premier argument en faveur de l’assemblage d’un ordinateur soi-même, et non des moindres : le prix. L’achat d’un ordinateur fait en général partie des « grosses » dépenses. Pouvoir le monter soi-même permet bien souvent de réaliser de belles économies. Même en prenant en considération les frais de port si l'on commande sur Internet, on peut bien souvent rester sous le prix d’un ordinateur pré-assemblé de configuration équivalente.

Imaginez que votre voisin vous demande des conseils pour l'achat d'un ordinateur. Il débute en informatique et veut principalement faire du Web. En lui montant sa configuration, vous pourrez choisir des composants adaptés. Vous allez me dire que vous pouvez très bien lui acheter un ordinateur pré-assemblé d’entrée de gamme pour un prix dérisoire. C’est vrai, mais la qualité des composants ne sera pas forcément au rendez-vous. De plus, il y aura forcément des composants non adaptés, comme le disque dur par exemple, souvent cent fois trop grand pour un utilisateur lambda. Les constructeurs aiment gonfler le torse en mettant en avant des capacités de stockage élevées, mais est-ce vraiment utile pour le voisin en question ?

Entendons-nous bien : vous ne réaliserez pas forcément d’économies en montant votre ordinateur vous-même ! Ce n’est pas automatique, les écarts de prix n'étant pas assez significatifs pour cela. En revanche, vous avez le choix d’acheter les composants qui vous correspondent. Si vous souhaitez par exemple vous équipez d’une bête de course prête à supporter les jeux les plus gourmands du moment et ceux à venir, vous pouvez très bien choisir des composants haut-de-gamme. L’addition sera salée, mais au moins vous l’aurez choisi et vous saurez dans quoi vous mettez votre argent. Et surtout, vous ne serez pas obligés de changer votre ordinateur dès qu'un nouveau jeu assez gourmand en ressources pointe le bout de son nez.

Vous aurez également le choix de vous procurer les composants dans divers magasins et non en un seul endroit. La concurrence est rude et permet d’obtenir des prix très intéressants pour chacun des composants, faisant ainsi baisser le prix de l’ensemble de la configuration. Au final, obtenir une configuration équivalente à un prix équivalent avec un ordinateur pré-assemblé relève du défi.

Enfin, les ordinateurs déjà montés sont généralement mal équilibrés. Vous pouvez par exemple avoir un CPU très performant et une quantité de RAM énorme, mais une carte graphique rachitique, alimentée par une alim' « no name ». Vous ne pourrez pas jouer dans de bonnes conditions, malgré les belles performances affichées par le constructeur.

La fausse difficulté

« Oui, mais monter un ordinateur, c’est compliqué, c’est pour les pros. » Voilà la phrase qu’on entendra souvent. En lisant les chapitres à venir, vous allez vous rendre compte que cette difficulté est en réalité toute relative. Bien sûr, il faut connaître quelques petites choses, mais rien d’insurmontable. Au contraire.

Le plus compliqué est sans doute de connaître les composants : à quoi servent-ils, comment les choisir ? La première partie du tutoriel était là pour ça. ;)

La maintenance

Quand l'ordinateur du voisin tombe en panne, quelle est bien souvent sa première réaction ? Il jette le tout aux ordures et en achète un nouveau. C’est dommage quand on sait que seule la carte graphique était en rade. En montant son ordinateur soi-même, on le connait, on sait quoi faire quand il tombe en panne. Monter son ordinateur soi-même, c’est bien souvent réparer son ordinateur soi-même.

Je vous parlais d'économies à l'instant, imaginez celles que vous réaliserez en changeant simplement une carte graphique plutôt que l'ensemble de l'ordinateur !

Sans parler de panne, un ordinateur monté par vos soins sera aussi bien plus évolutif. Vous saurez quel composant changer, pourquoi et comment le faire. Sa durée de vie sera considérablement allongée.

Et il faut bien dire : c’est chouette !

Je terminerai avec une petite note totalement subjective : monter un ordinateur, c’est quand même sacrément sympa ! Outre la fierté de se dire « c’est moi qui l’ai fait », une personne s’intéressant de près ou de loin à l’informatique apprécie généralement d'assembler les composants entre eux pour voir naître sa machine.


Acheter les composants et se préparer Les outils indispensables

Les outils indispensables

Ordinateur déjà monté ou pas ? Quelle configuration allons-nous monter ici ?

Outils
Outils

Avant de commencer l’assemblage, il est fortement conseillé de dégager le terrain. Préparez-vous une surface plane suffisamment grande pour accueillir le boîtier couché, les composants et les outils.

Enfin quand je dis « les outils », je m'avance peut-être un peu. Aujourd'hui, les systèmes dits « tool less » (« sans outils ») et « screw less » (« sans vis ») sont de plus en plus répandus. Vous n'aurez besoin, tout au plus, que d'un tournevis cruciforme. L'idéal serait qu'il soit aimanté, afin d'aller chercher les vis qui seront tombées au fin fond du boîtier. Si, si, ça arrivera forcément. ;)

Armez-vous également d'au moins un post-it (ou d'une feuille de papier). Vous verrez plus tard pourquoi…

Enfin, puisque tout problème avec l'électricité statique peut endommager certains composants, mieux vaut éviter les sols avec de la moquette, et se décharger en touchant un objet métallique avant de commencer le montage (la cage en acier du boîtier fera très bien l'affaire).


Ordinateur déjà monté ou pas ? Quelle configuration allons-nous monter ici ?

Quelle configuration allons-nous monter ici ?

Les outils indispensables Carte mère, processeur et mémoire vive

Comme je vous le disais en introduction, nous nous sommes basés sur un cas pratique pour illustrer cette partie du tutoriel : celui du choix et de l’assemblage d’une configuration de joueur.

Les besoins

Tout d'abord, il est important de bien définir les besoins de la personne bénéficiaire de l'ordinateur. Si c'est vous, ce sera plutôt simple. Si c'est pour quelqu'un d'autre, il faudra lui poser quelques questions. La plus importante d'entre elles est sans doute : pour quelle utilisation l'ordinateur va-t-il servir ?

Dans notre cas, les besoins sont les suivants :

Notre choix

En fonction de ces besoins, nous avons (ou plutôt CyberS@m a) établi la configuration ci-dessous. Les composants sont rangés dans l'ordre dans lequel ils ont été choisis (le processeur avant la carte mère par exemple). Nous avons tâché d'expliquer le choix de chaque composant.

Finalement, cela nous fait quelques cartons…

Les composants que nous allons assembler dans les chapitres à venir
Les composants que nous allons assembler dans les chapitres à venir

Parés ? Bien… Nous avons maintenant les outils et les composants, alors comme on dit : il n'y a plus qu'à ! Dans le prochain chapitre, nous commencerons l'assemblage de la configuration. Cet assemblage durera jusqu'au dernier chapitre de cette partie du tutoriel. Aussi, je vous conseille de la lire jusqu'au bout avant de commencer les premières manipulations !


Les outils indispensables Carte mère, processeur et mémoire vive

Carte mère, processeur et mémoire vive

Quelle configuration allons-nous monter ici ? Installation du CPU et de son ventirad

Nous y voilà ! J’espère que ce petit chapitre introductif vous aura mis l’eau à la bouche, parce que ça y est, nous allons entrer dans le vif du sujet. Fini la théorie, place à la pratique ! « Enfin ! », diront certains. D’autres en revanche attendent ce moment avec une certaine appréhension, ce qui est tout à fait compréhensible. Surtout si c'est leur premier assemblage d'ordinateur. Dans tous les cas, nous allons prendre le temps d’expliquer en détails la démarche, pour que personne ne soit perdu.

Dans ce chapitre, nous allons travailler sur la carte mère. Nous y installerons le CPU et son ventirad, ainsi que la RAM. Enfin, nous fixerons le tout dans le boîtier.

Installation du CPU et de son ventirad

Carte mère, processeur et mémoire vive Branchement de la RAM

Première chose à faire : sortir la carte mère de son carton et constater qu’elle est encore plus belle en vrai que sur les photos (si si, croyez-moi sur parole :p ). Pour éviter de rayer le bureau ou même d'abîmer la carte mère, nous la déposons sur le plastique de protection, bien à plat, sur un plan de travail bien dégagé :

Carte mère ASUS P8Z68-V/Gen 3, fraîchement sortie du carton
Carte mère ASUS P8Z68-V/Gen 3, fraîchement sortie du carton

Je suis sûr que vous avez bien suivi la partie précédente, vous devez donc reconnaître la majorité des éléments qui composent la carte mère. En particulier le socket, que l’on ouvre grâce au petit levier situé à sa droite (on le voit bien sur la photo ci-dessus).

Une fois ouvert, le socket est prêt à recevoir le CPU
Une fois ouvert, le socket est prêt à recevoir le CPU

Ouvrons justement le socket : nous allons sans plus attendre installer notre processeur.

Installation du CPU

Notre socket est ici de type LGA : le branchement avec le CPU se fait via de petits contacts métalliques. En retournant le processeur, on voit d’ailleurs très bien ces points de contacts :

Le CPU est doté de centaines de contacts métalliques
Le CPU est doté de centaines de contacts métalliques

On remarque également deux petites encoches, cerclées de rouge sur la photo ci-dessus. Ces encoches sont des détrompeurs qui indiquent dans quel sens positionner le CPU sur le socket. Prenez bien garde à respecter scrupuleusement ce sens ! Déposez le simplement, sans forcer.

Le CPU doit être installé de façon à être tout à fait parallèle au socket. Si ce n’est pas le cas, s’il est un peu « de travers », alors c’est qu’il est mal positionné. Retirez-le alors délicatement et retentez votre chance.

Autre méthode pour vérifier que votre CPU est bien en place : essayez de le faire bouger légèrement. Les détrompeurs doivent normalement vous en empêcher.

CPU AMD
CPU AMD

Il ne nous reste alors plus qu'à fermer le capot, avant de rabaisser le levier :

Positionnement du CPU, fermeture du capot et verrouillage du levier
Positionnement du CPU, fermeture du capot et verrouillage du levier

Le levier sert à verrouiller la fermeture du capot. Il faut légèrement forcer pour le rabaisser, mais une fois ceci effectué, le CPU est solidement fixé au socket.

Installation du ventirad

Passons à un élément extrêmement important : le ventirad ! Nous en avons parlé dans la première partie, le ventirad sert à refroidir le CPU. Sans lui, le CPU finirait par surchauffer et subir d’irrémédiables dommages. Les manipulations qui vont suivre sont donc tout à fait cruciales.

Badigeonnage de la pâte thermique

Le radiateur du ventirad permet le transfert thermique entre le CPU et l’air ambiant. CPU et ventirad doivent donc être en contact direct l’un avec l’autre. Mais cela n’est pas suffisant, ou du moins, pas optimal. Afin d’accompagner le transfert thermique, on applique sur le CPU une fine couche de pâte thermique.

La couche de pâte doit être bien fine et uniforme. Elle doit en outre recouvrir toute la surface du CPU. En passant, évitez de toucher la pâte avec les doigts, celle-ci contenant des substances chimiques pas forcément recommandables… Pour bien l’étaler, vous pouvez par exemple utiliser la technique dite « du post-it » (copyright CyberS@m) :

Application de la pâte thermique sur le CPU
Application de la pâte thermique sur le CPU
La technique dite « du post-it »
La technique dite « du post-it »

Une seringue de pâte thermique est fournie avec le CPU. Vous pouvez très bien l’utiliser (c’est d’ailleurs ce que nous avons fait ici), mais vous pouvez la remplacer par une pâte de meilleure qualité. En plus d’accroître la faculté de transfert thermique, une pâte de bonne qualité aura aussi le bon goût de s’étaler plus facilement.

La pâte thermique doit recouvrir de façon uniforme le CPU
La pâte thermique doit recouvrir de façon uniforme le CPU

Installation du ventirad

Nous pouvons maintenant fixer notre ventirad sur le CPU. Comme vous pouvez le voir sur l’image ci-dessous, il est bien composé de l’ensemble radiateur/ventilateur dont nous parlions dans la première partie du tutoriel :

Ventirad de type tower (radiateur et ventilateur perpendiculaires au CPU)
Ventirad de type tower (radiateur et ventilateur perpendiculaires au CPU)

Dans notre cas, la fixation du ventirad est assurée par une plaque située à l’arrière de la carte mère. Il nous faut donc retourner cette dernière afin de fixer la plaque :

Plaque de fixation du ventirad à l’arrière de la carte mère
Plaque de fixation du ventirad à l’arrière de la carte mère

Cette plaque est recouverte d’un isolant, afin d’empêcher le courant de passer de la carte mère au boîtier. Il est très important que la carte mère soit bien isolée électriquement du boîtier, en cas de court-circuit notamment. Nous reviendrons sur ce point tout à l’heure, lorsqu’il sera question de fixer la carte mère au boîtier.

On positionne ensuite le ventirad sur le CPU…

Positionnement du ventirad sur le CPU
Positionnement du ventirad sur le CPU

… puis on le fixe à l’aide de la croix réglable fournie, qui vient se positionner entre les caloducs :

Fixation du ventirad sur le CPU grâce à la plaque située à l’arrière de la carte mère
Fixation du ventirad sur le CPU grâce à la plaque située à l’arrière de la carte mère

Les vis de la croix peuvent ainsi être fixées à la plaque installées derrière la carte mère. Le ventirad est alors solidement harnaché au plus près du CPU ! :)

Nous nous occuperons du branchement de l'alimentation dans un chapitre à venir. Pour le moment, passons à la RAM.


Carte mère, processeur et mémoire vive Branchement de la RAM

Branchement de la RAM

Installation du CPU et de son ventirad Fixation de la carte mère dans le boîtier

Passons à l’installation des barrettes de mémoire vive. Cela peut très bien être fait avant l’installation du CPU et du ventirad, ça ne pose aucun soucis. D’ailleurs, si vous êtes attentifs vous aurez peut-être remarqué que les barrettes sont déjà présentes sur les photos ci-dessus. :-° Mais peu importe.

Pour savoir où les brancher, le mieux est de se référer au manuel de la carte mère afin d'être sûr de choisir les bon slots. Bien souvent, il faut choisir les slots qui sont de couleurs identiques, mais ce n'est pas une règle absolue.

Pour notre exemple, nous disposons de deux barrettes comme celle-ci :

Une de nos deux barrettes de RAM
Une de nos deux barrettes de RAM

On commence par ouvrir les ports des barrettes de RAM, à l’aide des loquets situés à leurs extrémités. Il peut y en avoir de part et d'autres ou d'un côté seulement, comme dans notre cas.

Ouverture des loquets des ports des barrettes de RAM
Ouverture des loquets des ports des barrettes de RAM

Il ne reste plus qu’à glisser les barrettes dans les ports. Les loquets se referment tout seul, comme des grands, ce qui signifie que les barrettes sont bien en place.

Les barrettes sont en place
Les barrettes sont en place

Comme vous pouvez le voir, ce n’est pas la partie la plus compliquée du montage. :p


Installation du CPU et de son ventirad Fixation de la carte mère dans le boîtier

Fixation de la carte mère dans le boîtier

Branchement de la RAM Installation dans le boîtier

Pour finir ce premier chapitre, nous allons à présent fixer la carte mère dans le boîtier. Avant toute chose, déballons donc le plus gros de tous nos cartons : celui dudit boîtier.

Notre boîtier, vide pour le moment
Notre boîtier, vide pour le moment

Préparation du boîtier

Pour commencer, nous couchons le boîtier sur le côté et enlevons le panneau latéral permettant d’accéder à l’intérieur de la bête. La majeure partie des éléments fournis avec le boîtier sont stockés à l’intérieur de celui-ci, pour des raisons évidentes de commodité de transport. Il faut donc bien veiller à tout retirer avant de commencer le montage.

Avec la carte mère est fournie une petite plaque métallique pour le BackPanel. Ne l'oubliez pas car nous allons en avoir besoin lors de la fixation de la carte mère.

Plaque du BackPanel
Plaque du BackPanel

Cette plaque vient se positionner sur les connecteurs externes de la carte mère :

Mise en place de la plaque du BackPanel
Mise en place de la plaque du BackPanel

N'oubliez donc pas de la placer sur la carte mère avant de continuer. Vous ne pourrez en effet plus l'insérer une fois la carte mère en place.

Installation de la carte mère

La carte mère doit être fixée au boîtier par l’intermédiaire d’entretoises (que nous avons également appelés « bitonios », mais ce terme n’est pas tout à fait officiel…).

Les entretoises, servant à fixer la carte mère sur le boîtier
Les entretoises, servant à fixer la carte mère sur le boîtier

Tout d’abord, nous vissons les entretoises dans le fond du boîtier :

Mise en place des entretoises au fond du boîtier
Mise en place des entretoises au fond du boîtier

Repérez leur emplacement en vous fiant aux trous sur la carte mère. Il n’y a en général pas de problème, les pas de vis présents sur le boîtier étant adaptés.

Une fois l’ensemble des entretoises vissées, nous déposons sur eux la carte mère. Les trous de la carte mère viennent se placer en face tout naturellement. Nous fixons alors la carte mère en la vissant aux entretoises :

Vissage de la carte mère aux entretoises afin de la fixer au boîtier
Vissage de la carte mère aux entretoises afin de la fixer au boîtier

Plus haut, je vous parlais de l’importance de l’isolation entre le boîtier et la carte mère. Eh bien c’est grâce aux entretoises que cela est assuré ! Dans notre cas, l’isolant de la plaque du ventirad est finalement inutile, car l’armature du boîtier présente un trou à cet emplacement, ce qui préserve de tout contact :

Un trou dans le boîtier permet d’accéder facilement à la fixation du ventirad
Un trou dans le boîtier permet d’accéder facilement à la fixation du ventirad

L'intérêt principal de ce trou est de pouvoir accéder facilement à la fixation du ventirad, que vous pourrez alors facilement détacher sans avoir à démonter la carte mère.

Toujours là ? Vous vous en êtes sorti ? Ce n’était pas si compliqué n’est-ce pas ? Notre carte mère, équipée du CPU, du ventirad et de la RAM est fixée au boîtier, voilà une bonne chose de faite ! Nous avons fait un petit bout de chemin, mais il est encore long avant de pouvoir démarrer la bête.

Dans le prochain chapitre, nous allons installer le reste des composants dans le boîtier.


Branchement de la RAM Installation dans le boîtier

Installation dans le boîtier

Fixation de la carte mère dans le boîtier Mise en place de la carte graphique

Dans ce chapitre, nous allons installer les composants restants dans le boîtier : carte graphique (une très belle SAPPHIRE Radeon HD 6950 dans notre cas ;) ), bloc d'alimentation, lecteur/graveur, disque dur et SSD. Ça fait du monde, mais vous verrez que leur installation est assez rapide. D'autant que nous ne nous occuperons pas des branchements pour l'instant.

Mise en place de la carte graphique

Installation dans le boîtier Mise en place du bloc d'alimentation

Dans le chapitre précédent, nous avons fixé la carte mère au boîtier. C’est maintenant le moment de brancher les différentes cartes filles que nous avons choisies pour notre configuration. Dans notre cas, pas de carte réseau ou autre carte son, tout cela étant déjà présent (et amplement suffisant) sur la carte mère. Nous nous concentrerons donc ici sur la reine des cartes filles, le composant le plus important d’une configuration de joueur : la carte graphique.

Notre carte graphique
Notre carte graphique

Pour commencer, il nous faut libérer les emplacements à l’arrière du boîtier, qui serviront à laisser paraître les connectiques offertes par notre carte fille. Pour savoir quel(s) cache(s) retirer, il n’y a pas trente-six solutions : il faut essayer ! :p Positionnez donc votre carte graphique en place sur son port PCI x16, sans la brancher, et observez simplement les emplacements dont vous avez besoin.

Quels caches allons-nous devoir retirer ?
Quels caches allons-nous devoir retirer ?

Il suffit alors de détacher les caches métalliques ainsi repérés. S’il le faut, faites levier avec un tournevis pour les faire sauter. Attention, ils sont parfois tranchants !

On retire les caches pour la connectique de la carte graphique
On retire les caches pour la connectique de la carte graphique

Il ne reste plus qu’à brancher notre carte graphique !

Carte graphique en place
Carte graphique en place