Vie chretienne Cosmos Arts Engin de recherches Plan du site

Samizdat

Les écrans et les ordinateurs.






Jean Mallet

L'écran cathodique tel que nous le connaissons aujourd'hui est le résultat de découvertes associées en réponse à une technologie exigeante et toujours plus complexe. Sa raison d'être dans le domaine informatique, par exemple, n'en est qu'une par rapport à l'homme. En effet, l'ordinateur n'en a pas besoin pour fonctionner, par contre l'homme pour interpréter et manipuler la machine ne peut s'en passer. Se priver de l'écran reviendrait à demander à un aveugle de conduire une voiture dans le trafic. L'écran constitue, par amplification, une interface entre la machine et l'homme. Ceci dit, son développement a connu plusieurs étapes.

Si nous examinons les écrans pour ordinateur compatible IBM/PC, on voit que les premiers écrans adaptés aux ordinateurs était empruntés, ni plus ni moins à la technologie existante, c'est-à-dire, à la télévision. L'adaptation consistait à ne prendre que les parties de circuits nécessaires au bon fonctionnement de l'écran de télévision et à réaliser une interface graphique entre l'ordinateur et l'écran. Au tout début, on a conçu des écrans monochromes à deux tons de brillance. La carte graphique était conçue pour diriger les données de l'ordinateur vers l'écran de "télévision" dans un langage compréhensible à l'humain.

Les premiers ordinateurs ne reproduisaient que du texte. Mais très vite on introduit la couleur pour répondre aux besoins des logiciels de jeux. Ces premiers moniteurs couleur étaient appelés (CGA, pour Color Graphic Adaptor), la carte ne fournissait alors que quatre couleurs, la mémoire sur ces cartes étant encore très limitée. La définition de l'image, bien que pauvre (640x200) était acceptable au niveau des images graphiques à cause de la couleur, mais s'avérait médiocre quant aux textes. Le système emprunté à la télévision (le signal vidéo-composite qui possédait une bande passante vidéo très restreinte) constituait le standard Nord-Américain (NTSC) en matière de diffusion des canaux de télévision. Ceci imposait une limite à la résolution de l'image. La force de ce système était que les signaux (analogiques) reproduisant l'image pouvaient potentiellement reproduire tous les fins détails de l'image si ce n'étaient que la limite (de la bande passante) imposée au tout début lorsque les normes de standardisation furent établies.

Les designers conçurent alors des moniteurs destinés aux textes, dont la résolution était augmentée (720x350) soit le Monochrome Display Adaptor et la carte Hercule, délaissant les codeurs et les décodeurs du premier système. On faisait appel à un nouveau "design" basé sur les signaux numériques provenant de l'ordinateur. Quant à l'écran lui-même, il s'avérait nécessaire, en regard de l'utilisateur, d'y apporter certains changements. En effet, lorsqu'on écoutait la télévision, cette dernière était placée assez loin des téléspectateurs. Maintenant, l'écran de l'ordinateur se trouvait à peine un demi mètre de l'utilisateur. Pour reposer les yeux de l'usager, ces écrans étaient fabriqués avec des luminophores verts ou ambres. Plus tard, sur les écrans couleurs, un interrupteur permettait à l'usager de basculer dans ces teintes en mode texte.

Ces deux types d'écrans présentaient chacun leurs avantages, c'est pourquoi on a conçu un troisième type d'écran pouvant les réunir, l'écran EGA, Enhanced Graphic Adaptor, avec évidemment une carte appropriée. Mais tous les problèmes n'étaient pas résolus pour autant. La fréquence image, déjà trop basse, demeurait la même et causait une fatigue et des maux de tête chez les utilisateurs. Parmi les autres inconvénients, il y avait la configuration hardware qui se faisait au moyen de mini interrupteur (dip-switch) sur la carte même. La couleur était encore limitée; seize couleurs seulement ainsi qu'une définition de 200 lignes par 350 lignes verticales visibles à l'écran.

De plus, ce type de moniteur travaillait avec les signaux numériques (TTL) de l'ordinateur, ce qui imposait des limites quant à la mémoire disponible sur la carte vidéo. La mémoire était utilisée en partage, soit pour évoluer vers de plus hautes résolutions de l'image, ou soit pour choisir une plus grande quantité de couleurs. Aussi, la fatigue imposée par l'entrelacement de l'image, la basse fréquence de rafraîchissement (30 images/seconde), ainsi que l'incompatibilité des fréquences de balayage à des résolutions différentes amenèrent les ingénieurs à développer un nouvel écran et un code de communication standard et software celui-ci (plus de dip-switch), entre l'ordinateur et le moniteur via la carte vidéo.

Le standard VGA (pour Vidéo Graphic Adaptor) intégrait automatiquement les modes CGA et MDA tout en offrant une résolution graphique supérieure 640 lignes horizontales par 480 lignes verticales. Elle reprenait le système analogique pour la reproduction de l'image en se gardant d'imiter les contraintes imposées par les autres systèmes. D'autres modifications non moins importantes, furent apportées à la fabrication des tubes images pour faire face à l'évolution croissante des nouvelles technologies et la finesse de reproduction des fins détails de l'image. Par exemple, le pixel, qui est la distance entre deux luminophores de même couleurs, est passé de 0.41mm au début à 0.25mm et même plus bas par la suite dans les derniers écrans de gamme supérieure. Aujourd'hui il existe des écrans pouvant offrir des résolutions avoisinant deux milles lignes horizontales par seize cent lignes verticales.

Bien entendu, on a tout refait de A à Z pour adapter les écrans au changement imposé par le développement de l'ordinateur. Des standards de base furent établis dans le codage des résolutions à partir de la polarité des signaux de synchronisation des circuits de balayage ainsi que des circuits s'accordant au changement de fréquence. Ces standards sont devenus le tremplin de l'évolution technique en ce domaine. Ces écrans adaptés aux compatibles IBM ne pouvaient fonctionner au début avec les autres environnements comme par exemple les MacIntosh. Mais aujourd'hui, on a redessiné des écrans qui en plus de fonctionner dans toutes les résolutions des PC sont capables de s'adapter à la plupart des environnements, on les appelle les écrans multisyncs ou multi-fréquence. Même là encore, il faut parfois s'assurer de la compatibilité entre les systèmes.