Vous êtes ici : Accueil > Théories du journalisme > Penser la société de l’écran
Publié : 6 janvier 2014

Penser la société de l’écran

Dispositifs et usages / Divina Frau-Meigs, Les fondamentaux de la Sorbonne nouvelle, Presse Sorbonne nouvelle, 2011

L’ouvrage rend compte des théories les plus abouties sur la société de l’information et de la communication, il réfléchit au média numérique jusqu’à en venir au "cyborg" positif, qui n’a rien à voir avec le zombie des mauvais romans de science-fiction. Le texte n’est pas aisé à lire mais il est un outil indispensable aux étudiants et aux enseignants.

En 2007, les ventes d’ « écrans plats à cristaux liquides 16/9 dépassent celles des écrans bombés 4/3. Divina Frau-Meigs propose à son lecteur de « faire un arrêt sur image » des types d’écrans.

Interface

L’écran est un objet banal et multiple de notre civilisation. Il permet l’accès à l’information : texte, audio, visuel fixe, audiovisuel mobile. On peut y lire le journal et y avoir une foule d’activités. L’écran est devenu « l’interface de nos activités de communication, d’information et de médiation ».

L’écran permet d’ « isoler un espace virtuel dans notre espace matériel afin de sélectionner des données idoines pour s’informer et se divertir ». Il est un « support-surface » à deux fonctions : filtrer et « fenêtrer ». L’image du cinéma est lointainement issue de la « camera oscura » renaissante, tandis que les écrans récents, télévision, ordinateur, sont issus d’une sorte de « camera lucida ».

La télé, depuis 1920

Ce que l’on ne sait pas, c’est que ce dernier type d’écrans relève des années 1920-1930 mais que son usage public commence après la Deuxième Guerre mondiale. Il passe du secret militaire à la « sphère civile », jusqu’à devenir ce que l’on connaît dans une « extension des interfaces homme-machine ». La multiplication des écrans dans les foyers a une influence anthropologique, elle affecte la pensée liée au visuel et la « perception de notre corps dans la culture matérielle ».

L’écran du cinéma et son film, la photographie sont statiques dans leur procédure de fabrication : un appareil saisit des images suivant « un temps d’exposition de prises individuelles ». Ce type d’écrans représentent des « états du passé », des « événements immuables qui correspondent à un seul référent ». Quoi ? Ce qui se trouve « devant l’objectif ». Pour que la machine saisisse du présent, des « états du présent en simultané » l’écran se doit de devenir « dynamique », comme pour l’enregistrement télévisuel, en direct. Et l’information récoltée en est remaniable, suivant un « calcul informatique ».

L’information, matière première

Nous avons connu une troisième révolution industrielle, celle fondée sur l’information en tant que « matière première », laquelle est traitée et exploitée par les écrans récents. On passe pour les écrans actuels d’une « convergence sur le tube cathodique » à une convergence sur les cristaux liquides. On se trouve avec l’écran dynamique devant une dissolution « des frontières et des modes d’échange », « des formes de mobilité ».

La question à laquelle l’ouvrage va répondre est la suivante : Pourquoi et comment l’écran dynamique est-il « hégémonique » à la fin du XXe siècle et va le rester au XXIe ?

Écrans immersifs

C’est que nous avons affaire à un « artefact cognitif » qui influe sur les « formes de la représentation », le « registre de l’image ». Cet artefact opère selon un mode « disruptif » c’est-à-dire qu’il amène à une rupture de nos pratiques et de notre pensée. Ce support-surface déplace la « culture alphabétique » vers une « culture visuelle », « non verbale » assistée d’une technique. Notre culture fondée sur des récits traditionnels est « recyclée ». C’est qu’on est invité « à dépasser constamment les ressources communicationnelles du cerveau humain par le biais de la technique ». Comment ? Par un « besoin de contrôle de la réalité » qui débouche sur de nouveaux liens sociaux, produisant ou consommant des spectacles et des services. Ce sont des phénomènes, des faits « socio-sémiotiques et cognitifs » qui aident à comprendre ce vers quoi l’on tend : l’ « écran immersif » de la réalité virtuelle.

L’artefact, objet social

Il convient de « regarder cet objet de regard » avec une certaine distance, en se rendant sa propre culture étrangère. Il faut jouer le Martien qui voit les choses depuis le ciel, il faut prendre la posture du chercheur qui sait « se distancer de la familiarité et adopter une démarche archéologique, généalogique […] pour mettre en perspective le passage à l’ère cybériste actuelle […] » Il faut écrire des « histoires parallèles » pour décrire cet écran, les « acteurs et les mondes sociaux dans lesquels [s]a technologie s’est inscrite ». Il faut décrire l’ « évolution des usages et des mentalités ». Le chercheur qui prend en charge cette évolution accepte l’idée qu’ « il n’y a pas de séparation radicale entre la construction technique de l’artefact et sa construction sociale ». Il faut s’intéresser au deux.

Le « petit écran dynamique » télévisuel, téléphonique, baladeur est un signe selon trois modes :

1/ C’est un objet que l’on peut désigner
2/ Il fonctionne comme un dispositif qui met l’utilisateur (ou « sujet ») en condition matérielle et psychologique de recevoir les contenus
3/ Il est une « interface » qui « inter-réagit » avec l’utilisateur.

La combinaison de ces trois modes encadre la culture occidentale de l’écran, où ce dernier est à la fois :

1/ Une technologie qui a un sens (objet qui permet de se représenter la réalité, la communication et assure une « médiation technique »)

2/ Une technologie qui produit du sens (manipulation de symboles, programmation télé ou informatique, médiatisation de récits

3/ Une technologie interface qui permet de comprendre les mécanismes de la pensée visuelle et humaine et facilite les échanges en réseaux

Du réseau d’acteurs à la naissance de l’artefact

L’écran, cela paraît simple comme objet et usage. Mais l’on a affaire à une association de l’œil et du cerveau. Cela motive l’optique, la physiologie, la neurologie, l’usage de l’énergie électrique.

Les ingénieurs commencent par inventer un « prototype » dont « l’assemblage tienne compte des propriétés de base de la reproduction de l’image sur un support […] de la coordination entre œil et cerveau dans la construction de la réalité et de sa représentation ». Les ingénieurs imitant l’œil doivent tabler sur « la résolution de l’image » associée à un codage / décodage, un rapport largeur / hauteur (proximité).

Il leur faut aussi simuler la « rétine » pour saisir l’information située dans le monde extérieur « sans jamais en toucher les objets ». Et pour ceux qui veulent imiter le cerveau, il leur faut tenir compte de la « transduction », c’est-à-dire la « transformation d’une grandeur physique en signal électrique ». Comment ? Par le tour de force que constitue le fait de « dématérialiser » certaines « impulsions » puis de « re-matérialis[er] » sous une autre forme ». Vient ensuite la nécessaire création d’une « mémoire programmable » qui se traduise en « système de visualisation ».

Évolution plus que déterminisme

Divina Frau-Meigs indique que Michel Callon reconstitue un « réseau d’acteurs » lors de la genèse de l’objet technique en s’intéressant « au rôle social joué par les ingénieurs dans les laboratoires. » L’étude des « discours » des chercheurs ou sur les chercheurs (témoignages, mémos techniques […] biographies, autobiographies) et des « prototypes produits » appréhende bien la construction « industrielle » et « au-delà ». Cela permet de dépasser les débats sur les « déterminismes » ou les « évolutionnismes » en montrant l’interaction du déterminisme technologique et l’évolution culturelle, la construction sociale d’une nouvelle technologie. On reconstitue le « rôle des instances de production » en tenant compte des « pratiques culturelles de la société occidentale », dans ses « projections imaginaires » et ses « projets avérés ».

Divina Frau-Meigs évoque ensuite l’implantation des organismes de recherche américains, sur la côte Est (Radio corporation of America pour la télévision, l’université de Pennsylvanie avec l’ENIAC, pour le premier ordinateur) puis sur la côte Ouest avec la Silicon Valley, Apple et le Palo Alto research center de Xerox) etc. A quelle fin ? Celle d’une « ethno-archéologie du petit écran ». Avec la géographie, l’histoire : 1923-1945 est la phase de l’écran analogique, ensuite 1945-1996 correspond à celle de l’écran numérique.

Les tâtonnements de la télévision

Aux origines de la technologie, plusieurs techniques de codage / décodage : les « systèmes à disques », les « systèmes équipés de roues à miroirs », les « systèmes de canons à électrons » ; Tout cela n’est pas d’une bonne qualité. On opte alors en faveur de l’électrique par rapport au mécanique. Le codage de l’image se fait « en trame quadrillée, le signal se déplaçant sur des lignes horizontales et verticales ». Ce type de modèle impose un quadrillage à angles droits « ce qui tend à favoriser une forme d’écran carrée ou rectangulaire plutôt que ronde ou ovale ».

Balayage visuel : texte et image

« Le modèle qui prévaut finalement » est un modèle qui s’inspire de « la mise en code des textes en langage naturel ». Il y a association d’un « balayage de l’image » et de la lecture des textes. Le « nouveau médium » fait en surface appel à l’image mais en profondeur au modèle proche de l’écrit, « en discontinu ». Mais cela contrarie l’ « expérience analogique, en continu, perçue par l’œil dans sa réception de l’image projetée sur l’écran. » La relation entre représentation visuelle et représentation textuelle « établit […] une synthèse des modes de communication humaine ». L’image, dans cette « perspective de transmission » inclut l’écrit mais le transcende.

’’Automatisation’’ : réduire la subjectivité

Le modèle de communication utilise « la présence-absence de signe comme source d’information. Le choix de la trame quadrillée comme support-surface de l’écran, qui s’inspire du treillis de la rétine au fond de l’œil [… matérialise ] le lien entre communication écrite et communication visuelle ». Il semble qu’il y ait « appropriation d’un modèle cognitif bien établi, plus fort que le déterminisme technologique. » A cela s’ajoute l’adoption d’un format de l’image qui repose sur des « perceptions collectives de vraisemblance de la représentation ». La télévision intervient au terme d’une « longue chaîne de technologisation de la réalité, qui tend à supprimer l’agent humain de l’acte de reproduction, l’automatisation étant supposée réduire les risques de la subjectivité ».

Le rectangle objectif

Paradoxalement, la volonté de réduire la subjectivité dans l’image représentée se double d’un souci de cacher, d’effacer la présence technologique pour créer un effet de réel. Comme le rectangle « constitue une caractéristique formelle récurrente en Occident » [selon Guy Gauthier et les historiens de l’art] l’écran de la télévision devient rectangulaire. Par contraste « l’ovale connote l’irréel ou la subjectivité ». Par ses « proportions 4/3, l’écran dynamique participe d’une organisation de la réalité socialement construite pour sa fidélité au champ de vision humaine ». Il n’empêche qu’il faut réussir à introduire le rectangle dans le cercle du tube cathodique. C’est pourquoi selon Divina Frau-Meigs (1994), les « praticiens de la caméra », pour régler une quadrature du cercle ou l’inverse, placeront « une sorte de cache, une trame quadrillée (raster) sur la caméra de prise de vues aux bords arrondis afin de reproduire la forme de l’écran de réception ».

Confort de vision

Parallèlement à la forme de l’objectif capteur et à celui de l’écran récepteur, des problèmes de balayage de l’écran de télévision se posent. Plusieurs systèmes sont mis au point puis abandonnés, du fait, toujours, d’une mauvaise résolution. « [L]’objectif de la recherche vise à faire pénétrer dans les foyers les films de cinéma ». Pour obtenir la résolution du 35mm, « il aurait fallu 1200 lignes sur [le] tube cathodique. En visant 500 lignes » on se réfère au 16mm du « film d’amateur », « le standard recherché par les ingénieurs car il correspond aux connaissances liées à la persistance de la vision en ce qui concerne le papillonnement , la vision périphérique et le pouvoir séparateur de l’œil ». On arrive à 600 lignes, « choix comportementaliste […] correspond[ant] à la zone de confort de vision du spectateur. »

C’est en 1990-2000 qu’on atteint les 1200 lignes, proches du film 35mm

Du récepteur de télévision au terminal d’ordinateur

C’est par la convergence entre récepteur de télévision et moniteur d’ordinateur, grâce aux travaux du chercheur Zworykin, que ces deux types d’écran vont tendre à n’en faire qu’un. Quand commence l’ordinateur ? : « La première architecture de l’ordinateur émerge à la Moore school of electrical engineering de l’université de Pennsylvanie ». Le but des ingénieurs est de transformer l’électricité en matière qui pense.

0/1... 0/1... 0/1...

Les tâtonnements sont nombreux et concurrents pour le « le codage du signal ». Le concept de « mémoire programmable » passe par la machine analytique de « cartes à trous », par l’ « analyseur différentiel ». On cherche après la Première Guerre mondiale la « machin[e] à calculer rapid[e] » C’est Georges Stibitz qui a « l’idée de se servir de la présence-absence de signal électrique […] à partir de circuits construits avec des tubes cathodiques » (laboratoires téléphoniques Bell). Il invente « le flip-flop ». C’est « un circuit de commutation en base 2, pour réduire la base 10 à une série de 0 ou de 1 ». Ce sont deux « états du flux électrique allumé / éteint (on / off) ». C’est le passage de l’analogique à ce qu’on appelle le « numérique » :

« La transmission du signal ne se fonde plus sur des lignes en continu mais sur des chiffres en discontinu (digit en anglais, du doigt de la main). Le signal analogique se déplace avec une certaine distance entre les données tandis que le signal numérique utilise les nombres comme unités discrètes. »

Choc de Pearl Harbour

Mais le fruit de cette découverte n’est pas programmable. Il faut, dès lors, que les chercheurs « conçoivent une machine qui compte à partir de pulsions électriques représentant des chiffres, qui peuvent être organisés de manières différentes selon les problèmes à résoudre, programmables ». Plus besoin de « parties mobiles » mais d’ « électrons se déplaçant dans la machine ». Le savant Mauchly propose à l’armée américaine l’usage de dispositifs cathodiques pour des calculs rapides, après le choc de Pearl Harbour. ENIAC est alors :

« le premier ordinateur électronique, avec 40 cabinets de presque 3 mètres de haut, remplis de 18 000 tubes cathodiques connectés par des kilomètres de fils électriques. »

Cette recherche se concentre sur la « reproduction de la mémoire par transduction du signal. La « machine » a pour la première fois la possibilité « d’être programmable et de réagir à des données ». Les informations sont traitées par le « biais de calculs rapides ». Une « lointaine analogie avec le cerveau » humain confère à la machine une « intelligence artificielle » à « potentiel disruptif », c’est-à-dire à choc évolutif dans la civilisation. Pour quoi s’en sert-on ? Météorologie, recensement, bourse, pour améliorer les « imprimantes », les machines à écrire.

Propriétés de l’écran, propriétés de l’image

Mais si l’ordinateur à CRT (Cathode ray tube) paraît « penser », « il ne ‘’voit’’ toujours pas ». La procédure de « visualisation des calculs sous forme de données » doit « muter » mais « en gardant sa correspondance visuelle avec le prototype de la télévision ». Le CRT ne doit pas être seulement un élément du dispositif calculateur mais aussi un récepteur des données : demandes de la marine, de l’armée de l’air (simulation de vol avec un cockpit d’entrainement doté du couplé radar-moniteur).

L’armée de l’air veut « se doter d’un œil » : visualiser pour coordonner les informations apportées par les radar et les « transformer en action ». Soit « repérer, suivre, détruire » toute cible intruse. L’écran n’offre pas seulement de l’information en temps réel mais il doit « donner des ordres à l’ordinateur ». Ne pas se contenter d’une image de la réalité, mais également d’agir sur ladite réalité et la transformer.

L’écran / Le terminal

En changeant un élément sur l’écran, l’opérateur modifie la mémoire de l’ordinateur créant « une interactivité en temps réel inédite jusqu’alors ». Ecran devenu un « terminal » (terme de télécommunications) « actant » et « activant »…

Les étapes suivantes, quelles sont-elles ? D’abord l’ « affichage point à point » et « l’interface utilisateur graphique ». Travail initié en grande partie par Steve Jobs pour Apple, en 1977. En période de Guerre froide, les USA craignant une destruction totale de leur système informatique le disséminent, tout autant que ses bases militaires, entre Côte Est et Côte Ouest, rapprochant la recherche informatique d’Hollywood, centre mythique de l’image. Le cinéma développe une recherche qui vient en appui aux structures organisationnelles des données imagées, composées de pixels.

Interface graphique

On observe une « grille rectangulaire […] déterminée par la largeur et la hauteur de l’image et le nombre de bits par pixel (pour la couleur et la profondeur ). Après « le processus d’affichage par pixellisation, la visualisation des données et des ordres est rendue encore plus rapide par le développement de l’interface graphique qui utilise une souris plutôt qu’un clavier. Au lieu de taper des instructions pour faire des opérations, un pointeur est utilisé pour déplacer des fichiers (files) sur un ‘’bureau’’ (deskop) et faire apparaître les données au niveau du plan de travail. »

Avec ce type d’ordinateur que nous connaissons l’on se trouve encore dans un choc disruptif : les « fonctions symboliques » [langagières, à partir des données] sont « reportées » sur l’écran lui-même. L’opérateur, ou le sujet devient très indépendant et ses manipulations de l’appareil transforment de l’électricité en éléments lumineux écran. L’ « utilisateur moyen » n’a pas à être « un programmateur »

L’interface graphique, le Mac…

Elle se « stabilise autour de quatre éléments principaux : la fenêtre, l’icône, le menu, le pointeur » qui sont définis comme WIMP (Window, Icon, Menu, Pointer). On passe rapidement à l’ « écran compact intégré », combinant « en son système un seul programme d’instructions pour gérer l’unité centrale, la mémoire et les périphériques » avec le Macintosh en 1984. L’artefact semble « abouti » et lorgne sur la « société du spectacle » et la « culture populaire hollywoodienne ». L’image du premier personnage créé en interface graphique n’est autre que l’ « oncle Picsou de Disney »… Puis on ajoute des logiciels de visualisation « sophistiqués », de trois types : les « formalismes grammaticaux », les « logiques mathématiques » et les « spécifications algébriques » qui travaillent à la création d’ « images complexes à partir d’éléments visuels plus simples ».

Lumière, énergie

C’est la « frontière cognitive la plus excitante pour l’électricité dans sa relation à l’œil et au cerveau, car ils « tendent à fonctionner en dehors des langages textuels ou propositionnels classiques ». Deux « principes fondamentaux » renforcent la relation à la réalité : la « fragmentation » et la « simplification ». La fragmentation de la lumière électrique permet de tirer des informations » sous forme de « longueur d’onde » conduisant à une pixellisation (constituants de base). La simplification : la relation œil / cerveau « ne nécessite pas une extrême fidélité au spectre lumineux », c’est-à-dire que pour « reproduire trois dimensions sur des surfaces plates qui n’en rendent que deux, la physiologie de la vision binoculaire suffit ».Le langage et l’image sont « lumière et énergie » : tel est « le potentiel disruptif de l’écran dynamique ».

0/1 Vs 26

La grande force de l’écran dynamique : avoir réduit le code à des « éteint / allumé » ou « 0 / 1 », à savoir le « plus petit commun dénominateur de la génération syntaxique », en battant l’alphabet à 26 lettres. Cette numérisation basique sert un « dispositif visuel qui en surface est analogique et en profondeur numérique ».

Carrefour de la consommation et domestication de l’écran

Après l’étape de l’innovation, il s’agit d’examiner le « carrefour de consommation » : Il met en contact les ingénieurs avec d’autres « réseaux d’acteurs », hétérogènes : les régulateurs et spécialistes du design et du marketing. Ce sont des acteurs « exogènes ». Que font-ils ? Ils développent « la relation de l’écran au sujet ». L’artefact affecte structures et institutions sans séparation entre l’écran et sa construction sociale. C’est une « invention seconde » associée à l’information et à la communication qui « donne naissance à deux nouveaux médias, la télévision et l’internet. » Ils servent de « centres de spectacle et de service au sein du foyer ».

Alors que les divertissements antérieurs requéraient le déplacement dans des salles de cinéma, de cirque… « l’écran met le spectacle très proche du spectateur (2 à 3 mètres). » De même pour ce qui est « à portée de clic » qui ne nécessite plus de sortir dans les rues, les banques, les marchés… Michel Foucault « insiste sur le pouvoir des réseaux hétérogènes dans la production de représentations et sur la centralité sociale du fait de regarder et d’être regardé ».

Naturaliser

La FCC (Federal communication commission) entre dans le jeu en n’étant pas « neutre » dans ses « exigences » pour réguler les écrans. La FCC tient à défendre le « réalisme qui domin[e] la représentation en Occident ». Elle « naturalise » l’écran support-surface comme un transmetteur de la réalité, de « l’expérience réelle ». La télévision se doit d’être un « espace de représentation qui relève de la mémoire collective » et doit faire office de « transmission sociale par sa fonction d’archive de la réalité ».

Mais il y a basculement géographique et fonctionnel : la fonction télévisuelle « se déplace de New York et de son ancrage dans la réalité et l’information en direct […] vers Hollywood et son ancrage dans la fiction et le divertissement ». Cela reproduit une « division encore valide et valable pour l’ordinateur ». Mais la consommation de masse demeure dans les foyers, dans et sur l’écran des télévisions, liée à « la famille nucléaire ».

Le designer, autre nom de l’ingénieur

Rôle du design ? Dans le champ de la télévision trois types d’ingénieurs produisent un travail : les « ingénieurs de la consommation » (dessinateurs industriels), les « ingénieurs de production » (qui développent les produits écrans), les « ingénieurs de la distribution » (du marketing). Les designers imposent le rond (ou l’ovale) de l’écran télévisuel dans le rectangle de la « coque », l’habillage bois puis plastique de l’appareil. Pourquoi ? Par besoin historique de « s’éloigner de l’angoisse technologique créée par la Première Guerre mondiale et le chaos social causé par la Dépression ». Ces formes doivent signifier que la machine n’évacue pas l’homme. La rondeur, la rotondité sont d’une ergonomie humanisante.

Les designers (Industrial Design) tiennent à la « métaphore séminale, celle de l’œuf, dont la forme en ellipse semble se répéter dans le bulbe de verre arrondi et étiré qu’est le tube cathodique ». Pour conjurer les souvenirs sociaux désagréables, la coque rectangulaire devient courbe dans les angles.

Intelligence artificielle

Le récepteur ou coque « joue un rôle pivot dans le développement de l’ordinateur ». C’est pour des raisons économiques que l’écran cathodique se transforme pour toucher le grand public et non plus les spécialistes usant de l’ordinateur en domaine professionnel. Pour que l’ordinateur soit jugé nécessaire par la famille basique, il faut qu’il se démarque de la réception télévisuelle du « spectacle ». Il doit servir à calculer, notamment à simplifier les calculs pour l’usager :

« D’où l’idée de l’associer [l’ordinateur] tout d’abord à l’éducation, comme à l’aide de l’apprentissage autonome, avec l’association de l’arbre de la connaissance et l’intelligence artificielle »

Steve Jobs, « co-fondateur d’Apple en 1976 » imagine des « interfaces abordables pour que la machine se rapproche de l’ordinateur, au lieu de rester au bureau. » L’ordinateur devient un « appareil ménager » pour des tâches certes plus nobles qu’un lave-linge. L’ordinateur doit être « relié à la société de services ».

La FCC (Federal communication commission), mène des enquêtes entre 1960 et 1990 et souligne la « convergence » et l’ « interdépendance » avec les Télécommunications. Les compagnies de la téléphonie et du câble se sentent menacées et essaient d’ « obtenir le contrôle de l’ordinateur », ralentissant ainsi son insertion commerciale et sociale.

Service "enrichi"

La FCC s’aperçoit que depuis 1976 l’ordinateur connaît une miniaturisation de ses composants et d’un « réseautage » sans cesse « accru ». Les ordinateurs deviennent de plus en plus « intelligents ». L’écran devient graphique et dynamique, d’où sa « migration vers les foyers. » Établir une distinction nette entre « traitement de données » et « transmissions » n’est pas possible, les systèmes et les applications sont trop « hybridés ». Les données brutes laissent la place à un « service », un « service enrichi » pour l’usager.

Convivialité

L’ écran d’ordinateur est un « terminal », constituant « un point d’entrée et de sortie de données personnelles » qui confèrent une « autonomie » au « consommateur ». Après le travail d’une commission créée à la demande de Bill Clinton, « le secteur industriel est donc autorisé à développer sa logique de services ». L’artefact cognitif devient « dispositif social » susceptible de se faire média, il « s’adapte à toutes les valeurs du marché occidental ». L’écran ouvre sur des « sites commerciaux, des banques de données encyclopédiques, pages jaunes, réseaux sociaux, clubs de rencontre… » L’usager devient une figure centrale qui ne se limite pas à celle de consommateur. Intervient le concept de « convivialité.

En 1984, Apple « commercialise le Macintosh, comme le premier ordinateur personnel tout-en-un, avec une interface graphique (dispositif de la machine qui explique les applications à l’internaute de manière imagée et en simulation) plutôt qu’une « interface de commande » (explications écrites). De là sans doute le succès commercial de l’appareil. Symboliquement, le logo, la pomme entamée, renvoie au fruit tiré de l’arbre de la connaissance. L’écran a « des formes légèrement arrondies aux angles, ce qui donne l’illusion qu’il est plus petit […] ce qui le rend moins agressif et plus aérodynamique ».

Publicité

« […] le 22 janvier 1984, un clip réalisé par Ridley Scott montre des individus en vêtements évocateurs des camps de concentration, sous la surveillance de gardes en uniforme. Ils sont assis dans un énorme auditorium et regardent un écran géant d’où ‘’Big Brother’’ les vitupère, comme on l’attend d’un monstre contrôlant toute information autoritaire. […] Une jeune femme arrive alors, en T-shirt et baskets, portant une massue. Elle la lance en plein dans l’écran, qui explose sous les regards ahuris de tous. Apparaissent alors les mots qui annoncent la libération démocratique des peuples […] Le message est clair : le Macintosh offre la liberté à ceux qui cassent l’écran-carcan des standards impersonnels […] et il peut donner du pouvoir à des usagers peu sollicités comme les femmes ou les jeunes. »

Les 5 domaines

L’ordinateur « est […] associé à 5 domaines […] : le corps, le cerveau, la nature, la relation à d’autres technologies et le lien social ». Le corps et le cerveau liés indiquent l’objet écran comme « prothèse extensive » des capacités physiques « de l’œil et de la main » ; les capacités intellectuelles sont sollicitées par l’usage de la « mémoire et de l’intelligence ». Le domaine de la nature est évoqué par la recherche de l’innocuité sur l’environnement ; la relation inter-technologie souligne l’ « interopérabilité » des écrans ; enfin le lien social se fonde sur l’interactivité des internautes, au plan professionnel et du loisir. Quel est le but de ces intrications ? Assurer un « contrôl[e] » en « douceur » du travail collectif et une « rédu[ction] des conflits sociaux ». L’écran d’ordinateur (la machine) est une « matrice […] conviviale, enveloppante ».

L’étude « généalogique » de l’écran et donc de l’image révèle-t-elle un danger ? Celui de « laisser la technologie façonner l’information » plutôt que l’inverse ? L’écran « détient un deuxième potentiel disruptif », celui de glisser de la « culture alphabétique au profit de la culture visuelle ». Ce pouvoir de nuisance se prolonge-t-il dans le « renversement des sphères privées et publiques » voire dans l’ « effacement de leurs limites » ?

La médiation socio-technique : « imachiner »

L’ « analyse de la technologie impliquée dans la fabrication de l’écran » révèle une « mise en code » jouant sur la « culture alphabétique (grille de lecture, blocks d’imprimerie) » et la « culture visuelle (affichage, rapport largeur / hauteur) ». L’innovation technique essaie de minimiser le risque commercial de ralentir son potentiel de rupture avec la culture.

Le processus de « reproduction mécanique et numérique de la vision » passe par un imaginaire de la machine : l’ « imachination (traduction de « imagineering ») » selon le néologisme créé chez Disney. Les hommes prêtent à la machine « certaines de leurs capacités mentales », la « capacité à la communication et au traitement de l’information ». A l’inverse, les machines procurent aux hommes beaucoup plus d’ « autonomie dans leurs interactions ». L’ « imachination » fait co-évoluer homme et machine en préservant la culture et en conservant une relation au réel.

Co-évolution homme-machine

L’homme reconnaît la présence de la machine comme relevant de la science et de la technologie car la « visualisation du signe » est informatisée. Il semble que la « collaboration » entre l’humain et l’objet efface la distinction classique « entre l’animé et l’inanimé ». On note deux traits importants : l’hyper-visualité (rapport fort entre image et objet) et la « bi-stabilité » (vision rétinienne analogique et vision numérique de synthèse) équilibrent la visualisation du lien avec la réalité.

Prêter des états mentaux et représentationnels à l’écran

Prêter des états mentaux aux machines n’est-ce pas dangereux ? Les penseurs occidentaux ont établi un principe de supériorité de l’homme sur l’animal et sur la matière. Oui, mais des scientifiques et philosophes (Blaise Pascal, Charles Babbage, Charles Sanders Pierce) ont essayé d’effacer la coupure esprit / corps. L’ « énergie » est conçue comme une « entité permettant l’innovation technique partagée entre l’homme et la machine ». On a développé un intérêt pour des « matières premières » aux propriétés de « conduction et transduction [transformation d’une donnée en signal électrique] ».

La matière minérale se trouve au cœur de la « production de la lumière artificielle ». Sélénium, phosphore produisent de l’électricité, « elle-même présente dans le cerveau ». L’idée se précise dans les années 1940-1950 avec Norbert Wiener qui, dans son évocation de la « cybernétique » [l’analyse et le contrôle des systèmes complexes par signaux information], postule que la réalité est un composite d’énergie, de matière et d’information. Il établit ainsi la « troisième révolution industrielle », celle de l’intelligence artificielle.

« S’éloigner du divin »

Selon lui, l’image ne relève pas de la raison car « trop proche de l’émotion et des phénomènes sensibles ». Une séparation entre l’image et l’écrit est soutenue par les grandes religions monothéistes. Mais l’écran émerge » par un « travail de laïcisation ». S’ « éloigner du divin » passe par une focalisation sur la matérialité et l’élimination de la « subjectivité ». L’ « écran bénéficie d’[…] une évolution des mentalités qui permet de traiter l’image et l’information en les dégageant de leur contenu sémantique ». L’écran les rend « sécables » et « transportables » par « un codage électronique » produisant des « messages […] malléables ». L’information se fait représentation (« reproduction d’un objet réel en l’absence de l’objet lui-même »).

Cacher le mécanisme

C’est pourquoi l’écran est un « lieu d’opérations et de contraintes » qui n’est plus « inerte ». Il n’est plus un « simple ustensile ». Il devient un « actant ». C’est-à-dire ? Un appareil capable d’action autonome par rapport à l’homme, un objet qui établit des « alliances entre instances humaines et non humaines ». L’écran devient cognitif, il « décharge celui qui s’en sert d’une partie de ses tâches mentales » : la mémorisation, la « computation », la représentation. Il matérialise des calculs très complexes qui amplifient l’intelligence de l’homme. Les ingénieurs cherchent à cacher les « astreintes électroniques et computationnelles de l’écran » pour le rendre quotidien. L’écran facilite la « pensée visuelle de l’homme sans limitations »

Le lien de l’écran à la représentation doit être « très construit ». Ce système représentationnel pour sortir des laboratoires de recherche et entrer dans le monde de l’usage présente trois caractéristiques : « ‘’mobilité’’, ‘’immutabilité’’, ‘’combinalité’’ ».

- La mobilité : les représentations peuvent être déplacées sans pour autant changer dans ce déplacement
- L’immutabilité « se manifeste dans la pérennisation de la proportion de l’image et du mode de balayage » de l’écran
- La combinabilité permet d’ « incorporer de nouveaux modes d’entrée et de sortie des données à l’écran (câble, satellite, fibre optique) »

Hypervisualité

La co-dépendance homme-machine, le « développement de la technoscience » promeuvent le regard comme central en Occident. L’idéologie qui en découle est le projet social reposant sur l’ « adéquation entre représentation, technologie et action » afin de renforcer la démocratisation. Dans ce type de société l’information est une ressource et la communication une « application et une action ». Ce qui fait que l’Occident se détache quelque peu de la culture dominante de l’écrit et du livre. Pour aller où ? Vers « une culture de l’image médiée par l’écran ». Que voit-on sur les écrans ? De l’écrit. Oui, mais de l’écrit comme « scriptularité seconde ». Dessous, derrière l’écrit, se cache l’alphabet non lettré mais numérique extrêmement simplifié : les 0 et les 1. Millefeuille alphanumérique dessus et dessous.

Les années 1990-2000 sont un moment pivot : durant le passage de l’analogique au numérique, de l’ère « cybérique », les productions hyper-réelles sont naturalisées, c’est-à-dire qu’on essaie de les rendre, des les faire croire naturelles. Le développement de l’image, la signification attribuée à l’image construisent la société occidentale marquée par l’individualisme, le marché et la liberté d’expression.

On assiste au remplacement de l’image en perspective de la Renaissance par la simulation du réel en image virtuelle :

« La simulation a vocation à remplacer la perspective. L’écran place le sujet […] dans un vortex de relations à l’information sans qu’il ait à en saisir les complexités d’architecture […] comme le sujet de la Renaissance se trouvait de plain-pied dans la perspective sans avoir à toujours la calculer. »

Cependant l’écran numérique confère des « mécanismes perceptifs », « enrichis ». L’image y est « saturée de couleurs et de nuances normalement invisibles à l’œil nu ». Cela contribue au sentiment d’irréalité de ce qui passe à l’écran. Le spectateur est alors invité à « un contrat tacite », celui de l’ « effet spécial […] effet de synthèse, qui joue sur la différence entre perception virtuelle et perception normale de l’objet dans la réalité ».

Œil-nature / Cerveau-Information

C’est une co-évolution de l’œil, du cerveau et de l’écran. Mélange de la technologie qui mime analogiquement la vision rétinienne (exigence de la représentation de la réalité) et de la technologie de la vision synthétique instaurant la construction hyper-réelle comme stimulus de substitution. Gilles Deleuze évoque le couple Œil-Nature et celui du Cerveau-Information, le premier le cédant au second.

Le premier couple saisit la « réalité », le second vise « la construction pure et simple d’une vision de l’esprit ». Dans un cas, la représentation permet d’agir sur le monde, dans le deuxième elle permet de réfléchir sur le monde. Quand il y a superposition, on se trouve en face d’une complexité multimédiatique qui rend le service de contrôler le réel avec plus d’efficacité car le réel y est fouillé plus intensément dans ses potentialités inaperçues par la vision analogique. On permet ainsi le « passage du signal au signe, du code au discours, du verbal au non verbal. »

L’écran numérique se superpose à l’écran télé

La technologie permet de « s’approprier de nouvelles définitions et de nouveaux protocoles d’action. Démontrer une forme de réalité, même virtuelle, est une façon de l’établir dans sa légitimité ». A quels types de réalité virtuelle enveloppante le spectateur peut-il être confronté ? Dès qu’il y a extension de l’écran du foyer par les « périphériques » tels « la stéréo hifi, le décodeur, la console de jeux vidéo, le clavier, la box ». Sans compter le mobilier urbain, les écrans dans les aéroports, les métros, les stades sportifs à écrans géants pour ne rien rater, les guichets automatiques, les téléphones mobiles, les écrans miniatures des montres. Le développement de l’écran à « haute définition » estompe la frontière analogique / numérique et la frontière écran de télévision / écran d’ordinateur, puisque les chaînes de télévision haute définition affichent des écrits surimprimés, notamment sur les chaînes d’information en continu.

Dématérialisation mais tactilité

On se demande si la télévision est dans l’ordinateur ou le contraire. D’autant que les écrans plats se rapprochent du format de l’image de cinéma. Pour remplir l’écran 16/9 avec un contenu 4/3, on a recours au zooming et au stretching « jouant sur les effets de bords pour compenser les distorsions telles que les grossissements et les allongements ». Cela entraîne de nouvelles « façon de voir, de produire, de créer et de traiter l’information plus proches de la relation Cerveau-Information que de la relation Œil-Nature. » L’autre transformation est « le LCD » développant la « tactilité » et le lien œil-main par rapport à l’écran. La tactilité augmente la dématérialisation car on n’a plus besoin d’une souris, de la télécommande, le rapport étant direct avec l’écran. Renfort de l’impression de fonctionnement intuitif.

La mise en réseaux

La mise en réseaux des ordinateurs entre eux « sur les autoroutes de l’information » accroît l’ « interactivité ». Le « réseau télévisuel » (« câble coaxial, satellite, fibre optique ») double le réseau numérique. L’ « Internet est au terminal d’ordinateur ce que la télévision est au récepteur » à savoir « un dispositif intégré reliant l’écran au monde extérieur ». L’internet est un « réseau de sites » alors que la télévision est un « réseau de chaînes ».

Le réseau ne mène pas forcément à la « communauté » parfaite (compréhension et partage), mais il favorise la « connectivité » qui peut évoluer en des « interactions ». On peut voir s’associer le « centre » et la « périphérie », l’ « identité locale et nationale », « le dedans et le dehors ». Le réseau est susceptible de créer « une communauté symbolique, aux rituels partagés ». Communication horizontale, peu hiérarchisée « avec des sujets aux compétences similaires ou équivalentes ».

Hollyweb

Mais on constate l’existence d’organismes énormes : Hollyweb par exemple. Une vaste entité comme Hollywood ne partage pas, elle constitue un « goulot d’étranglement par la qualité de ses productions et de ses spectacles cinématographiques tout comme audiovisuels ». Hollywood s’enrichit de ses chaînes et sites peu interactifs et mise sur « le temps de cerveau disponible des spectateurs ».

Le recyclage culturel

La mémoire culturelle vient freiner la « convergence sur un objet unique », elle évite de dépendre d’ « un seul système ». Le recyclage « contribue à une certaine pérennité de l’écran » en évitant qu’un écran chasse l’autre, mais en faisant qu’il l’ « enchâsse ». Même si le cinéma et la télévision ne sont plus « dominants », ils « se découvrent des niches » de « sous-cultures spécifiques ». L’écran de télévision reste associé à la « vision rétinienne » et à la diffusion de programmes et de spectacles de masse. L’ordinateur peut rester associé à la « vision synthétique » et à un « usage personnel ». Le numérique n’est pas sur le point d’avaler toutes les activités sur son seul écran. Preuve en est, la « longévité du support photographique », la persistance de la « télévision hertzienne », l’existence des cinémas multiplexes ou « la réinvention du livre sur le iPad » ou les liseuses. Internet ne supprimera pas tous les écrans.

La culture comme réseau cognitif

L’objet cognitif a une utilité sociale, il est conservé, recyclé. Et le recyclage « permet de reproduire la mémoire collective et ses récits nationaux voire universaux ». L’écran devient une « prothèse » pour la mémoire, « un capteur de récits », un agent de « capitalisation de contenus », d’ « images populaires », destinés à atteindre « toutes les générations de publics potentiels » :

« Les supports dérivés (VHS, DVD, CDROM) et les objets de marchandisage (vêtements, accessoires, gadgets…) participent de ce recyclage collectif et sont désormais plus fructueux que les marchés premiers, surtout lorsqu’ils se rabattent sur les centres de spectacles et services à domicile autour de l’écran. »

L’écran est donc un objet cognitif compatible avec le réseau cognitif qu’est la culture. Il assure la « transmission des comportements », les valeurs, les institutions. Associé aux médias l’écran assure une socialisation au même titre que la famille, l’Eglise, l’Ecole… L’écran est « une mémoire de supplément », il vient « soutenir la mémoire biologique dont le fonctionnement est limité en stockage ».

Médiatisation et pensée visuelle

L’ « imachination » [l’imagination invente les apports de l’homme à la machine et de celle-ci à son concepteur dans une avancée civilisationnelle] est une « des étapes essentielles pour l’insertion sociale de l’écran et sa mise en réseau ».

Au sein d’une culture visuelle, l’écran cognitif est un « dispositif de représentation » fabricant du contenu et pas seulement un simple « capteur » ou « amplificateur » de la perception. L’ « écran dynamique » de la télévision et de l’ordinateur assure la rencontre lumière / langage dans une « synergie » qui fédère : énergie, matière, information. Le « signal » lumineux devient « signe » en cela qu’il est « codé » au sens où il est reconnu par une collectivité culturelle.

La mise en image d’un récit à l’écran tient la réalité à distance, elle n’est pas son reflet brut. L’écran comme technique et culture est une machine à « traitement de signes », qui manipule des « symboles », génère des opérations « sémiotiques », à un point de contact entre la machine et son créateur. L’image dynamique de l’écran est « plus codée » que l’image statique (peinture, photographie), selon une « raison graphique » au-delà de la culture alphabétique. On accède à une « pensée visuelle augmentée de la vision computationnelle » de l’ordinateur.

Les registres de l’image à l’écran

L’écran est une façon d’organiser la vision et le regard. La création d’images à l’écran suppose une gestion de l’espace-temps qui rappelle le discours langagier. La représentation est un langage.

Image = représentation

L’absence de mots à l’écran ne signifie pas que l’image n’a pas de sens. L’image répond à « des règles culturellement partagées ». L’image a un aspect analogique, elle semble avoir une relation directe avec le réel du fait qu’elle offre une « représentation » du réel. Le langage visuel « partage avec le monde visible les éléments de la forme, de la couleur, de la texture, et de la profondeur ». C’est un mode représentationnel « fort », qui communique immédiatement un sens. L’image est de l’ordre de l’indicatif, elle se prête mal à la négation ou l’interrogation. L’image s’offre comme constatation.

L’image à l’écran ? Elle obéit à des règles (prise de vues, montage etc.) La notion d’ « imachination » montre que les ingénieurs, les designers [créateurs de logiciels] ont une culture visuelle, un savoir-faire, une expérience pratique et matérielle qui en découlent. L’image est leur outil de création. L’image médiatisée relève aussi de la culture des producteurs et des réalisateurs de récits à l’écran (« films, séries, vidéos »).

Icône, indice, symbole

Les « représentations » sont le fruit de « toutes sortes d’opérations de calcul mental », elles constituent « une base de données d’images mentales » de type « iconique (image renvoyant à une réalité), indiciel (signe qui évoque partiellement, indirectement une réalité), symbolique (signe arbitraire qui désigne une réalité) ».

La combinaison de ces « signes permet ensuite le montage de séquences mentales plus complexes, comme la description, la monstration, l’association, la comparaison, la catégorisation, la démonstration, voire l’abstraction ». Comme l’image, même séquencée et articulée logiquement ne dit pas tout, il faut que « co-existent » d’autres « formats de représentation ». Lesquels ? 1/ Le format sensori-moteur (réagir à la réalité par un programme d’actions et de comportements) 2/ Le format verbal (notre langage naturel) 3/ Le format propositionnel (« l’infrastructure au niveau de la mémoire permanente qui recombine image et mot »).

L’image pensante

Le cerveau face à l’image, aidé par ces trois « formats », élabore des scripts (unités de signification) et des schèmes (des unités de comportement et d’action). Les schèmes font le lien avec les expériences vécues, le passé des individus et permettent à ceux-ci de répondre à des « événements récurrents » du type « routine ». Des chercheurs en neuro-sciences établissent un « système neuronal miroir » en deçà du langage fonctionnant par « ondes cérébrales ». Ces données « bio-physiques » expliqueraient notre capacité à apprendre par « imitation » et « simulation » devant une réalité virtuelle de type technologique. On passe des éléments sensori-moteurs pré-langagiers à des « structures opératoires du cerveau » : capacité à recevoir des images virtuelles et à les penser.

Ainsi fonctionne la télévision : elle est un « miroir » du « réel » qu’elle prélève par des prises de vues, elle offre des documentaires, des « programmes d’actualité ». On en perçoit les images par « vision rétinienne », « spéculaire ». L’Internet et les médias « enrichis » (qui fournissent des données visuelles supérieures à la perception basique) favorisent la « vision synthétique ».

Cadrage médiatique

L’ingénieur, le réalisateur eux-mêmes ou le sujet sont confrontés, devant écran, à des « schèmes mentaux et cognitifs » qui mettent en « espace-temps » un discours sensé. On en distingue alors le cadre matériel (découpage rectangulaire de l’espace qui se trouve devant la caméra) et le cadre socio-psychologique. Le « foyer, la réalité et l’écran, l’œil de la caméra, celui du spectateur » créent un continuum à trois dimensions « vraisemblables ». Le dispositif suppose un émetteur et un récepteur, lequel par une mise en récit qui le fascine n’est pas toujours conscient du système de production organisé : sauf génériques de début/fin , « effets spéciaux », « placements de produits ».

L’ « espace charnière » est l’espace fictif qui disjoint ou conjoint le foyer avec sa télévision et l’espace de l’écran. Cette pensée visuelle en lien avec un espace audiovisuel est transposable à l’Internet. On distingue un « espace canal » (le site et sa page d’accueil derrière lesquels se cachent les producteurs de l’espace virtuel, contactables cependant) et celui de l’internaute. Ce dernier peut entrer dans l’espace-monde artificiel (« la météorologie, géo-localisation, réseau social »). Il y a cependant indexation sur la « réalité » quand on agit sur elle : achat à distance, e-réputation avec une mise en ligne de ses données imagées et écrites.

Foucault : contrôle social ?

Parmi les codes visuels, on note « ceux du ‘’cadre physique’’ (le matériel ou hardware) et de son corollaire, le ‘’cadrage’’ cognitif (le logiciel ou software) ». Oui, mais quels sont les types de « récits », de « spectacles », de « services » offerts ? Quelle est la place du cognitif socialisé ? L’écran établit en sus de notre espace traditionnel un espace tridimensionnel second. Cet espace relève d’une « fenêtre qui ne regarde pas nécessairement dehors ». Il relève d’un système « normé » qui selon M. Foucault est « à la fois objet et moyen de contrôle social »

Les fonctions de l’écran comme dispositif de cadrage

Beaux arts. En peinture, on distingue un « cadre-objet », un « cadre-limite », un « cadre-fenêtre ».

Le cadre-objet entoure l’œuvre, lui « fabrique un environnement ». C’est un « opérateur de réflexivité » qui amène le tableau à « s’énoncer lui-même » comme tableau et discours. L’écran, lui, entraîne une « certaine dévalorisation de l’image » qu’il contient, car la technique de reproduction télévisuelle ou numérique la banalise.

Le cadre-limite  : « Sous l’encadrement du tableau, se trouve le bord de la toile, c’est-à-dire la limite naturelle de l’image ». Là, la peinture présente son « centrement » par ligne de fuite, depuis la Renaissance, avec une construction hiérarchisant êtres ou idées représentés pour transformer la surface plane en spectacle d’illusion. A l’écran, en numérique « l’image peut garder cette tendance au centrement », mais elle peut être réduite, ici ou là, multiple. Cela « influe sur sa composition, son partage et sa hiérarchisation ». On est dans une optique de démocratie, laïcisée. Elle se substitue au « divin » [images qui viennent d’en haut] du fait de la multiplication des points de vue « pour le même utilisateur », un zappeur qui cherche des hyperliens.

Le cadre-fenêtre : il « opère l’union de l’image et de l’imaginaire […] de l’objectif au subjectif ». Champ « fantasmatique » et champ « visuel » sont « en #187;  ». Le éret le est complexe, non soumis à des cheminements hyperliés. Le spectateur a l’impression d’un « sentiment d’exploration personnalisée, sans clôture », notamment en effet 3D.

Le cadre-charnière. Quel est-il ? Il relie une image à une action qui peut être accomplie grâce à elle : photo d’objet achetable sur l’Internet (icône de l’objet achetable, icône de carte bancaire pour lancer l’achat). L’ « usage du cadre-charnière se prête à l’inventaire, la liste, la panoplie, le catalogue, le déroulement par le menu […] Il est littéralement le carrefour de consommation entre images et objets ».

Rhétoriques de l’image

Le « récit de la culture visuelle » n’obéit pas à la « culture alphabétique », éree qu’elle n’est pas « linéaire », ne relève pas de la « raison graphique ». Il s’agit d’un récit à la fois « programmable » et « déprogrammable ». A l’image sont adjointes des métadonnées destinées à « indexer », « réferencer », « multi-critériser », « stocker », éventuellement « recycler ». Pour le cinéma, par exemple, la reproduction en DVD segmente le récit en chapitres, rubriques, « bonus ».

Bi-stabilité : l’œil et la synthèse

Cela nécessite une relation œil-nature et cerveau-information, ce que D. Frau-Meigs nous a déjà désigné sous le terme de bi-stabilité (rétinienne / synthétique). Dès lors que l’on est sur Internet, la contrainte se délie, dans la mesure où le « spectacle » à visionner peut être synchrone comme asynchrone (libération de la temporalité linéaire). Le rapport à la réalité y est construit mais déconstructible au gré de l’internaute : cela « permet d’accepter l’idée de plusieurs réalités possibles à l’intérieur d’une réalité plus large ».

Fragmentation

Mais l’internaute qui fragmente à dessein se fragmente lui-même : « La vision synthétique, non linéaire, sans cohérence conceptualisée ni continuité narrative est propice à la fragmentation du sujet ». Cela s’éduque. Il faut apprendre que le « langage propre » ne s’identifie pas au « langage figuré ». L’un « tend au contrôle du réel et relève de la vision rétinienne, l’autre à sa transgression et s’associe à la vision synthétique ». C’est un « décentrement », un « renoncement à la symétrie », une transformation du réel revu et corrigé par les machines en quelque chose de « malléable ».

Mais cela ne doit pas être la guerre des hommes et des machines. La logique computationnelle défait la « mimesis » (réalité suivie et « assumée ») pour la faire accéder, de manière étonnante, à la « poiesis » (réalité imaginaire assumée également). Les machines sont-elles capables de poésie ou de créativité (même si elles sont programmées humainement) ? Oui, avec le millefeuille composé de la strate invisible (numérisation en 0/1, allumé-éteint) et de la strate de surface, alphabétique ou langagière.

Pensée programmée

La récit linéaire est puissant, au plan cognitif. Il engage la mémoire et permet de « recycler » des récits anciens. Le récit non linéaire, lui, « ouvre la voie à une notion moins évidente » : le programme. Ce sont des récits, à la télévision, où le spectateur est amené à combler des vides. La notion de programme en audiovisuel comme sur Internet ressemble « au câblage neuronal qui permet l’activation progressive des gènes selon la sollicitation de l’environnement ». Les programmes permettent de « se repérer dans une masse diversifiée de choix de scripts, mis en spectacles ou en services » et organisent leur « consommation » et leur « usage »

Question de mathématiques

L’association de la mémoire et de la pensée visuelle (ou représentation), à travers ces scripts, crée un pret le heuristique « rend[ant] le sujet plus puissant ». Son esprit « traite » l’information et prend des décisions. L’usage du numérique « modifie le statut de la représentation de la réalité » et amène vers « un régime de représentations comme autant de manipulations potentielles » par le numérique. L’image se construit « à partir d’une logique qui ne réfère pas à l’image physique, mais à des paramètres mathématiques programmés ».

Navigation et posture interactive

L’interactivité « croissante » amène à « l’immersion dans l’information et sa représentation ». L’internaute se trouve dans un monde « inter-subjectif » comprenant, souvent, une mise en récit de soi-même. Cela se constitue alors en un réseau social de « représentations partagées ». Des relations de confiance s’instaurent entre « sujets distants », avec expression d’une « sincérité de l’émotion partagée ».

Écran et psychanalyse, l’introjection

La « posture interactive » amène le sujet à accepter la réalité virtuelle. L’écran semble disparaître « éree qu’il occupe complètement le champ de vision ». L’écran n’est plus une fenêtre mais un « espace conjoint » entre espace physique du spectateur-internaute et l’espace virtuel. C’est l’ « introjection » du sujet dans la scène artificielle créée pour lui. Avec le dispositif de certains jeux où le spectateur effectue physiquement un geste qui se répercute à l’image, dans l’ espace virtuel, l’introjection fait jonction. Le corps reste encore immobile dans l’illusion de réalité tandis que l’usage du jeu virtuel permet :

« de déplacer cette immobilité, par un rapport différent entre l’image et le corps, car les deux sont en déplacement symétrique et synchronisé comme dans les consoles de jeux kinésiques comme la Wii. »

L’écran, dès lors, « oblige à repenser les liens à la réalité comme matière, énergie et information ». Une question se pose : quels modes de socialisation possibles de l’usager au bout du processus ?

Socialisation de l’écran par « l’usager »

L’écran de télévision et l’ écran de l’Internet forment un « continuum » et la démocratisation a inscrit la « participation », depuis chez soi, à des émissions interactives ou à des sites de collaboration ou de services. L’interface agit sur les contenus et induit comportements et actions chez l’internaute. Ce sont des relations en « états mentaux » modifiés.

Les ingénieurs ont eu à l’esprit « une certaine image de l’utilisateur qu’il s’agit de mettre en condition physique et psychologique de recourir à l’artefact ». L’utilisateur doit en venir à penser que sans l’écran, il n’aurait pas accès à un contenu riche ; que l’écran est « une source d’énergie », de « performance ». Il faut alors accepter que l’écran possède une forme d’ « autonomie », que la « machine » construise des « états représentationnels et émotionnels ».

L’écran : enseignant, camarade...

L’interface est un langage symbolique qui suit ses « règles de calcul » et sa « logique » mais laisse une liberté au sujet : ce dernier est libre de recourir ou non à l’écran, de lui « demander plus d’informations, plus de spectacles, ou plus de services ». Le sujet se trouve en état de « croyance » vis-à-vis de sa machine-écran et la croyance permet le processus d’interaction. Des recherches ont montré que la machine est perçue comme « enseignant, camarade, évaluateur ».

L’utilisateur sent qu’il est « guidé », qu’il est en présence d’une intentionnalité et d’une programmation, celles d’ingénieurs ou designers [toujours au sens de créateur de logiciels et pas d’esthétique]. La « présence désignée  » cherche à « remplacer le recours à la mémoire personnelle par celle de l’affichage de l’information visuelle « par le biais de menus, de listes », à solliciter la perception plus que « les ressources mentales ». A l’heure actuelle, « on encourag[e] essentiellement un processus de consommation » où la liberté de choix est assimilée au pouvoir d’achat.

Du citoyen au « netoyen »

La figure du citoyen « a légitimé les médias depuis l’origine, notamment la presse écrite ». L’information a été perçue comme « mode de connaissance et de communication », comme création d’un « débat public ». Cette « figure » a été modifiée. L’évolution parallèle de l’homme et de la machine numérique a amené l’idée que l’Internet est un vaste champ ouvert aux idées, à l’expression, dépassant les médias et les partis politiques prégnants. Aux USA, le magazine Wired, en mars 1996, a proposé aux internautes de devenir des citoyens de l’Internet, des « Netizen » (d’où « netoyen » en français).

Silicon Valley : le berceau du hacker

Cette citoyenneté « Peu[t] se suivre à travers deux lignes, celles des « hackers » et des « bloggers » de l’ère « cybériste ». Qu’est-ce que le hacking ? Le terme de « hacker » est originaire de la Silicon Valley. Il désigne un génie de la programmation, le verbe racine signifie « trouver un raccourci » dans un programme, donc il s’agit d’ entrer dans des labyrinthes programmatiques et y circuler comme dans sa poche. Le hacker est un « protestataire », un prtisan de l’information gratuite. Le travail du hacker peut avoir deux conséquences : la « production en code ouvert » ou la piraterie avec la création de « virus ». Les créateurs de virus peuvent vouloir souligner la faiblesse de certains systèmes de manière plus ou moins morale.

Le blogger

Les « bloggers », eux, s’en prennent « à l’information comme actualité » et veulent « pallier les insuffisances du journalisme ». La « tentation » est de se passer des journalistes pour minimiser la « médiation ». « Blog » ? Le « log » est un « journal de bord dans la marine anglo-américaine […] tenu par les pilotes ». Dans le cas de l’informatique, il s’agit d’ « un registre d’exploitation qui garde une trace du déroulement des programmes, à des fins d’amélioration de la performance ou de la sauvegarde ».

Le réseau, nouvelle opinion publique

Ce sont ensuite des sites de citoyenneté du Net tenus soit par un « individu » soit par « un collectif qui travaille […] à la surveillance de l’environnement, s’improvisant comme des observatoires médiatiques ». Ils tirent une « légitimité » en fonction de la « confiance » qu’ils suscitent chez l’internaute vigilant. C’est une « opinion publique » en réseau si les sites se réfèrent les uns aux autres dans une activité logique.

Les grands organes de presse « incorporent des appels à bloggers sur leurs sites », ce qui permet à des lecteurs d’apporter leur prt d’information fiable. Les journalistes s’appuient sur ces « forces nouvelles » et, souvent, ils créent eux-mêmes leur blog. L’ensemble des blogs, professionnels ou personnels forme la « blogosphère ». Les médias prégnants doivent composer avec.

Les consommateurs de médias d’information ne sont plus passifs et pénètrent dans la système selon trois types de production : sémiotique (expression identitaire et d’expériences personnelles) ; énonciative (avec la production de récits ou contre-récits) ; textuelle avec le caractère esthétique des productions énoncées. Par exemple les « fans » sont des :

« spectateurs engagés dans des activités qui ne sont pas toutes productives au sens commercial, mais très gratifiantes au sens relationnel. Elles sont à la base de tous les réseaux sociaux développés sur l’Internet, comme Facebook, Twitter, Flick’r etc. qui se mobilisent autour d’événements comme la mort de Mickaël Jackson au point de faire crasher le système […] »

Netayer ?

A l’ère « cybériste », après la « seconde révolution industrielle », l’ouvrier devient un travailleur de l’industrie de la connaissance, de la production des « industries créatives ». L’écran devient la « substance du marché ». Ce qui est vendu ne sont pas des contenus mais des outils pour mettre des contenus en forme, tels que Facebook, YouTube ou Second Life. Ce sont les « tuyaux » qui sont fournis. Le « processus de travail » est comparable à du métayage :

« C’est un type de fermage dans lequel le propriétaire (bailleur) donne la terre à un métayer en échange d’une partie de la récolte (souvent la moitié) […] Une situation similaire de netayage se produit sur l’Internet à l’ère cybériste. En effet, si les entreprises du Web 2.0 distribuent les moyens de production aux masses, elles gardent pour elles les bénéfices économiques […] »

Jouer avec le système

Il semble que le système profite de la passion de certains internautes qui ne se rendent pas compte que leurs contributions relèvent de la gestion ou de la production et ne sont pas payés ou très mal s’ils sont reconnus. Les « netayers » confondent leur temps de loisir et de travail, le loisir auquel ils s’adonnent relevant du travail. Mais certains chercheurs (McKercher et Mosco) pensent que l’ « accumulation de connaissances et d’information profiterait aux travailleurs plus encore qu’aux bailleurs car ils détiennent le savoir et le savoir-faire ». Même si l’exploitation existe, un recul réflexif existe aussi chez les internautes qui savent en général se saisir du système, de ses outils, dans une optique démocratique et de débat.

Le cyborg

Il s’agirait de la « dernière figure de l’usager […] encore en émergence. » L’internaute serait un être, un organisme techniquement modifié (OTM) ». Le « cyborg » est un terme qui associe « cybernétique » et « organisme », créé en 1960 par Manfred Clynes. La cybernétique, selon le dictionnaire, est l’analyse et le contrôle des systèmes complexes aussi bien en biologie, économie qu’informatique, à l’aide de la technique.

Clynes a créé le terme pour évoquer la vie de l’humain dans l’espace « sans combinaison spéciale, par le biais d’implants et de drogues ». C’était une projection alors, et c’est encore à l’état de science-fiction aujourd’hui dans les discours apocalyptiques. Mais Divina Frau-Meigs pense qu’on pourra implanter des puces et des systèmes techniques sur le corps humain pour l’enrichir, l’ « augmenter ». Le « bio-pouvoir » est encore du côté de l’humain.

Éduquer à l’écran

L’écran dynamique met en place « une pratique intégrée de l’image et du texte », une « présence cognitive » et une « présence sociale » en interaction. L’usager d’Internet peut placer et maintenir en ligne sa « participation », sa « réflexivité » en lien avec « une ou plusieurs communautés de pairs via l’écran ». L’internaute est en « performance et compétence » au moment où il le souhaite et où qu’il se trouve par le moyen d’avatars, dans un monde virtuel qui s’est inscrit dans la réalité sociale réelle. Cet état de fait nécessite une éducation à l’écran, une éducation aux médias en général et aux médias d’information en prticulier.