Identifiants personnels


Moi ... Moi ... et re Moi
  Maitrise C.M.O.P.C (Mémoire) 

I. Historique

vendredi 2 décembre 2005, modifié le 4 décembre 2005, par Quentin Drouet

Depuis l’apparition de l’appareil photographique, les artistes ont constamment entretenu des relations à la fois enthousiastes et méfiantes à l’égard de la mécanique, de la machine et des développements technologiques. La méfiance devenant indifférence ou idéologie réfractaire, tandis que les partisans de la technologie se sont, pour leur part, épisodiquement rebellés contre les règles convenues de l’art. Une des révolutions technologiques de ces cinquante dernières années les plus marquantes, a été l’invention de la numérisation qui a remplacé petit à petit dans bon nombre de secteurs techniques les procédés analogiques et manuels. Les technologies permettent à leur utilisateur et notamment à l’artiste, de gérer un nombre beaucoup plus important de règles par rapport aux outils préexistants grâce à l’automatisation des calculs et la possibilité de donner à la machine utilisée plusieurs tâches simultanées à pourvoir.

La codification des systèmes techniques numériques permet de traduire différents types de données iconiques (images fixes, images animées) textelles, et sonores, en une matrice de chiffres ( 0 et 1) et interprétables de manière à gérer ces médias de façon optimale. Elle modifie ainsi profondément le statut de ces différents médias puisqu’elle les « délivre » de leur support, distinct pour chacun1. Il est également envisageable de reproduire artificiellement des processus de direction, de commande et d’information qui les représente. Elle change ainsi fondamentalement les relations de l’homme au monde puisqu’elle se substitue à lui pour la réalisation de tâches fastidieuses.

Ainsi, bon nombre de grandes industries, initiées par les fonderies du groupe japonais Mitsubishi, précurseur dans le domaine au début des années 70, ont remplacé les processus de fabrication basés sur les ouvriers vers les machines dirigées par des commandes numériques. Il en va de même dans bon nombre d’utilisations. Cette innovation est alors centrale dans le développement des sociétés actuelles puisqu’elle influe non seulement sur le domaine de la communication, de l’économie mais aussi de l’artistique.

Ainsi, la technologie numérique a accouché d’outils utilisés par chacun et d’un médium prenant de jours en jours de plus en plus de poids par rapport aux autres qui, parallèlement deviennent peu à peu obsolètes. Il est nécessaire de comprendre ces évolutions au fil du temps, car ces bases matérielles nouvelles rendent alors réalisables les utopies d’autrefois. #TABLEMATIERES

#RETOUR

*Le numérique : de la naissance d’un outil à la genèse d’un médium.

#RETOUR

**L’ordinateur, moteur de l’aventure numérique.

Pour cette partie , nous nous baserons principalement sur les cours de Gérard Verroust, de l’Université de Paris VIII [1]. La mécanographie consiste à employer des machines ou des dispositifs mécaniques pour les opérations arithmétiques et logiques (calculs, tris, classements) effectuées sur des documents (administratifs, comptables, commerciaux, techniques, scientifiques). Les informations sont enregistrées sur des cartes perforées qui sont des supports facilement manipulables. Elles peuvent être lues automatiquement et ordonnées en « fichiers ». La mécanographie permet donc de traiter plus ou moins rapidement de gros volumes de données et d’informations. Elle trouve son origine au début du XVIIIe siècle avec l’utilisation de cartes perforées par Joseph Marie Jacquard dans son métier à tisser (mécanique Jacquard). Une série de cartes définit le motif à tisser. La série de cartes perforées peut se comparer aux instructions d’un programme informatique actuel. Dans le domaine artistique, l’orgue de Barbarie peut constituer un exemple de l’utilisation de ce type d’instrument.

Au XIXe siècle, Charles Babbage reprend l’idée d’une machine à cartes perforées pour la construction d’une « machine analytique ». Cette machine devait fonctionner au moyen d’un programme, suite d’instructions perforées sur des cartes. Les programmes étaient écrits grâce à un langage de programmation très simple. Le premier programme fut conçu et écrit par Lady Ada Lovelace. Elle observa poétiquement : « De même que le métier à tisser de Jacquard tisse des fleurs et des feuilles, la machine analytique tisse des motifs algébriques ». Hélas, la machine analytique ne vit jamais le jour, car le financement et la technologie mécanique de l’époque n’étaient pas suffisants pour en permettre la réalisation. Cinquante ans plus tard, Herman Hollerith crée le premier prototype d’une série de machines qu’on appellera “mécanographiques”.

En 1889, Herman Hollerith fait construire la première machine mécanographique, fonctionnant à l’aide de cartes perforées selon un code spécifique. À cette époque, toutes les questions sont posées de façon binaire (oui ou non). Il imagine donc de coder la réponse par la présence ou l’absence de trou dans une colonne de la carte. La présence d’une perforation dans une colonne établit un contact électrique qui permet d’aiguiller la carte concernée vers les boîtes de tri, où elle est comptée. Il utilise cette machine, appelée tabulateur, pour le traitement des données du recensement américain de 1890. Cette machine permit de dépouiller le recensement américain en 2,5 ans seulement, alors qu’il avait fallu 8 ans pour celui de 1880. La Tabulating Machine Company, qu’il fonda pour construire ses machines mécanographiques, devient en 1924 l’International Business Machines Corporation (IBM). À cette même époque, d’autres sociétés, comme la Compagnie des Machines BULL en France, se développent en utilisant une technologie identique. La carte perforée à 12 lignes et 80 colonnes, telle qu’on l’a connue jusqu’au début des années 1980, fut mise au point par Joseph T. Wilson (IBM).

Les 12 lignes correspondent aux chiffres de 0 à 9, complétées de 2 lignes 11 et 12 permettant de coder les caractères alphabétiques et spéciaux (point d’interrogation, point d’exclamation, etc.). Dans chaque colonne, on peut représenter un chiffre en perforant un trou dans la ligne, de 0 à 9, choisie. Pour la représentation des lettres de l’alphabet, il faut perforer une combinaison de deux trous pour obtenir une lettre. Par exemple : 12 et 1 pour obtenir un A ou encore 12 et 2 pour obtenir un B…. En utilisant ce codage, il suffit d’affecter un certain nombre des colonnes de la carte à une même catégorie de données, que l’on pourra ensuite trier, interclasser et à partir desquelles on effectuera des calculs. Les résultats seront de nouveau perforés sur d’autres cartes, que l’on pourra conserver (équivalent de nos mémoires actuelles) et réutiliser pour d’autres calculs ou d’autres traitements.

Les cartes étaient ainsi utilisées pour établir la paie des ouvriers, pour la facturation, le contrôle des stocks, mais aussi pour le calcul de la bombe atomique et pour l’élaboration des trajectoires d’une fusée ou d’un missile. La machine d’Hollerith donne très vite naissance à d’autres machines mécanographiques destinées à des applications statistiques, comptables et scientifiques. Le développement de ces machines a pour conséquence l’apparition d’une nouvelle manière de travailler avec la création des ateliers de perforation, des ateliers de tri, d’interclassement et d’impression. À leur apogée, dans les années 50, ces machines se composaient de différentes unités, qui demandaient une spécialisation de la part des employés. Les femmes travaillaient majoritairement à la perforation et à la vérification, tandis que les hommes étaient plutôt affectés au tri et à la manipulation des bacs de cartes. La « perfo » perforait les données sur les cartes, d’abord trou par trou, puis par la suite en utilisant un clavier alphanumérique.

Elles pouvaient traiter jusqu’à deux cents cartes par heure. La vérificatrice devait contrôler les fautes de frappe. À cet effet, elle reprenait les cartes perforées précédemment par la perforatrice et tapait de nouveau les mêmes données. S’il y avait une erreur, la machine se bloquait en signalant seulement la colonne erronée. La vérificatrice retirait la carte en y joignant le bordereau de saisie et le renvoyait à l’atelier de perforation (en aucun cas la même personne effectuait la perforation et la vérification d’un même lot de cartes). Après la vérification de la saisie des données, les opérateurs séparaient les cartes en treize piles différentes, colonne par colonne au moyen d’une trieuse ; une pile pour chacune des 12 perforations et une pour l’absence de perforations.

Ensuite, les opérateurs pouvaient en fonction des utilisations ultérieures soit comparer les informations contenues dans deux paquets de cartes, soit regrouper les paquets grâce à une interclasseuse.

Enfin, les opérateurs alimentaient la tabulatrice avec les cartes perforées précédemment traitées. La tabulatrice, après avoir été programmée grâce à un tableau de connexion, permettait de réaliser différents traitements de données, d’imprimer et de perforer les nouveaux résultats. Elle fonctionnait à une cadence de 150 cartes par minute. Elle était commandée par des caractères de contrôle dans les positions 11 et 12. Lorsque la tabulatrice rencontrait une carte de contrôle, elle commençait une nouvelle opération : par exemple, elle se mettait à compter dans une zone différente. Les cartes de contrôle étaient de couleur vive afin d’être facilement repérables dans une pile par l’opérateur.

Parallèlement, des machines seront conçues pour répondre à des besoins spécifiques d’utilisateurs et ainsi optimiser et diminuer les temps de traitement, comme la Reporteuse pour l’impression sur des cartes, l’Introducteur Positionneur de Compte pour l’impression sur des fiches comptables, etc. À l’origine, toutes ces machines étaient mécaniques. Par la suite, on chercha à augmenter la capacité et la rapidité des traitements, en leur insérant des fonctions réalisées par des circuits électroniques. Par exemple, à l’époque, l’unité de calcul de la tabulatrice était très lente. Le Gamma 3, calculateur électronique fut donc connecté au tableau de connexion de la tabulatrice. Cette connexion permettait à la tabulatrice, grâce au câblage des instructions en dérivation, d’améliorer sa puissance de calcul arithmétique et logique.

Le support des données évolua lui aussi. Les cartes perforées furent remplacées suivant les fonctions et pour des raisons de commodités et de performances par plusieurs supports : disque magnétique souple pour la saisie ; bandes, disques et tambours magnétiques pour le stockage ; lampes (tubes à vide), transistors, ferrites pour les mémoires.

Cette évolution marque l’ouverture aux fonctions intégrées dans une seule machine. L’ordinateur naît dès que toutes les fonctions nécessaires au traitement de l’information sont intégrées dans un seul appareil et contrôlées par des “programmes”. La mécanographie avec toutes ses machines spécialisées va progressivement disparaître. Actuellement, les cartes perforées restent encore utilisées, par exemple dans certains états des États-Unis pour les élections, ou dans certaines pharmacies pour l’approvisionnement des médicaments.

#RETOUR

**La naissance de l’informatique et de la numérisation.

Les premiers véritables ordinateurs apparaissent dans les années 1940. A cette époque, les applications son essentiellement militaires, industrielles ou télécommunicationnelles. Même si les premiers ordinateurs étaient analogiques, son évolution à fait de lui la première machine à être capable de traiter des données numériques, ce qui est un réelle révolution car les ingénieurs s’aperçoivent alors petit à petit qu’il est possible de transformer tous les types d’informations imaginables en séries de chiffres. Alors outil très peu performant dû à ses piètres qualités en matière de stockage en mémoire, son histoire correspond à une suite d’évolutions technologiques. Tout d’abord, la miniaturisation (les composants qui interviennent dans sa fabrication sont de plus en plus petits, encore à notre époque). Puis la vitesse de traitement de données et la capacité de mémoire. Enfin la précision des outils permettant de l’utiliser (écran, souris...)... Les machines deviennent ainsi au fil du temps de plus en plus complexe en ce qui concerne leur architecture mais atteignent également des performances et une maniabilité meilleures à chaque génération. Le cheminement de l’ordinateur à travers le siècle dernier est comparable avec celui de la télévision, qui a elle-même été à l’initiative d’un courant artistique, l’ « art vidéo ».

#RETOUR

***L’ordinateur, une suite d’avancée technologiques.

Depuis la fin de la seconde guerre mondiale, plusieurs générations d’ordinateurs se sont succédées apportant chacune des avancées technologiques.

La première correspond, jusqu’en 1958, aux machines à tubes électroniques et à relais électromécaniques. La mécanographie en fait partie, mais vu ses coûts élevés, l’informatique de l’époque restait réservée aux grands organismes publics et privés. Ils ne trouvent leurs utilité que dans les traitements de calculs importants des laboratoires militaires et de recherche.

La seconde génération est influencée par le transistor, invention du trio Bardeen, Brattain et Shockley, qui permit de rendre ces machines beaucoup plus fiables, moins encombrantes, plus simples d’emploi et surtout moins onéreuses dès les années 60. On distinguait alors deux champs d’utilisation majeurs, le domaine scientifique et la gestion.

En 1964, IBM mit sur le marché une machine qui va marquer le début de la troisième génération. Utilisant la microprogrammation inventée en 1951 par Wilkes, l’octet comme format unique de représentation de données et toute une série de logiciels conçus pour cette plate-forme, le nouvel outil annonce les prémices de l’informatique actuelle. L’importance de cette évolution technologique a conduit bon nombre de pays et d’entreprises à le copier, le Japon notamment. C’est également à cette époque qu’apparaissent les outils d’utilisations les plus notables : le modem, permettant la transmission à distance de données à travers les réseaux téléphoniques, les premiers systèmes de visualisation (écrans), les premières imprimantes à aiguilles et xérographiques ou machines à écrire électriques connectables.

Les années 70 furent l’époque charnière de l’informatique marquant le passage de l’ordinateur du domaine purement industriel et militaire vers le grand public. En effet, la généralisation du microprocesseur, ensemble de circuits regroupés sur un circuit intégré unique, en est le déclencheur dont la suite logique fut le micro-ordinateur, dont le premier a été réalisé par le français François Gernelle, le MICRAL. Cette réalisation initia la création de nombreuses sociétés aux Etats-Unis dont le représentant le plus connu est très certainement APPLE. Son modèle « APPLE 2 » [2] en est le plus représentatif. En réponse à cette invetion, IBM lança au début des années 80 un certain nombre d’évolutions qui ont apportées le Personal Computer (PC). S’ensuivirent ensuite dans la continuité, l’utilisation des interfaces de relation homme/machine actuelles telles que l’écran cathodique, la souris, le clavier.

Selon la loi de Moore [3] , les coûts de l’informatique sont divisés par deux tous les dix-huit mois, ce qui permit aux fabricants de mettre en oeuvre des techniques nouvelles élaborées dans les universités importantes telles que le Massachusets Institute of Technology (MIT). Les recherches les plus importantes portent sur la rapidité de réalisation des tâches demandées par l’utilisateur à la machine, des interfaces de plus en plus évoluées pour permettre le dialogue entre l’homme et la machine, une progression des espaces de stockages d’informations. La baisse constante des coût induit une généralisation et une banalisation de l’instrument qui correspond à l’actuelle quatrième génération. De tels laboratoires pluridisciplinaires au sein d’Universités permettent également à des artistes et techniciens de travailler ensemble. C’est dans ces conditions qu’est né l’art par ordinateur dans les années 60. Les techniciens s’adonnant à des essais et découvrant petit à petit les possibilités graphiques de ces instruments.

[2’« C’est vers 1965, avec les oeuvres de quelques pionniers, Frieder Nake, Georg Nees et Michael Noll, que l’on peut véritablement commencer à parler de recherches esthétiques effectuées avec l’aide et le support de l’ordinateur. Tous insisteront à l’époque sur la dimension « expérimentale » de leurs travaux. »
De Mèredieu Florence, 2003 [4]’2]

Jusque dans les années 70, l’industrie informatique n’était basée que sur le hardware (les aspects matériels), les logiciels permettant d’utiliser ces machines étaient alors gratuits et servaient quelque peu de mode d’emploi, les différents utilisateurs se les échangeaient. Ce sont les Etats-Unis qui décidèrent de séparer la dimension Software (logicielle) du Hardware afin de créer une économie propre à la vente de logiciels et c’est à la suite de cette décision que sont nés les tenant du marché actuels comme Microsoft. Désormais, ce ne sont plus les fabricant des machines qui dominent l’industrie informatique mais l’éditeur des logiciels les plus vendus (c’est également lui qui en influence les utilisations).

#RETOUR

***La numérisation, un exemple concret, le son.

Prenons l’exemple concret du son, jusqu’à il y a très peu de temps enregistré sur un système de bandes magnétiques fragiles et susceptibles à toute variation de l’environnement extérieur (poussière, humidité...) ou sur des disques vinyls où les sinuosités de la piste reproduisent les variations du signal électrique des ondes captées par le microphone. Le son était alors enregistré uniquement de manière analogique c’est à dire se basant sur les variations électriques émises. Le procédé de numérisation se compose de deux étapes. En premier lieur, l’échantillonnage consiste en la mesure à des intervalles réguliers de temps de la valeur du signal électrique délivré par le microphone. On utilise différentes fréquences en fonctions du types de données souhaitées, la qualité pour un CD audio est de 44100kHz alors que pour une simple conversation téléphonique, comprenant simplement la parole humaine, une fréquence de 11025Khz suffit amplement.

En bref, on ne retient que certains points de la courbe de variations électriques amplitude/temps de façon périodique, plus il est fréquent, plus la qualité est importante, mais plus la nécessité d’espace de stockage l’est également.

Dans la seconde étape, l’échantillon ainsi obtenu est « quantifié », il est transformé en un nombre entier positif, pris dans une plage donnée, la plus proche possible de la valeur analogique mesurée. La largeur de cette plage est alors appelée « profondeur de codage » ou « résolution ». Ce qui détermine cette résolution est l’oreille humaine, qui est un système très complexe. Il faut que le son soit le plus net possible afin de ne pas déranger l’appareil auditif humain et plus la résolution est importante plus le son est clair pour lui. Par exemple, dans le cas d’un CD audio, on dispose de 65.536 valeurs distinctes afin de représenter ces variations, du plus faible au plus fort. Ainsi, l’erreur de quantification correspondante n’est pas perceptible, c’est ce que l’on appelle la qualité Hi-Fi. Dans le cadre de la réalisation d’autres supports tels que les CDROM qui ne nécessitent pas obligatoirement une telle restitution, on différencie les qualités d’émission en fonction de la spécificité du son à restituer : le son Hi-Fi, la musique courante et la parole, les bruitages élémentaire (tels que les jingles...). Dans le cas d’utilisation de voix multiples comme la stéréo (deux voix gauche et droite) ou les dispositifs récents des DVD comme le Dolby Surround 5.1 (une voix pour les basses et cinq autres disposées dans le système d’écoute), la numérisation s’effectue sur chaque canal. Plus les fréquences et les plages de résolutions sont élevées plus le son nécessite d’espace de mémoire pour être stocké.

Dans le cas d’un CD audio échantillonné à 44.100Khz sur 65.536 valeurs de profondeur de codage, il est produit 172Ko de données par seconde sans compression. Par la suite il est possible de compresser ce son de différentes méthodes (mp3, ogg, streaming audio, adpcm...) afin que l’occupation en mémoire soit moins volumineuse. Cependant la pratique de ces procédés engage une dégradation plus ou moins importante de la qualité sonore, elle est généralement utilisée dans le cas où l’intégrité complète des données n’a pas besoin d’être totalement conservée. Les autres méthodes de numérisation pour les médiums tels que l’image et le texte reposent quelque peu sur les mêmes principes.

Ce type de traitement des différents médias permet à l’utilisateur de tous les traiter sur une machine unique, son ordinateur personnel et ainsi d’éviter des coûts de productions excessifs dus à l’utilisation d’outils différents respectif à chacun. De plus, les outils récents permettent d’agir en « temps réel » c’est à dire modifier les données sans délai entre la sortie d’informations et l’entrée de données (l’output suit immédiatement l’input).

#RETOUR

*Internet / Nouveau média moteur de la diffusion numérique au niveau social.

#RETOUR

**Historique du médium.

La suite logique des innovations apportées par l’outil informatique est la naissance d’un médium propre à ses spécificités. Par le terme médium nous entendons la notion de support servant à recevoir, à conserver ou à transmettre un message ou une information. En bref, ce terme correspond à tous les moyens qui permettent de véhiculer des informations.

L’écriture a contribué à l’élaboration de la presse qui a inversement favorisé la diffusion de l’écriture qui, auparavant, restait très proche de la culture religieuse ou savante. L’imprimerie a ainsi favorisé sa divulgation ainsi que les diverses politiques d’éducation. Pour Internet, le phénomène est similaire.

C’est en 1962, alors que le communisme faisait force, que l’US Air Force a demandé à un petit groupe de chercheurs de créer un réseau de communication qui puisse résister à une attaque nucléaire. Le concept de ce réseau reposait sur un système décentralisé, ainsi si jamais une ou plusieurs machines avait été détruites, le réseau aurait continué à fonctionner. Il s’agissait donc d’un réseau purement militaire, et indestructible. Paul Baran, est l’acteur principal de la création d’Internet ; c’est lui qui a eu l’idée de créer un réseau sous forme de grande toile. Il avait réalisé qu’un système centralisé était vulnérable car la destruction du noyau provoquait l’anéantissement des communications. Il mit donc au point un réseau hybride d’architectures étoilées et maillées dans lequel les données se déplaceraient de façon dynamique, en « cherchant » le chemin le moins encombré, et en « patientant » si toutes les routes étaient encombrées. Ainsi, si l’un ou plusieurs des sites et lignes de connexion venait à être détruit, les messages parviendraient à leur destinataire par des itinéraires alternatifs. Le grand progrès de ce réseau était de répartir les ressources sur tout le territoire plutôt que de les concentrer en un seul lieu. Cependant, malgré ces concepts répertoriés sur onze volumes, le Pentagone refusa ...

Ce n’est que quelques années après que le projet fut repris (1969) pour relier quatre instituts universitaires et devenir ARPANET : il mettait alors en relation le Stanford Institute, l’université de Californie à Los Angeles, l’université de Californie à Santa Barbara et l’université d’Utah. Dès sa création, il sera un méta-réseau, un réseau de réseaux qui va peu à peu relier la communauté scientifique et universitaire mondiale. Un autre avantage d’Arpanet est qu’il permettait à des ordinateurs de toutes marques de communiquer ensemble. En effet, il suffit de respecter quelques règles pour configurer le paquet d’information à émettre (l’Internet protocol, IP) pour que celui-ci arrive à bonne destination, quelque soit le type de machine émettrice et réceptrice.

Découvrant ses capacité, alors qu’il était quasiment au point, le gouvernement américain décida de prendre le contrôle en 1975 de l’ARPANET en le confiant à une organisation : la United States Defense Communications Agency, renommée par la suite DISA (« Defense Information Systems Agency »).

Dans les années 80, de nombreux réseaux utilisant la norme IP ont commencé à prospérer. Le plus connu d’entre eux est certainement le NSFNET, crée par la National Science Fondation. Il était composé de plusieurs centres équipés de puissants ordinateurs et reliés aux universités par des lignes téléphonique ayant une bande passante de 56000 bits par seconde. Néanmoins, pour des raisons de coût, toutes les universités n’étaient pas directement reliées aux serveurs centraux mais seulement aux universités voisines. Pour atteindre les ordinateurs surpuissants de la NSF, il était alors nécessaire de faire passer le message à l’université voisine qui elle-même le transmettait à une autre université et ainsi de suite, avant d’arriver à l’ordinateur cible. Bien sûr, les lignes utilisées sont vite arrivées à saturation et il a fallu multiplier le débit par 20 en 1987. Aujourd’hui, Internet regroupe plus de 90 000 réseaux interconnectés dans plus de 100 pays.

Ainsi, Internet est composé d’une multitude de réseaux répartis dans le monde entier. Chaque réseau est rattaché à une entité propre (université, fournisseur d’accès à internet, armée) et se voit attribué un identifiant unique appelé Autonomous System (AS). Afin de pouvoir communiquer entre eux, les réseaux s’échangent du trafic, soit en établissant une liaison directe soit en se rattachant à un nœud d’échange (point de peering). Chaque réseau est donc connecté à plusieurs autres réseaux. Lorsqu’une communication doit s’établir entre deux ordinateurs appartenant à des AS différents, il faut alors déterminer le chemin à effectuer parmi les réseaux. Aucun élément d’Internet ne connaît le réseau dans son ensemble, les données sont simplement redirigées vers un autre nœud selon des règles de routage.

Ce qui fait la force, mais aussi la faiblesse d’Internet, c’est qu’il n’a pas de directeur ou de chefs qui contrôle les informations disponibles. En ce qui concerne l’attribution des adresses et la création de nouveaux standards, un groupe de volontaires appelés AIB (Architecture Internet Board) se réunit régulièrement et donne les indications nécessaires pour un fonctionnement correct du réseau.

Longtemps sujet à des limitations techniques comme le débit d’information pouvant émettre et recevoir les différents intervenants, l’utilisation de ce réseau n’était optimum seulement pour l’utilisation textuelle, les autres formes de données comme le son et les images devant être énormément compressées. Cependant, les technologies récentes que sont l’ADSL et sa future évolution ouvrent l’Internet à d’autres supports de communication dominants de notre époque comme la télévision et la radio. En effet, les fournisseurs d’accès ou FAI français actuels, proposent dorénavant des débits maximums de 5 Mb en réception ce qui correspond à dix fois ce qu’il était possible d’obtenir il y a quatre ans et 100 fois il y a huit ans. Si ces caractéristiques ne sont encore pas accessibles à l’ensemble de la population, elles devraient petit à petit gagner de plus en plus de foyers.

#RETOUR

**Internet : support de plusieurs services et outils.

Internet n’est pas utilisable directement par l’utilisateur, il sert en effet de support à de nombreux systèmes ou protocoles différents, il ne représente que le réseau de communication entre ordinateurs sur lesquels ces services se basent.

Le World Wide Web (ou le Web ou la Toile ou WWW ou W3), littéralement la « toile (d’araignée) mondiale », est un système hypertexte réparti sur le réseau informatique Internet en utilisant le protocole http. Il est principalement constitué de pages Web regroupées dans des sites Web. Les pages se référencent entre elles avec des hyperliens, donnant ainsi l’image d’une toile. Par extension, le terme Internet peut désigner, à tort, le World Wide Web alors que celui-ci n’en est qu’une des utilisations nombreuses. Développé au sein du CERN (Organisation européenne pour la recherche nucléaire), c’est sa création au début des années 90 qui a rendu les médias et le grand public attentifs à Internet. Conçu pour être accessible avec tous les types d’ordinateur : station de travail, terminal en mode texte, ordinateur personnel, PDA... et de n’importe où dans le monde, le Web constitue un formidable outil de communication. Le fait qu’il ne soit pas restreint à la postée d’emmetteurs le différencie des autres médias, telles la télévision et la radio. Il n’est également aucunement tributaire de l’espace temps, c’est à dire que lorsqu’un site est créé, il reste consultable sur le net indéfiniment et de n’importe quel endroit connecté au réseau sauf, bien entendu, en cas de suppression de la part de son propriétaire ou de fermeture de la machine qui l’héberge. La logique de « diffusion » des médias traditionnels est ainsi supplantée par celle de la « mise à disposition ». Ainsi, la notion de liberté d’expression prend tout son sens même si ces derniers temps les différents gouvernements tentent peu à peu de le maîtriser suite aux menaces terroristes qui l’utilisent pour communiquer entre leur différentes factions. La taille du web est exponentielle avec le nombre d’utilisateurs, en avril 2004 la société Netcraft a en effet « compté » plus de vingt et un millions de sites.

Il existe différents types de communication sur l’internet. Les moyens synchrones (Chat , visioconférence) qui permettent une relation en temps réels entre différents utilisateurs, s’opposent aux relations asynchrones (mails, forums)qui eux, induisent un temps de latence dans la réponse.

Ces deux utilisations du réseau sont les plus fréquemment sollicitées mais il en existe d’autres telles que le partage de fichiers utilisant les protocoles FTP ou Peer-to-peer, les connexions sécurisées entre deux machines en SSL...

#RETOUR

**La cyberculture, nouvelle forme de culture.

La cyberculture correspond au rapport qu’entretient la culture avec la robotique, la micro-informatique, les réseaux ou l’automatisme. Elle concerne des aspects culturels variés (musique, sexe, théâtre, mysticisme, rapport au corps...), et est souvent associée à divers mouvements politiques et courants artistiques.

Pour Pierre Lévy elle est une « transformation profonde de la notion même de culture » [5] et est difficilement séparable des transformations sociales du dernier quart de siècle : urbanisation galopante, mondialisation économique, augmentation du niveau éducatif, contact entre cultures... Il rappelle que le réseau internet n’a pas de centre, que tout nouveau site, toute nouvelle liste de discussion, est à l’origine de diversité.

Pour lui, la cyberculture est déterminée par deux notions que sont « l’universalité sans totalité » et le « Cyberespace ». La première notion s’entend aisément sur le plan technique, il s’agit d’un réseau dépourvu de centre dont les usagers utilisent le même protocole de communication le TCP/IP qui leurs permet de mettre en relation leurs machines les unes avec les autres et donc dans la continuité leurs personnes.

Sur le plan idéologique, cet universel sans totalité illustre la vocation première du cyberspace qui est d’exprimer la diversité de l’humain, de permettre que « chaque noeud du réseau peut devenir producteur ou emmetteur d’informations nouvelles » . Ainsi, les frontières de la cyberculture, sont indéfinies, intotalisables, constamment élargies par de nouveaux liens, « chaque fois que vous avez un nouveau noeud dans le réseau, un nouveau site, (...), vous avez une nouvelle source d’hétérogénéité et de diversité ».

Le Cyberespace consiste, quant à lui, à l’ensemble formée par la circulation continue d’informations, depuis les circuits internes des processeurs d’ordinateurs jusqu’aux réseaux planétaires de télécommunications. L’expression est directement issu du livres de sciences fiction du canadien William Gibson « Neuromancien » telles que le mentionnent Kevin Pimentel et Ken Teixera :

[2’« Cyberespace (Cyberspace ou espace cybernétique) est le nom donné par Gibson à cet univers informatique alternatif dans lequel les données existent comme des villes de lumière. Les travailleurs de l’information (et des organisations criminelles de voleurs de données) utilisent un système particulier de Réalité Virtuelle, appelé un « deck » ou tremplin, pour sauter dans le Matrix et parcourir ses autoroutes de données. Le « deck » leur donne la possibilité de se rendre physiquement n’importe où dans le Cyberespace. »
Pimentel Ken et Teixeira Kevin, 1994 [6] ’2]

Le cyberespace est aujourd’hui l’environnement dans lequel la cyberculture se fonde. Pour Pierre Lévy, il « dissout la pragmatique de communication qui, depuis l’invention de l’écriture, avait conjoint l’universel et la totalité ». En effet, il n’y a pas d’universalité sans écriture, c’est elle-même qui a permis d’étendre l’espace de communication en donnant la possibilité aux messages écrits de subsister en dehors de leur contexte d’émission et de réception, or il remarque que cette prétention à l’universalité de l’écriture et aujourd’hui des nouveaux médias de masse s’accompagne d’une dangereuse tentation totalisante celle d’ « instaurer en chaque lieu le même sens ». Aujourd’hui, la croissance d’Internet, et de la culture numérisée réalise une forme d’universel qui ne totalise pas le sens. Ainsi, le cyberespace ...

[2’« ... ramène à une situation d’avant l’écriture du fait de la mise en réseau des intelligences, il n’y a plus d’émission d’un message hors contexte. » (...) « Quel que soit le message, il est connecté à d’autres messages à d’autres commentaires, à des gloses en évolution constante, aux personnes qui s’y intéressent, aux forums, ... »
Levy Pierre, 1998 [7] ’2]

Notes

[1] Verroust Gérard in Histoire, épistémologie de l’informatique et Révolution technologique, Cours à l’Université de Paris VIII, 1994.

Disponible à l’adresse : http://hypermedia.univ-paris8.fr/Ve...

[2] Article de Wikipedia.org - L’Encyclopédie libre et gratuite.

En ligne : http://fr.wikipedia.org/wiki/Apple_II

[3] PDG d’Intel, fabricant de microprocesseurs qui estimait que les ordinateurs multiplient leurs performances par deux tous les 18 mois.

[4] De Mèredieu Florence in Arts et Nouvelles Technologies, Art Vidéo, Art Numérique, Bologne (Italie), Larousse, 2003, p.19

[5] Benkirane Réda, in Comment l’intelligence collective peut surgir sur le Net (Entretien avec Pierre Levy), Le Temps, Genève, 22 février 2001.

Disponible à l’adresse : http://www.archipress.org/press/levy.htm

[6] Pimentel Ken et Teixeira Kevin in La réalité virtuelle... de l’autre côté du miroir, 1994, 338 pages.

[7] Levy Pierre in L’universel sans totalité, essence de la cyberculture, Sociétés N° 59, De Boeck éditeur, 1/1998.

Disponible à l’adresse : http://empresa.portoweb.com.br/pier...

Documents joints

  • Quentin Drouet - Mémoire (PDF – 1.4 Mo)

    Arts Multimédias / Numériques : Leurre ou réelle mutation des arts préexistants ?

Répondre à cet article


commentaires fermes
Propulsé par : SPIP 2.1.26 SVN [21335]