Rédigé à 10:55 dans Ethique | Lien permanent | Commentaires (0) | TrackBack (0)
Balises: contemporary arts
"S'orienter dans le virtuel" de Marcello Vitali Rosati, paru chez Hermann. Très bel ouvrage, sur lequel nous ferons une chronique dés que possible....En attendant, inteview de Marcello, collègue de Sens Public, sur la trés bonne (aussi !) émission de Xavier de La Porte " Place de la toile" : http://www.franceculture.fr/emission-place-de-la-toile-le-virtuel-existe-t-il-2012-05-19, en ligne sur France Culture.
Le virtuel, depuis l'Antiquité, entre potentiel (puissance) et possible (versions alternatives)...une des plus vieilles questions du monde. (à suivre).
Rédigé à 10:13 dans (h)Euristique, Bibliographie, Digital humanities, Esthétique | Lien permanent | Commentaires (0) | TrackBack (0)
« Dans les églises byzantines, le sanctuaire est clos par l’iconostase. Dans une société athée, par le secret d’Etat ». Régis Debray, Loués soient nos seigneurs. Une éducation politique. P. 585 Cité en exergue de « Secrets d’Etats » d’Olivier Forcade et Sébastien Laurent, Armand Colin, 2005
« Il n’y a pas de secret d’Etat, c’est pas possible. L’information est immédiatement disponible », Nicolas Sarkozy. Conférence Etalab E-G8 6 décembre 2011
Une des formes actuelles de la transparence numérique se développe à partir de l’Open data et des possibilités de traitements des données par le Web sémantique : faire produire du sens inédit à partir de des données décontextualisées. L’ouverture des données publiques est l’un des prolongements de l’Open data, et le débat sur la confidentialité, l’anonymisation ou la ré-utilisation des données administratives est des plus important.
[1] Dewerpe, Alain, Espion, une anthropologie historique du secret d’Etat contemporain, Gallimard NRF, p. 311
[2] Domscheit-Berg, Inside Wikileaks, Grasset
[3] Dewerpe, op.cit. p. 314
[4] Dewerpe, op.cit. p 77
[6] Elisabeth Roudinesco, Liberation
[7] Liberation, 5/4/2012 Les statistiques de l’Education nationales sont elles un secret d’Etat ?
[8] Ben Israël, Isaac, Philosophie du renseignement,
[9] Ben Israel souligne aussi l’importance des archéologues (anglais en l’occurrence) dans le renseignement…
[10] Dewerpe, op.cit. p.77
[11] Dewerpe p.89
[12] Dewerpe, op.cit. p.90
[14] Dewerpe op.cit.p 80
Rédigé à 18:12 dans (h)Euristique, Actualité, Praxis, Science, Web/Tech | Lien permanent | Commentaires (0) | TrackBack (0)
Projet d’atelier (Avril 2012)
(Image thanks : Street art rue Edouard Lockroy, Paris 75011)
"Verifiction : Web de données, logique modale, création numérique"
Le Web de données, ou Web sémantique, en « libérant les données », est-il de nature à faciliter la création numérique ?
Depuis quelques années[1], cette question est ouverte. À l’heure actuelle, le Web des données pourrait être décrit comme un foisonnement d’ambitions diverses convergeant vers un objectif commun : une réutilisation intelligente des données indépendamment de leur contexte numérique d’origine et à l’échelle du Web. Une solution consiste à offrir un accès structuré et sémantisé au contenu hétérogène du Web grâce à des procédés de médiation ou d’agrégation de contenus. Ces procédés s’appuient sur des langages de représentation des connaissances standardisés et munis de capacités de raisonnement. Ceci permet notamment de pouvoir qualifier les connaissances considérées pour évaluer leur pertinence et ainsi d’ouvrir les possibles pour de nouveaux champs applicatifs.
La quantité de données produites sur le Web suit une progression exponentielle depuis plus d’une dizaine d’années. Le web n’est donc plus en mesure d’être exploité « humainement » dans toutes les potentialités quantitatives et surtout qualitatives requises par de nombreux besoins socio-culturels. De plus, les outils informatiques associés au Web montrent leurs limites en matière d’interopérabilité et de recherche d’information.
Une des voies d’innovation se trouve à la croisée des trois domaines Web Sémantique, Logique Modale et théories de la Fiction. Cette voie peut être définie comme la préservation du « contexte de validité » de l’information. A l’heure actuelle, les langages standards du web sémantique ne permettent pas de définir précisément le périmètre de validité des connaissances. Afin d’offrir un accès homogène à l’information, les méthodes d’agrégation ou de médiation négligent souvent - faute de moyens - le contexte initialement associé aux connaissances en dehors duquel elles n’ont plus la même sémantique. En effet, certaines informations ne sont valables qu’à un certain moment dans le passé ou le futur, d’autres ne le sont que si elles vérifient certains présupposés, d’autres encore relèvent uniquement d’une croyance… Dans les disciplines de la Linguistique et de la Logique, ce concept de « contexte de validité » est appelé « modalité » et fait l’objet de nombreuses recherches depuis quelques décennies. Malheureusement, ces dernières ont rarement croisé les résultats obtenus dans chacune des deux disciplines, et encore moins dans le cadre plus récent offert par le Web Sémantique.
Indépendamment de l’évolution du Web, il est un domaine où les questions de référence et de contexte sont particulièrement étudiées, celui des théories de la fiction, concernant les discours narratifs, la littérature et de nombreux domaines de représentation esthétique.
La fiction en effet peut être considérée comme discours à dénotation nulle, ou « dénotation métaphorique, référence non-dénotationnelle » (Goodman) : « Selon Frege, les énoncés fictionnels ont un sens (Sinn) mais pas de référent (Bedeutung) »[2].
Factuelle dans un contexte, une donnée peut être fictive, sinon fausse dans un autre. Le domaine de la création joue pleinement sur ces changements de perspective.
Ainsi dans le roman ont été particulièrement étudiées les distinctions narratives entre auteur et narrateur (Genette) ou distinctions ou ambiguïté entre réel et virtuel. Ces distinctions relèvent de la pragmatique, dans la mesure où elles impliquent également les lecteurs, utilisateurs, acteurs ou spectateurs (T. Pavel), et pas seulement la syntaxe ou la sémantique des discours[3].
Or, de plus en plus sur Internet, de nombreux énoncés ont du sens, mais perdent toute dimension référentielle. Du moins, la recherche de référence, de dénotation et l’établissement (ou non) de vérification s’avèrent de plus en plus nécessaire (liens aux sources, auctorialité, contexte de preuve, etc.)
De plus Internet, comme réseau social, amplifie cette dimension pragmatique : ce sont les processus de requête, de consultation, communication et opération en réseau qui doivent être pris en compte pour fixer ou préciser les références aux données (modalités conditionnelles, etc.).
Les acquis des théories de la fiction et de la narration (très liées à la logique des mondes possibles) devraient donc être portés au profit des avancées du Web sémantique
*
Dans le cadre d’une action de veille stratégique sur l’ingénierie de représentation des connaissances, nous vous proposons de participer à un atelier exploratoire sur les présupposés théoriques de ces questions, mais aussi sur les perspectives applicatives et de recherche des relations entre Web sémantique et logiques modales. L’objectif de cet atelier consiste à dégager les moyens entrevus pour surmonter les frontières existantes entre ces disciplines en ce qui concerne la problématique liée au contexte de validité de l’intormation et proposer des pistes pour le développement d’outils de « vérifiction ».
Le but préalable serait d’identifier dans une première réunion les différentes compétences pouvant entrer en collaboration fructueuse et faire avancer résolument ces questions lors de 4 ou 5 séances. Le séminaire fermé, ou sur invitation, devrait comporter de 15 à 20 participants. Chaque séance se déroulerait autour d’un point problématique d’état de l’art ou d’une présentation de problème applicatif.
Cet atelier s’adresse donc à des créateurs, informaticiens, designer, philosophes, netartistes, développeurs, logiciens, etc.
Contacts :
Florence Amardeilh, Olivier Carloni, Charles Teissèdre, ([email protected]), Mondeca R&D
Yannick Maignien ( [email protected]), MY Consulting
Pour aller plus loin :
Web sémantique et les langages…
Le Web sémantique s’appuie principalement sur trois langages dits « standards » : RDF, SPARQL et OWL. RDF est un langage qui a initialement été conçu pour représenter les métadonnées (ou annotations) des ressources web. Il peut aussi être perçu comme un langage permettant la représentation des connaissances sous forme graphique (au sens théorie des graphes). SPARQL est un langage permettant de définir des requêtes pour interroger les connaissances définies en RDF. OWL est un langage de définition d’ontologies formelles. Une ontologie formelle consiste en un vocabulaire structuré de « types » dont les « propriétés » ont été mathématiquement définies. Ces types sont ensuite utilisés à un niveau plus concret pour décrire des connaissances factuelles.
Le web sémantique ne se limite pas non plus à ces trois langages (bien qu’ils soient très majoritairement utilisés). Il en existe d’autres comme RQL (autre langage d’interrogation), SKOS qui est un langage de définition de ressources terminologiques, RuleML/RIF/SWRL qui sont des langages de définition de règles. Ou encore des langages dédiés à des usages précis comme FOAF (réseaux sociaux), Geonames (données géographiques), SIOC (ressources Web), etc…
Logique Modale…
Le secteur de l’intelligence artificielle produit depuis plus d’une centaine d’années des résultats autour de thèmes variés comme l’expressivité et l’interopérabilité de langages mathématiquement fondés, la conception de systèmes de raisonnement automatisé, etc. La clef de voûte de ce secteur est la logique dite « classique » autour de laquelle s’articulent une multitude d’autres langages, dont un appelé « la logique modale ». La logique modale a été créée dans les années 60 pour répondre au besoin des logiciens d’attribuer un « contexte de validité » à une assertion logique et d’en tenir compte durant les déductions. Au cours du demi-siècle précédent, une multitude de logiques modales ont été développées et appliquées à des usages précis : les logiques temporelles (futur/passé), aléthiques (possibilité/nécessité), déontiques (interdiction/obligation), épistémiques ((in)contestabilité d’une connaissance), contrefactuelles (remises en question), etc.
Une logique modale est déjà présente dans le web sémantique par l’intermédiaire du langage OWL (dont un fragment correspond à une logique dite multi-modale). Cependant, il est difficile de l’utiliser dans OWL pour définir des « contextes de validité » car sa fonction modale est déjà exclusivement destinée à la représentation des relations. Mais d’autres logiques modales pourraient apporter au web sémantique les moyens intelligents pour contextualiser la validité des connaissances. Notamment RDF pourrait être étendu par une couche « modale » puisqu’il n’en dispose pas à ce jour. L’usage de la modalité aurait une plus-value certaine dans les secteurs ayant pignon sur Web. Par exemple, la prise en compte des modalités temporelles ou déontiques seraient d’un intérêt majeur dans les applications liées au domaine juridique. Par ailleurs, la mise à disposition récente des données publiques sur le Web et leur interconnexion mutuelle conduit également à s’interroger sur leur contexte d’usage.
Théorie de la Fiction…
Les développements informatiques et logiques rejoignent ou croisent les théories de la Fiction, de la narration (G.Genette, U. Eco, T.Pavel, J-M. Schaeffer, M-L. Ryan, J. Roubaud, etc.) ou théorie des mondes possibles (S.Kripke, N.Goodman, D.Lewis, etc.), permettent de caractériser de nombreuses productions heuristiques, culturelles ou sociales (controverses, rumeurs, illusions, simulations, hypothèses prospectives, réalités augmentées, storytelling, jeux, science-fiction, etc…) où se jouent les discriminations du réel et du virtuel et où se définissent les « mises en scène » ou dispositifs pragmatiques (auteur, narrateur, lecteur, spectateur, etc.) Voir le site www.fabula.org/
Évidemment, ces réflexions ont des incidences dans les domaines où le statut de vérité des énoncés est requis (Histoire, Sciences humaines, journalisme, droit, etc.)
Soutien de Thomas Pavel, Professeur à l’Université de Chicago et auteur, notamment de l’ « Univers de la fiction » au Seuil :
"J'ai pu enfin lire votre projet sur la Vérifiction qui me semble extrêmement intéressant bien que son orientation générale dépasse de loin mes compétences. Vous faites appel à la théorie de la fiction pour mieux discriminer entre le virtuel et le réel. Effectivement, la réflexion sur la fiction s'est penchée sur ces questions. En lisant le projet je me suis dit qu'au fond la théorie de la fiction aurait bien des choses à apprendre de vos recherches. Par exemple, lorsqu'on parle de réel en littérature on pense d'ordinaire à la réalité physique du monde. Sherlock Holmes n'en fait pas partie, il est donc un être de fiction. Si cependant on cible la réalité à un niveau légèrement plus abstrait, par exemple au niveau des professions, Sherlock Holmes est l'exemple inventé d'une profession réelle, celle de détective privé. Il y aurait donc toute une théorie à développer sur les niveaux auxquels la réalité est ciblée (ou évitée). Un tel éventail de réalités serait également utile pour l'étude des discours politiques qui eux aussi jouent sur une vaste gamme de niveaux du réel."
Thomas Pavel, 20 mars 2012
[1] Cf. Y. Maignien « Vérité et fiction sur Internet «Colloque virtuel Jacques Cartier Novembre 2002, Lyon. In «Les défis de l’édition numérique Publié, 2004. Presses de l’ENSSIB. Lyon. et http://mondespossibles.typepad.com/
[2] .J.M. Schaeffer et O. Ducrot Nouveau dictionnaire encyclopédique des sciences du langage Essais Points Seuil, Paris 1995., p.373
[3] Ib. P. 383
Rédigé à 15:30 dans (h)Euristique, Digital humanities, Esthétique | Lien permanent | Commentaires (0) | TrackBack (0)
Balises: Fiction, Modal logic, Semantic web
Le CNRS a communiqué largement, le 4 avril 2011, jour de la Saint Isidore[1], sur l’inauguration de sa plateforme SHS, ISIDORE.
Cette plateforme donne accès sur le Web à plus d’un million de documents et publications de la recherche française en sciences humaines et sociales, issues de plus de 800 sources différentes qui sont moissonnées, analysées, traitées et enrichies automatiquement. Rien à voir donc entre cette plateforme savante, et Google avec son indexation de l’ensemble du WEB…mais aussi l’incapacité du Leviathan de Mountain view à interconnecter de façon riche des catégories de connaissance (autre que pour son seul dessein de régie publicitaire) !
Cette information, relayée et amplifiée par la communication de la société ANTIDOT a été largement reprise par de nombreux sites d’informations, soulignant l’appartenance de ce projet à la mouvance Web 3.0 du Web de données ou Web sémantique. ISIDORE était déjà livré sur le Web depuis décembre 2010 en version beta. Comme le dit Pierre COL (ANTIDOT) : « A cet égard, le projet ISIDORE, du CNRS TGE Adonis, constitue effectivement le plus grand projet « web des données » / Linked Data / Open Data mené à bien en France à ce jour ».
Ayant eu la responsabilité de conception et de réalisation de cette plateforme en dirigeant le TGE ADONIS, sous l’autorité du Comité de Pilotage présidé par Michel Spiro, de mars 2007 à septembre 2010, je suis particulièrement heureux et fier de cette réalisation collective et de cette annonce inaugurale de la part de la Direction du CNRS.
À juste titre, les communiqués et commentaires relèvent plus précisément l’ampleur des collaborations qui ont présidé à cette réalisation. À cet égard, la maîtrise d’ouvrage du TGE[2] a bénéficié de l’assistance d’Atos Consulting, pour élaborer le cahier des charges et définir les conditions de maîtrise d’œuvre. Au terme de cette phase, la Direction générale du CNRS décidait en juin 2009 de procéder par l’ouverture d’un marché public plutôt que de confier cette réalisation à l’INIST. L’ambition du cahier des charges de s’orienter résolument vers le Web de données justifiait largement ce choix. Dans le même mouvement, il était décidé de déléguer la maîtrise d’œuvre au CCSD[3] et de passer un marché de réalisation, en octobre 2009 grâce au « Plan de relance gouvernemental », contractualisant avec le consortium ANTIDOT, MONDECA, SWORD[4].
C’est en effet une réalisation importante du CNRS, ayant impliqué de très nombreux acteurs des Sciences humaines et sociales, laboratoires du CNRS, mais aussi de l’Université ou équipes de recherche privées, dès le début des travaux du TGE Adonis, ceci par le biais de deux appels à projets, en 2007 et en 2009. Ces procédures ont permis d’associer de nombreuses compétences et possibilités d’innovation déjà en oeuvre dans environ 70 équipes, soutenues financièrement sur des objectifs très ciblés. C’est à travers ce dialogue fourni, complexe, parfois conflictuel mais toujours fructueux que s’est élaboré et affiné le cahier des charges finalement rédigé en mai juin 2009, en fonction de ces contraintes utilisateurs ou des typologies de donnée concernées ( image, texte, enregistrement sonores, manuscrits, données quantitatives, etc.) .
Ce réseau de projets, tissé patiemment pendant 3 ans est essentiel à plus d’un titre, car il a permis largement de conditionner les accords d’accès aux données des laboratoires, mais aussi des revues agrégées par Revues.org, Cairn et Persée, puis moissonnées et indexées par ISIDORE et maintenant accessibles pour les usages de la recherche. De plus, fin 2009, un accord avec la BNF permettait d’associer également les données patrimoniales de GALLICA, si importantes pour compléter ou référencer nombres de données secondaires de la recherche dans les humanités, mais aussi les sciences sociales.
En terme de méthodologie de projet, cette élaboration théorique d’un cahier des charges (dont la portée finale requérait les technologies du Web sémantique et l’expression des données en RDF) via la construction d’un réseau de travail ( au sens propre du NetWork) par appels à projets, mériterait de plus amples développements[5]. C’est en tout cas la raison d’être du très court délai de conception et de réalisation et de l’efficacité de cette étape importante de la construction de l’infrastructure numérique du Très Grand Equipement ADONIS. Ajoutons cependant que l’époque, et les technologies, étaient sans doute mûres pour que cette réalisation se fasse aussi efficacement. Rappelons qu’une première initiative du TGE ADONIS, lancée en 2006 avait rapidement échoué, sans doute prématurée[6]
Cela est largement souligné, l’appartenance de ce projet à la mouvance du Web de données, à l’ouverture des données, est ce qui signe son originalité. D’une part, comme le précise Pierre COL d‘ANTIDOT, soulignant cet aspect de l’interconnexion de données grâce au format RDF:
« L’Open Data, et plus largement la vague du Linked Data et du « web des données », concerne les États, avec leurs administrations et services publics, ainsi que les collectivités locales et aussi toutes les organisations, y compris les entreprises privées, petites et grandes, qui ont intérêt à partager ouvertement certaines informations (pas toutes évidemment) avec leurs clients, fournisseurs, partenaires, bref avec leur écosystème. (…) Et les technologies du web des données, ou web 3.0, en donnant directement accès à des données interconnectées plutôt qu’en ouvrant des API spécifiques à chaque source d’information ou silo de données, apportent un gain considérable en matière d’interopérabilité. (…) Les métadonnées de tous ces documents ont été normalisées et alignées sur des référentiels et thésaurus scientifiques, automatiquement classifiées, articulées entre elles et enrichies et, pour finir, publiées dans un triple store RDF de plusieurs millions de triplets, où elles sont librement interrogeables en SparQL. Une démo de ce qu’il est possible de développer à partir de ce point d’entrée SparQL est disponible ici : http://www.lespetitescases.net/semweblabs/isidore/ [7] ».
Le développement d’ISIDORE, à partir des recommandations du W3C sur l’utilisation de RDF pour le Web de données, était explicite dès 2009[8], non seulement pour ce volet de l’interconnexion des données, mais aussi pour l’intégration des services que cette interconnexion devait permettre à terme [9] : « La transformation des bases de données scientifiques en Web de données est au coeur des réalisations des infrastructures numériques pour les sciences : plateformes de publication, puis collaboratives Web 2.0 ( Blogs, Wiki, etc.) et plateformes de calcul (grilles, traitement, bases de données relationnelles) ; elles doivent être des plateformes d'intégration de services, faisant converger le rôle de nombreux opérateurs différents, et d'autre part une interconnexion de données hétérogènes des laboratoires agrégées à partir de sites distribués ».
Si on réduit ISIDORE à l’interconnexion de données, il peut sembler que ce « moteur de recherche » n’apporte pas grand chose de plus que Google, sauf à travailler sur le seul champ des sources SHS indexées. Mais ce ne serait qu’une apparence trompeuse. Potentiellement, cette interconnexion de données, issues de sites Web divers, hétérogènes, ouvre sur une possibilité de constituer des corpus nouveaux de données pour des problématiques nouvelles, à partir de l’autonomie des acteurs détenteurs ou producteurs de ces données. C’est cette constitution de Triple Store RDF nouveaux, librement interrogeables en SparQL, constitués de masse énormes de triplets, qui doit faire émerger de nouveaux services scientifiques. C’est cette problématique d’intégration de services qui sera amenée à se développer à l’avenir.
On le sait, la croissance de Google dans le domaine des services est largement exogène, horizontale, conquérante, à partir du moteur de recherche d’information et vers tous les terrains successifs des usages. Pour autant, les données restent disjointes de ces différents usages (à part pour des mash up simples comme le couplage entre géolocalisation de Google map et des données textuelles). Mais une véritable productivité par croisement intégré (par des traitements et calculs) est impossible hors de l’expression en RDF de ces données, hors de l’autonomie des données et de la liberté des producteurs de données à entrer dans ces réseaux d’intégration. C’est cette révolution là, à venir, révolution fortement liée à l’aspect hautement collaboratif du travail scientifique, que Google est en train de freiner par son hégémonie centralisatrice.
À notre sens, cette intégration de service peut se développer, dans un contexte d’ouverture aux données publiques (Open data). Ce Cadre doit être favorable pour traiter non seulement les données administratives, mais également l’ouverture des données scientifiques, certes dans une problématique spécifique ; au même titre que la problématique d’ouverture des données culturelles[10]
Cette intégration de services devrait alors pouvoir se développer dans, au moins, quatre directions :
- l’intégration de champs culturels et linguistiques hétérogènes. Interconnecter des données d’autres langues suppose de croiser d’autres référentiels, d’autres communautés, d’autres traditions historiques et patrimoniales. La collaboration avec EUROPEANA, projet également avancé en matière de Web de données, devrait permettre de sceller cette internationalisation d’ISIDORE[11]
- L’intégration de disciplines scientifiques autres que les SHS. L’interdisciplinarité est le champ privilégié du Web de données et des services qu’il peut faire émerger. La biologie est pour l’instant le terrain privilégié de telles interdisciplinarités , mais « restreintes » à des champs d’ontologies pour l’essentiel pré-établies. L’interconnexion de champs hétérogènes, hors référentiels permettant leur congruence, oblige à définir des services nouveaux intégrant les données et les finalisant dans des problématiques inédites, « polydisciplinaires », comme le dit Morin .
- L’intégration des acteurs. Cela suppose que les réseaux sociaux (et les données personnelles qu’ils comportent) soient réellement maîtrisées par les communautés qui les mettent en œuvre, et non par les possesseurs des logiciels d’applications Web 2.0 qui centralisent et utilisent ces données personnelles à des fins marketing. Ceci est un enjeu majeur des données nominatives sur la base desquelles tout un ensemble de pratiques académiques de « notoriété » et de contrôle sont institutionnalisées, véritable frein, pour l’instant, à la libre circulation des données et à l’émulation transparente des acteurs.
- L’intégration des fonctions logiques. Pour l’heure, les syntaxes par lesquelles les données exprimées en RDF permettraient des intégrations de services, se bornent à utiliser des logiques prédicatives. Une orientation serait d’exprimer les triplets RDF des données via des logiques modales. L’exploration d’hypothèses à partir de masses considérables de données pourrait alors passer par la puissance automatisée de calcul utilisant les gisements dispersés sur l’universalité du Web. Cette segmentation de « mondes » potentiels permettra de donner corps à des hypothèses « invisibles », indépendamment de ces connexions de données.
Bien sûr, ISIDORE n’en est qu’à ses débuts, et ces orientations (et sans doute d’autres) devront être analysées, développées, discutées, critiquées, pour être graduellement mises en œuvre, et afin de mettre réellement le Web de données au service du Web des sciences, c’est-à-dire au service de communautés élargies de chercheurs.
[1] J’avais choisi en effet cet acronyme, ISIDORE non seulement pour sa signification : Intégration de Service et Interconnexion de Données de la Recherche et de l’Enseignement supérieur, mais aussi en référence à Isidore de Séville, (v. 560 – 4 avril 636 ap. J.-C.) auteur des Etymologies et choisi comme Saint patron des informaticiens et de l’Internet du fait de l’organisation particulière de son oeuvre encyclopédique. Comme le relève Régis Robineau, du site INSULA, ce n’est nullement une coïncidence avec le choix de l’acronyme ISIDORE. Un autre Collègue me faisait remarquer, à l’époque, que l’on pouvait entendre aussi …Easy door.
[2] Assumée avec maîtrise surtout par Stéphane Pouyllau et Jean-Luc Minel.
[3] Où Daniel Charnay et Laurent Capelli ont joué un rôle décisif
[4] Ce marché public étai d’un montant d’environ 600 K€, ce qui est un investissement minime au regard de l’ambition réalisée.
[5] Benoît Habert, alors directeur adjoint du TGE ADONIS, a joué un rôle décisif dans cette étape de conception « collaborative ».
[6] Cf. Un écho dans la presse, encore en ligne : http://www.lefigaro.fr/sciences/20061110.FIG000000064_cnrs_le_scandale_d_une_numerisation_ratee.html
[7] Les Petites Cases, Site de Gautier Poupeau, qui a joué un rôle majeur dans cette orientation décisive du cahier des charges dans le sens du Web de données. Plus d’informations sur ce projet et sur les outils logiciels pour le réaliser, fournis par ANTIDOT (éditeur de logiciel français très impliqué dans les outils pour le web de données) :
- http://bit.ly/CasClientISIDORE (PDF de 4 pages présentant le projet ISIDORE)
- http://bit.ly/AIF-v1 (PDF de 4 pages présentant la solution Antidot Information Factory)
[8] Cf « Construire le web de données pour les sciences humaines et sociales »
Stéphane Pouyllau, Shadia Kilouchi, http://halshs.archives-ouvertes.fr/sic_00494227/fr/
[9] Cf. « Les nouvelles frontières numériques des sciences » Yannick Maignien, http://www.tge-adonis.fr/Les-nouvelles-frontieres
[10] CF. Le rapport de M. Ory-Lavollée et Mme J. Pierre. « Partager notre patrimoine culturel »
[11] Le TGE ADONIS a également obtenu de coordonner, à partir d’un Siège parisien, avec des partenaires allemands (Niedersächsische Staats- und Universitätsbibliothek Göttingen) la phase de réalisation du projet européen DARIAH de la feuille de route européenne ESFRI http://www.dariah.eu/
Rédigé à 15:04 dans Actualité, Digital humanities, MY Consulting, Science, Web/Tech | Lien permanent | Commentaires (2) | TrackBack (0)
Balises: linked data, RDF, web data, Web de données, web sémantique
MY Consulting
MAIGNIEN Yannick
12 passage de la Fonderie, 75011 Paris
0698209598
0182077374
http://mondespossibles.typepad.com
Les évolutions du Web, de l’Internet et du numérique modifient profondément les possibilités de notre vie culturelle, intellectuelle et professionnelle, à l’échelle locale ou globale. En retour, l’ampleur de ces changements sociaux conditionne les réalisations effectives des projets numériques, pour l’Enseignement supérieur, la Recherche et la Culture,
Face à cette double et incessante évolution, les investissements publics ou privés dans les équipements numériques ou les systèmes d’information et de documentation, impliquent une expertise approfondie dans la conception et le pilotage des projets mis en œuvre.
Pour réussir, la conduite de projet doit maîtriser les dimensions sociologiques des usages autant que technologiques de l’offre et doit traduire leurs mutuelles relations en terme d’organisation et de décision.
C’est la raison même de la création de MY Consulting : proposer conseil et expertise pour vous aider à organiser pleinement les relations complexes de cette double évolution des besoins et de l’état de l’art.
L’expérience en France comme à l’étranger lors de nombreuses réalisations numériques d’envergure menées dans les secteurs culturels, universitaires ou de recherche a permis de forger cette expertise.
Je souhaite la mettre au service de vos projets spécifiques et de vos décisions.
A votre entière disposition et avec mes plus cordiales salutations,
Yannick MAIGNIEN
Expertise
Université. Recherche. Médiathèques. Centres culturels. Collectivités territoriales. Edition. Création et économie numérique. Projets européens. Coopération internationale.
Compétences
* Conseil stratégique et aide à la décision dans la mise en œuvre de projets numériques et documentaire. Assistance à maîtrise d’ouvrage ; analyses des besoins ; élaboration de cahiers des charges ; méthodologie et conduite de projets. Etudes prévisionnelles en conception et fonctionnement de systèmes d’information.
* Définition, veille et suivi applicatifs dans les domaines documentaires, bibliographiques et bibliométriques : Web de données. Accès aux données publiques. Recherche d’information et gestion de connaissances. Organisation de réseaux de compétences (partenariats, architectures distribuées, mobilisation d’acteurs, etc.). Supports numériques de projets en sciences humaines et sociales.
Expérience
30 années de responsabilités culturelles et scientifiques dans les domaines numériques de l’innovation technique et sociale :
Commissaire d’exposition à la Cité des sciences et de l’Industrie. Chargé d’études à l’IDATE. Directeur adjoint DRRT Languedoc Roussillon. Chef de la mission scientifique de numérisation (Gallica) Bibliothèque nationale de France. Création et direction de la Médiathèque « Casa de Francia » (Mexico). Chargé de l’ingénierie documentaire à l’ENS Lyon. Responsable des centres de ressources et politique du Livre français en Italie (Rome). Chargé d’études au DEPS (Ministère Culture). Directeur du TGE ADONIS (Très Grand Equipement pour l’accès unifié aux données et documents numériques des sciences humaines et sociales) CNRS. Réalisation d’ISIDORE. Représentant français de DARIAH (projet européen ESFRI).
Formation
Etudes de philosophie des sciences et de sociologie de la technique et de l’innovation. Paris 1. Henri IV. CAPES de Philosophie 1973. DEA de sociologie du travail Paris VII 1981. Admissibilité à l’Ecole Normale Supérieure Saint Cloud ; à la préparation à l’ENA ; à l’agrégation de philosophie. Ingénieur de recherche CNRS 2007.
Rédigé à 13:20 dans Actualité, Agenda, Bibliographie, Digital humanities, MY Consulting, Praxis, Science, Web/Tech, Weblogs | Lien permanent | Commentaires (0) | TrackBack (0)
Balises: MY Consulting
UNIVERSITE VIVALDI
Colloque de l'U niversité Numérique de Paris Ile de France
http://www.universitenumerique-paris-idf.fr/
Le 13 janvier 2011
Les sciences humaines et sociales numériques, couramment appelées digital humanities, sont en plein essors en France depuis une dizaine d'années. Elles sont une composante importante de la recherche et de l'enseignement supérieur tant le numérique est présent aujourd'hui dans l'univers des enseignants et chercheurs.
Voir les video des exposés de Divina MEIG, Eric BRUILLARD et moi-même.
En ce qui me concerne, un essai de réflexion sur la mise en oeuvre du Web de données dans l'enseignement supérieur.
Rédigé à 15:36 dans Actualité | Lien permanent | Commentaires (0)
Balises: Web of data, Wed de données
"Il est presque impossible d'exprimer dans leurs limites exactes les évolutions abstruses qui se font dans le cerveau. L'inconvénient des mots c'est d'avoir plus de contours que les idées. Toutes les idées se mêlent par les bords ; les mots, non. Un certain côté diffus de l'âme leur échappe toujours. L'expression a des frontières, la pensée n'en a pas." "L'Homme qui rit". Victor Hugo. p. 454. Folio classique
Rédigé à 10:05 dans (h)Euristique | Lien permanent | Commentaires (0)
ISIDORE
www.rechercheisidore.fr/
I am particularly pleased to welcome the ISIDORE' birth (beta) for all Digital humanities. ISIDORE is the result of these (almost) 4 years working as head of the TGE ADONIS. All members of the team that worked on this project should be thanked for these efforts and the quality of work done. Of course, this is just the beginning ...
ISIDORE
www.rechercheisidore.fr/
Je suis particulièrement heureux d'accueillir sur le Web la version beta d'ISIDORE pour les Sciences humaines et sociales numériques. ISIDORE résulte de presque 4 années de travail lorsque j'étais à la tête du TGE ADONIS, du début 2007 à octobre 2010. Tous les membres de l'équipe qui ont contribué à ce projet doivent être remerciés pour leurs efforts et la qualité du travail accompli. Bien sûr, ce n'est qu'un commencement ...
Rédigé à 19:06 | Lien permanent | Commentaires (0)
Balises: Web/Tech RDF ISIDORE Search engine
"Se référer aux textes qui précèdent
(...) La présence ou l'absence de références, de citations et de notes en bas de pages est un signe si sûr du sérieux d'un texte que l'on peut en partie transformer un fait en fiction ou une fiction en fait simplement en retranchant ou en ajoutant des références."
Bruno LATOUR, La science en action. Introduction à la sociologie des sciences. P. 87. Ed. La Découverte / Poche, Paris 1989.
Rédigé à 09:48 dans (h)Euristique | Lien permanent | Commentaires (0)
Balises: Fiction Science référence
J'ai participé au Workshop Artwar(e) que Christophe Bruno a oganisé dans le cadre des Rencontres Internationales Paris/Berlin/Madrid le samedi 27 novembre,
http://art-action.org/site/fr/prog/10/paris/prog_expo.htm
Le Workshop Artwar(e) : cycles de hype
Centre Pompidou, est organisé par Caroline Engel (curatrice et directrice artistique du centre d’art contemporain les CAPUCINS à Embrun), Christophe Bruno et Samuel Tronçon (philosophe), de gauche à droite respectivement sur la photo.
Artwar(e) est une plate-forme de « gestion des risques artistiques » dont l'ambition est de reformuler l'histoire de l'art, les attitudes performatives et relationnelles, ainsi que les pratiques curatoriales, en utilisant des concepts récents issus du marketing, comme les « courbes de Hype ». Le workshop Artwar(e) invite des artistes, commissaires d'exposition, critiques d'art, théoriciens, galeristes ou collectionneurs à venir témoigner de leur vision des flux d'import-export conceptuels dans le monde de l'art.
Le programme du Samedi 27 novembre 2010
14h00 - Introduction et présentation par Caroline Engel et Samuel Tronçon.
14h30 - Christophe Bruno présente son cycle de Hype.
15h30 - Invités : Etienne Cliquet (artiste et enseignant à l'Ecole Supérieure des Beaux Arts de Toulouse) et Anne Laforet (chercheur en conservation des arts numériques).
17h00 - Analyse des courbes de Hype par l'équipe de Artwar(e) – discussion
fin du workshop vers 17h30
Le débat a tourné autour des modélisations, comme cette courbe de Hype, issue des travaux du cabinet Marketing Gartner, courbes que Christophe Bruno "applique" à l'émergence et aux dévelopements des phénomènes artistiques, notamment les créations du NetArt et le cycle de diffusion et de réception ses propres créations sur le Web.
Comme l'ont souligné les intervenants Christophe Bruno et Samuel Tronçon, c'est là le signe fort d'une dérive de la marchandisation de l'art et des oeuvres, poussée à son extrême par la dimension digitale elle-même de leur "réalité", ces oeuvres étant "baignées" en temps réel dans l'univers dynamique des grands nombre, comme des indices boursiers planétaires par exemple.
A mon sens, le débat intérssant, pour ces faits artistiques sur le Web est de considérer cette modélisation non seulement comme une représentation rétrospective et pertinente de leur "diffusion", de leur existence sur le réseau, mais surtout comme une approche prédictible possible, en temps réel, afin de préfigurer ex ante le devenir réel, parceque spéculatif de ces oeuvres.
A cet égard, je souhaite faire état de conversations récentes avec Christophe Bruno, avec qui j'ai déjà eu quelques discussions ( CF. dans ce Blog Ethique de l’Internet. EW3, Colloque en 2005 à Venise).
En juillet dernier, nous nous sommes rendus compte avec Christophe de la convergence de ces idées sur le caratère de généralisation et d'accélaration des phénomènes de marché spéculatif de l'art à l'ère numérique. Je lui faisait part dans un mail de l'idée suivante :
"ArTerm
Proposer ( par provocation) de créer une bourse du marché à terme de l'Art ( ArTerm) , à l'image des marchés à terme pour les matières premières ou financières.
L'idée serait du même ordre, proposer de spéculer sur le marché de l'Art....tant qu'une oeuvre n'est pas créée (Cf. http://fr.wikipedia.org/wiki/March%C3%A9_%C3%A0_terme);
Des artistes accepteraient de proposer de telles oeuvres .... qui ne sont pas encore créées. Le prix fixé en amont permettrait une spéculation, en fonction du prix de vente à terme.
Bien évidemment, l'idée serait de mettre en avant la virtualité des oeuvres, dont la valeur financière précéderait la valeur esthétique….avant même leur création !
Bien évidemment, les artistes pourraient proposer de très longs termes avant la "réalisation" de l'oeuvre, etc... Le tout bien sûr serait assez automatisé sur un Web (dépôt des propositions, spéculations , suivi sur l'état d'élaboration (sic) des oeuvres, ... etc ...)
je ne sais pas si cette idée existe déjà. Mais si ce n'est le cas, cela serait assez marrant
YM"
Réponse de Christophe Bruno :
"En fait je travaille depuis le mois de mars sur deux projets qui sont vraiment très proches de ce dont tu me parles. Le premier concerne l'analyse de tendances et les paris artistiques. Je travaille dessus avec un philosophe de la logique qui s'appelle Samuel Tronçon, un ex-thésard de Jean-Yves Girard. Le projet est en cours de développement mais la version préliminaire vient d'être exposée à Mondovi mi-juillet
http://www.smirproject.eu/mondovi/?p=24&lang=fr
On espère le mettre en ligne bientôt
ARTWAR(E), Christophe Bruno
ARTWAR(E) est un projet en phase expérimentale rapprochant les stratégies artistiques et les processus logistiques en fonction dans la grande distribution. Ces stratégies se développent selon des modalités de temporalité multiple (des cycles sur grande échelle du capitalisme, les hype cycles, la rétroaction virale, les points critiques et catastrophiques, les lois de conservation, les équilibres de Nash).
L'autre projet est une vrai-fausse agence de gestion des risques artistiques. J'ai commencé à collaborer la-dessus avec un analyste financier et une metteure en scène et on a présenté ça à la chartreuse à Villeneuve-lez-Avignon.
Voilà donc ça serait en effet très bien de se rencontrer.
Qu'en penses tu ? amicalement
Christophe""
Comme le dit Christophe, ces "rencontres" ne sont pas fortuites. Elles dépendent au contrairte de la courbe de Hype de leur développement, et celle-ci est en pleine et raide ascension !
Qu'on en juge par cette annonce de la "fusion Googlosian" entre le galleriste et trader d'art contemporain Gagosian et Google :
http://www.artinfo.com/news/story/36329/gagosian-joins-google-ceo-eric-schmidt-dasha-zhukova-and-others-to-launch-online-art-sales-site-artsy/
( Petite remarque, Dés 2006 ( !!!) le très branché Glenn O’Brien prédisait que "Google will merge with Gagosian Gallery, forming Googlosian. .." Quelqu'un qui le nez Hype !) ....
ArtPrice.com, (THE WORLD LEADER IN ART MARKET INFORMATION), a du souci à se faire !!!
Rédigé à 14:57 dans Actualité, Esthétique | Lien permanent | Commentaires (0)
Balises: art market, digital art, esthetics, net art, Net Art, vitual, Web art.
Une présentation en avant première d'ISIDORE sera faite à La Haye les 24 / 25 novembre au Séminaire Linked Data de DARIAH que j'avais monté avec Tobias Blanke et Seth Dembo, du King's College de Londres (entre autres).
http://www.dariah.eu/index.php?option=com_content&view=article&id=143:linked-data-and-the-architecture-of-the-world-wide-web-guiding-principles-for-a-research-infrastructure-for-the-arts-and-humanities&catid=2:events
C'est particulièrement important qu'ISIDORE, clé de voute de toute la stratégie d'accès aux données et documents du TGE ADONIS soit au rendez-vous européen, avant même d'être présenté au sein du CNRS, et en France ! Pour une fois qu'une réalisation française d'excellence en SHS tient la corde dans un secteur majeur de l'innovation scientifique et technologique au plan international, on ne peut que s'en réjouir !!
Merci à Pierre-Yves Jallud de pouvoir s'y coller pour cette présentation. Les Dieux n'ont pas voulu que je puisse être présent. Mais c'est un monde possible où P-Y Jallud me représente, comme G. Poupeau, S. Pouyllau, L. Capelli ou J-L Minel , F. Lacroix (entre autres) qui ont tant oeuvré depuis un an sur ce projet, et qui doivent serrer les derniers boulons du coeur de l'infrastructure.
Rappelons que cette plateforme est en chantier depuis novembre 2009, avec la maîtrise d'oeuvre du CCSD, de l'aide du CC-IN2P3 et de Cleo, et réalisée par les sociétés ANTIDOT, MONDECA et SWORD.
A noter aussi dans ce Séminaire linked data de La Laye l'intervention d'Antoine ISAAC, d'Europeana, autre précurseur sur le Web de données (que je salue amicalement).
Prenons date. Le futur dira si les promesses de cette plateforme et moteur de recherche ISIDORE seront tenues. Cela dépendra -on l'a dit- de l'appropriation qu'en feront les nombreux acteurs des SHS, à l'Université comme dans la Recherche, en amont dans la productiondesdonnées , comme en aval dans le développement des services et usages.
Rédigé à 11:14 dans (h)Euristique, Actualité, Science | Lien permanent | Commentaires (0)
Balises: DARIAH, ESFRI, ISIDORE, linked-data, Web de données
Recent discussions concerning Google and the BNF have foregrounded digital issues. But maybe that debate is really only a part of the background to current developments on the web and the Internet. The BNF was already putting documents on line at the end of 1997, while Page and Brin did not found their little Google “start-up” until 1998 ; ten years later, Google is valued at 210 billion US dollars. But that is not what counts. Created at CERN by Tim Berners Lee in 1990. the World Wide Web is a way of organizing information hypertextually, making it possible to link and to discover documents across multiple systems and platforms in a universal system. It’s also worth remembering that the HTTP protocol has developed in response to scientific needs, subsequently generalized to encompass all human activity. In the same way, the evolution of the “web of documents” into collaborative Web 2.0 applications at the end of the nineties was driven by scientific applications, collaborative uses, the establishment of virtual communities or invisible colleges, networks of active participants in the forefront of collaboration, before it was extended and generalized into all spheres of society, communication and leisure.
The challenge is now to build the Data Web. Richer and more complex than previous forms of the web, this represents an unprecedented advance, both quantitatively and qualitatively, with socio-economic consequences as yet untold. At the moment, a data revolution is taking place in the world of scientific knowledge. Researchers, students, and teachers are eager for digital documents of all kinds (texts, databases, iconographies, maps...), and bibliographic applications thus converge. But HTML (even extended as XML) cannot overcome the “document barrier” we have inherited from bygone centuries of analogue data. With respect to the communicative potential of the web, data seems to be locked away in relational databases. Underlying the creation of knowledge, there is an exponential increase in data creation : sensors, probes, simulators, cameras, automated surveillance systems, and computational systems are accumulating data uncontrollably, beyond the scale of human understanding. In social science, bits of information are produced and exchanged by the subjects of study themselves, breaking down the frontier between private and public. Virtual communities are engaged in unlimited processes of enrichment and large-scale data analysis (in genetic and medical sciences, in climate studies, ecology, economics etc.) . Finally, there are objects or systems which store information (including details of daily life) which are able to mass-produce and mass-exchange data (RFID)
Data goes public
The Data Web, also called the Semantic Web by Tim Berners-Lee, creates data independence, in a kind of world-wide digital heaven. Data becomes linked data by means of its expression in RDF (Resource Description Format, a W3C standard), in the form of a triplet (subject, predicate, object), a kind of logical “syntax” which makes it possible to link together data at the heart of the web, readable by computer, and independent of its originating site. That assumes the existence of public distribution policies, “opening up” databases, and making them available to new search engines (SPARQL), in the way that Obama’s data.gov program is being undertaken in the USA. Wikipedia already supplies its data in RDF (Dbpedia), thus making available millions of links for its dataset – a pre-defined collection of reference and thesaurus data. “Raw” data can be virtually linked to provide massive graphic visualisations. Google is also taking this route of tagging HTML pages with RDF. Tim Berners Lee is energetically campaigning for the availability of independent, autonomous data — “Raw data now” – in order to develop the web of the future. For example, a researcher will be able to combine epidemiological data on the one hand with socio-economic data on the other,to create a new research field, independent of the originating web sites. “Liberated” datasets for evaluation on this new web – this is the new knowledge economy.
Data and the Publishing Revolution
The Data Web subverts the “peer-review” model of scientific communication jointly created in 1665 by the Journal des Scavans in France and the Philosophical Transactions in England. Scientific knowledge is evaluated less by its “results” than by the way its data has been processed for dynamic presentation, or by simulation of its processing. As of today, open access models, in which publications are valued for their contribution to an “upstream” availability of data rather than for their “downstream” marketability, are breaking down traditional publishing business models. Major publishers such as Elsevier have understood this in proposing data-centric publishing processes (the “Article of the future”, a form of article made multi-functional by its associated data). In the same way, Thomson-Reuters have launched an application suite for link management called “Open Calais”. Robert Darnton announced this revolution in publishing a decade ago. The online publishing of documents linked to their source with critical annotation. The revolution is now possible and underway, thanks to the Data Web.
Infrastructures for the Data Web
Of course, these three stages of the Web are not mutually exclusive. They come about in successive waves, textual and alphanumeric datasets, flowing into digital libraries – the digital edition – and then into the heart of scientific data-focussed work, collaborative and generalized on a planetary scale. The conversion of scientific databases into the Data Web is at the heart of the development of digital infrastructures for the sciences : publishing platforms, Web2 collaborations (Blogs, Wiki, etc) and processing environments (portals, processors, relational databases) ; they must be platforms where services can be integrated, supporting convergence of the roles of different service providers, and on the other hand, interconnecting heterogeneous laboratory data aggregated from distributed sites. Like the US, France and Europe are engaged in major “road maps” (ESFRI) to prepare major digital infrastructures. Let us hope that at this strategic moment in the development of the Data Web, implementation of these infrastructures will be taken into account, in particular in the evaluation of future national funding plans and investment
Yannick Maignien Tge Adonis Novembre 2009.
Photographie sous licence CC par Caveman 92223/flickr
Rédigé à 15:27 dans Science | Lien permanent | Commentaires (0)
Balises: data.gov, Digital humanities, E-infrastructure, linked data, metadata, public data, RDF, Science, Semantic Web
|
||||
|
||||
|
Rédigé à 15:18 dans (h)Euristique, Science | Lien permanent | Commentaires (0)
Balises: ESFRI , Linked data, metadata, RDF, Semantic Web, TGE ADONIS
Poster une note quatre ans après la précédente (décembre 2006), voilà le signe d'une intense activité pour un blog !
De fait ce silence était lié à une période ardue de travail. Je ne veux pas dire que blogger relève de l'oisiveté...! Mais il est certain que ces quatre ans de responsabilité de direction du Très Grand Equipement ADONIS (Accès unifié aux données et documents numériques des sciences humaines et sociales) au CNRS et dans l'univers de la recheche et de l'enseignement supérieur ne m'ont pas laissés de disponiblité pour entretenir ce blog.
Pour autant, (la parenthèse CNRS étant en passe de se terminer), le temps et l'activité consacrés dans ce projet ADONIS ne sont pas déconnectés des intérêts de ce blog. ADONIS a foncièrement une activité d'optimisation des connaissances (données et documents) des sciences humaines et sociales. Certains se réfèrent à la notion d'"Humanités numériques" ( Digital humanities, on y reviendra). Et la question des virtualités et potentialités ouvertes par l'interopérabilité et la mutualisation des connaissances dans l'ère numérique devrait être centrale. On verra aussi qu'il n'en a pas vraiment été ainsi...
Pour l'heure, limitons nous à indiquer que la principale réalisation du TGE ADONIS, préparée durant ces quatre ans par toute l'équipe que je dirigeais, sera la plateforme ISIDORE ( pour Intégration de Service et Interconnexion de DOnnées et documents de la Recherche et de l'Enseignement), qui sera livrée en décembre 2010 sur le web (Cf. http://www.tge-adonis.fr).
Pourquoi parler d'ISIDORE, en gestation dans cette parenthèse de 4 ans ?
Parce qu'ISIDORE permettra de mobiliser en RDF (Ressource Description Framework) les données des SHS et sera ainsi une première tentative de grande ampleur du Web Sémantique. En ce sens, ISIDORE est un des aboutissements des pistes lancées dans: « Vérité et fiction sur Internet », in Les défis de l’édition numérique Publié en 2004 aux Presses de l’ENSSIB. Voir à ce sujet le post sur le Web de données, (http://www.tge-adonis.fr/?Les-nouvelles-frontieres ), repris dans ce blog.
Parce qu'aussi, ma conviction est que cette plateforme ne se développera réellement, non seulement parce qu'en amont de plus en plus de données et documents seront moissonnés et indexés par ISIDORE, mais surtout à condition qu'"en aval"de plus en plus d'utilisateurs soient mobilisés pour développer de nouveaux services à partir de cette plateforme de recherche d'informations. Prenons donc date.
Pour ce 21 novembre 2010, quatre ans après, cela suffit pour marquer un retour dans le débat numérique.
Si, tout de même, dans ces quatre ans, un évènement majeur. La disparition de Claude Lévi-Strauss, qui écrivait en 1991 : (le Monde du 8 octobre 1991) : " Les "sciences humaines" ne sont des sciences que par une flatteuse imposture. Elles se heurtent à une limite infranchissable, car les réalités qu'elles aspirent à connaître sont du même ordre de complexité que les moyens intellectuels qu'elles mettent en oeuvre. De ce fait, elles sont et seront toujours incapables de maîtriser leur objet".
A méditer...! Surtout pour ceux qui s'engagent dans la réalisation d'infrastructure numérique pour les sciences humaines....
Last but not least : faites moi penser à faire un post sur "La Disparition de Majorana" (Leonardo Sciascia, La Quinzaine littéraire , 1975) et "La Deuxième disparition de Majorana" ( Jordi Bonnells, paru en septembre 2004 chez Liana Levi).
Enre autres...
imageIsidore de Séville BNF http://classes.bnf.fr/DOSSITSM/gc62-8.htm " Etymologiae sive origines", vers 636.
Rédigé à 15:02 dans Actualité, Science | Lien permanent | Commentaires (0)
Balises: infrastructure numérique, isidore, RDF, sciences humaines et sociales, Web sémantique
More than 80% of the Net surfers use the search engines as relates of entry to Internet, and among those an immense majority uses Google. This search engine, in less than 10 years of existence, was essential by the relevance of the answers brought to the requests posed. But the search for information , as well as the access to the diversity of the contents of the Web and Blogs shows already its limits and Google is engaged in an unrestrained diversity of services to ensure its development. But in fact the conditions of navigation in Internet will be then to reconsider.
Where the linguistic engines indexed and sought key words, index of contents, Google, one strongly knows it module this indexing by the "Ranking Page", the audience or the notoriety of a site, measured according to the number of bonds which point on this site. In a Google direction, as the scientometric models of quotations ("Which quotes which? Who is quoted by whom? ") postulates that the quality of contents is a function of the interest which it causes. In less than 10 years, Google made this algorithm the base of an economic capacity without equal, (nearly 100 billion dollars of stock exchange capitalization) enabling him to widen its services with geographical knowledge (Google Earth), and thus, potentially with all the couplings of geolocalisation (GPS...), with the contents of the digitized books and the libraries (Google Book), with the own-produced video images (YouTube) in Blogs (GoogleBlog), the transport and the private correspondence (Gmail), with the press (Google News), etc.
All this is known. What is less is it that this economic power, at the bottom collecting notoriety, the doxa, the increasing opinion surrounding any information, rests on the advertising model of election, in a way more sophisticated much than any media had done it to date. As John Batelle says it, the indexing to which proceeds Google is not only that of the sites and pages visited and accumulated by the robots of an immense computer network. It is also and initially the constitution of "the data base of our intentionnalities". Each one of our billion clicks which each month information retrieval, knowledge, leisures, commercial or financial economic opportunities, is identified and indexed. It is this "data base" of our research, needs, desires of all natures which "is sold" automatically with the advertisers, targeting in return any commercial proposal closer to the social or cultural requests of the Net surfers.
That a great Franco-German project, Quaero, is on the way to compete with Google, one can only be delighted some. The linguistic abilities, statistical of the European researchers are undoubtedly as good as those of Larry Page and Sergei Brin, the creators of Google, in 1997. After all, those had largely nourished experiment of Louis Monnier, misunderstood in France and gone away to create AltaVista in the Nineties in the USA. French companies as Exalead are themselves the heiresses of this adventure of the search engines. But obviously the question is not put any more about the only scientific or technological ground. The economic and social critical mass of Google obliges to consider other ways, to reconsider the problems of reference.
On the one hand, in 10 years month, the Web developed considerably in the socialization which one awaited from him. In addition, this socialization developed in the virtuality which dice the origin characterized the data-processing communication.
Initially, Google is indeed on the way to reach the limits of what makes its force. The model of “democratic notoriety” which is at the bottom of the algorithm, the relevance correlated with the audience, is a model on the way to be vitiated. The notoriety of information, the number of bonds which point on this one, can be only an indication of its shared value, not of its intrinsic value. To be largely quoted (and to largely quote!) in much of fields of rationality, can as much be the sign of a land interest that of a passion of mode. Admittedly a very quoted scientific article can be supposed more relevant than a little quoted article. But on the margins, the reverse is quite as true: a really innovative article largely misunderstood, will be forsaken during a given time, like were it, at their time the theories of the thermodynamics of Sadi Carnot or the genetics of Mendel.
Questions of “trust”…
Obviously, Internet is other thing that a scientific space of publication, and the sex, the play the business and the rumour reign there massively. But precisely, if any aesthetic or cultural creation is also marginalized, crushed, - whatever the advanced libertarian justifications if the information of quality is levelled by the free press and the free access, it is the sign which the algorithm of Google does not manage to be other thing only one thermometer of the common opinion. For a market of mass and entertainement, it is quite sufficient. To sit a cognitive and heuristic hegemony (to locate itself in the expansion of the network), that is not it any more. The company of Mountain View had well considering, while have just deposited the concept of “Ranking Trust” (row of confidence), which should replace that of Ranking Page, to classify, filter and treat on a hierarchical basis knowledge. This indexing would then return to the capacity to place indices of confidence (of checking,of authority, of authentification) in addition to the indices of notoriety already used. One suspects well that it is as much for economic and financial reasons that cognitive or ethics that this need for “confidence” is essential from now on in the search for information.
On the other hand, it is certain that it is neither simple nor feasible to thus allot such “indices of confidence”. That supposes to classify sites and contents of references, encyclopaedic or ontological step rather foreign to the culture of Google. But especially, difficulty because Internet is not a static library, where the preserved documents would wait until one read them. These is a universe which at every moment becomes deformed, develops, pushes rhizomes, erases, cuts off, adds, cutting and binds images, texts, data and calculations in any direction.
In a way, Google runs up against what proves to be the principal characteristic of the Internet: information swells where it sensitive, is discussed, culturally, politically: from which does the climatic reheating come? Who killed Habyarimana on April 6, 1994 in Rwanda? How spreads the Avian flu? Which are the causes and effects of September 11? etc In that sense, the “Multiverse” that is Internet makes the echo of the enigmas and controversies of the century. Even if one can also there find the receipt of the Tatin tart or buy a car…
As much to say that on the matter, the reference to “thirds of confidence” (of the academic institutions, governments, large media, etc…) can be only one partial answer, their function (and their capacity) not being able to slice or solve such plentiful controversies. This intrinsic limit of Google, as Gaston Bachelard had already supposed it, must be found side of the direction even of what one names “to seek”, activity which goes from the search of the schedule of one train to the ultimate metaphysical question: “When one does not know what one seeks, one does not understand what one finds”.
In addition, Internet has rediscovered (what one pretends to call the Web 2.0), which the indexing which governs the effectiveness of the search for information also could, and more judiciously to be required as regards prescriber or appraiser of the information which themselves are the Net surfers. A marking or free labelling of any preconceived information the contextualise more surely than any semantic or logical categorization of an encyclopaedic nature. The world is not a directory arranged hierarchically, but if I identify, by rather effective chains of locations the communities which index such or such knowledge, this social location will be qualitatively of a rare effectiveness. No one is not then need for a thesaurus closed, terms of “authority”, intangible, to mark knowledge. A “cloud” of tags, marks, are enough to locate the social “folksonomies”, ontologies which do not cease being formed and to become deformed in the universe of the network according to the communities of interest. The blogosphère, by its leading capacities channeling flows of information, “syndicating” the networks of contents, mutualising the sets of themes, is the type even of this increased dynamic socialization that only Internet is able to give birth to.
There is extremely to bet however that these logics, so promising are they will not be able to exceed the creation “of ontologies regional”, partial, and to bring only one answer limited in the search of “confidence” like search key of the future. The semantic Web, promoted by Tim Berners Lee, encounters another type of constraint, a logical nature. Internet, like automat, needs to compose the units of information located on the Web, for example, within causal continuations as to enrich information, to produce it in its complexity. In fact, as long as one sails in a space thematically, ontologically, homogeneous (medicine for example, or vine growing, etc) nothing forbids logical operators to extract from the contents published of various origins to logically rebuild them in response to a given request.
A crossing of the semantic Web, with the logical direction, and social markings in term of “foksonomy” is possible? It is one of the fields open in data-processing and documentary research current.
For a virtual engine!
But it is in a very different direction and much more promising than one is foreseeing the future of the search engines. Paradoxically, it is not towards a rational, logical reduction (and at the ethical bottom of rigour) which it is necessary to move. But rather towards an amplification of what is the lacking even Internet, its virtuality. In reality, Internet concerns an industrial production and a division of the labour of creation of contents of an anarchistic richness without equal. Why not leave from what not only allows, but promotes this virtual creation, a priori out of the fields of “verifiable” (would be this only by the anonymity of the misadventures). One remembers this drawing of Steiner in 1993 “On Internet, Nobody knows you are a doge”. Potentially, dice the origin of the Web, all one each one can become creator, or at least transformer of contents, so that the “informational reality” of the material supports is now completely exceeded, subjugated, by the virtual profusion of the contents. Plays like Second Life, by ambiguity which they maintain between reality and fiction, the second amplifying the possibilities of the first, show the way. Required “confidence” has direction only if it confronts with the virtual universes, qualified rightly “persistent universes”, only sufficiently broad and stable reference to evaluate gradually and perennialize information. Precisely because the universes of the play in network are not necessarily related on time and space (it is possible to teleport); because they introduce a “play of the world” where all seems possible, then they allow, almost by excess where Google runs up by defect, to imagine the search engines of the future.
The banner page of the Web of tomorrow will be the entry in a play like Second Life. In reality, “the data base of our intentionnalities” will include “logically” also our dreams, our desires of knowledge in extreme cases, while mobilizing “virtual communities” to reach gradually the object even of the request. “Reality” will be a subset of a broader universe, “virtual”, where the apparently prohibited or forced possibilities “current” reality will open, like socially testing their to become. The controversy is not locked up any more in what makes it enigmatic. It is spread in as many assumptions as this new Web can produce some, starting from the contents themselves produced by each virtual resident. etc The small one limps of request of Google will become a true initiatory voyage, ...where it will be also possible to find the receipt of the Tatin tart or to buy a car.
More seriously, the virtualisation of information should be indeed a response to the lack of “confidence” which weakens the access and navigation within Internet currently: it is while being confronted with the various “worlds possible” which information is carrying that its value can to him be restored, cognitive, aesthetic, ethical, therefore its value of confidence. Arestrictive vision, authoritative, academic, a “checking” one, is not surely any more setting. In do fact need we really “to check” information, knowledge, the facts, by a vain reduction with reality, or need the “virtualiser”, to learn to us from what is large this “reality”? Go Misters Schmidt, Page and Brint, still an effort! After the PageRanking and the TrustRanking, here is DreamRanking! After having repurchased YouTube 1,65 billion dollar, how much (maybe in LindenDollars) are you able to invest in the repurchase of Second Life?
Yannick Maignien
Aix en Provence 11 december
Rédigé à 13:28 dans (h)Euristique | Lien permanent | Commentaires (1) | TrackBack (0)
Plus de 80% des internautes utilisent les moteurs de recherche comme porte d’entrée sur Internet, et parmi ceux-ci une immense majorité utilise Google. Ce moteur de recherche, en moins de 10 ans d’existence, s’est imposé par la pertinence des réponses apportées aux requêtes posées. Mais la recherche d’informations comme accès à la diversité des contenus du Web et des Blogs montre déjà ses limites et Google est engagé dans une diversité effrénée de services pour assurer son développement. Mais ce sont les conditions de navigation dans Internet qui seront alors à repenser.
Là où les moteurs linguistiques indexaient et recherchaient des mots-clés, indice de contenus, Google, on le sait module fortement cette indexation par le « Page Ranking », l’audience ou la notoriété d’un site, mesurées en fonction du nombre de liens qui pointent sur ce site. En un sens Google, comme les modèles scientométriques de citations («Qui cite qui ? Qui est cité par qui ? ») postule que la qualité d’un contenu est fonction de l’intérêt qu’il suscite. En moins de 10 ans, Google a fait de cet algorithme la base d’un pouvoir économique sans égal, (près de 100 milliards de dollars de capitalisation boursière) lui permettant d’élargir ses services à la connaissance géographique (Google Earth), et donc, potentiellement avec tous les couplages de géolocalisation ( GPS,…), au contenu des livres numérisés et des bibliothèques (Google Book) , aux images vidéo auto-produites (YouTube ) aux Blogs (GoogleBlog), à la messagerie et la correspondance privée( Gmail), à la presse (Google News), etc.
Tout ceci est connu. Ce qui l’est moins est que cette puissance économique, au fond captant la notoriété, la doxa, l’opinion croissante entourant toute information, repose sur le modèle d’élection publicitaire, de façon beaucoup plus sophistiquée qu’aucun média ne l’avait fait à ce jour. Comme le dit John Batelle [1], l’indexation à laquelle procède Google n’est pas seulement celle des sites et pages visités et accumulés par les robots d’un immense réseau d’ordinateurs. C’est aussi et d’abord la constitution de « la base de données de nos intentionnalités ». Chacun de nos milliards de clics qui chaque mois recherche de l’information, de la connaissance, des loisirs, des opportunités économiques commerciales ou financières, est répertorié et indexé. C’est cette « base de données » de nos recherches, besoins, envies, désirs de toutes natures qui est « vendue » automatiquement aux annonceurs, ciblant en retour toute proposition commerciale au plus près des requêtes sociales ou culturelles des Internautes.
Qu’un grand projet franco-allemand, Quaero, soit en route pour concurrencer Google, on ne peut que s’en réjouir. Les compétences linguistiques, statistiques des chercheurs européens sont sans doute aussi bonnes que celles de Larry Page et Sergei Brin, les créateurs de Google, en 1997. Après tout, ceux-ci s’étaient largement nourris de l’expérience de Louis Monnier, incompris en France et parti créer AltaVista dans les années 90 aux USA. Des sociétés françaises comme Exalead sont elles-mêmes les héritières de cette aventure des moteurs de recherche. Mais à l’évidence la question n’est plus posée sur le seul terrain scientifique ou technologique. La masse critique économique et sociale de Google oblige à considérer d’autres voies, à repenser la problématique de référence.
D’une part, en mois de 10 ans, le Web s’est considérablement développé dans la socialisation qu’on attendait de lui. D’autre part, cette socialisation s’est développée dans la virtualité qui dés l’origine caractérisait la communication informatique.
En premier lieu, Google est en effet en passe d’atteindre les limites de ce qui fait sa force. Le modèle de « notoriété démocratique » qui est au fond de l’algorithme, la pertinence corrélée à l’audience, est un modèle en passe de se vicier. La notoriété de l’information, le nombre de liens qui pointent sur celle-ci, ne peut être que l’indice de sa valeur partagée, non de sa valeur intrinsèque. Être largement cité (et citer largement !) dans beaucoup de domaines de rationalité, peut autant être le signe d’un intérêt foncier que d’un engouement de mode. Certes un article scientifique très cité peut être supposé plus pertinent qu’un article peu cité. Mais aux marges, l’inverse est tout aussi vrai : un article réellement novateur sera largement incompris, délaissé pendant un temps donné, comme l’ont été, à leur époque les théories de la thermodynamique de Sadi Carnot ou la génétique de Mendel.
Questions de "confiance"
Certes, Internet est autre chose qu’un espace de publication scientifique, et le sexe, le jeu le business et la rumeur y règnent massivement. Mais justement, si toute création esthétique ou culturelle se trouve également marginalisée, broyée, - quelles que soient les justifications libertaires avancées- si l’information de qualité se trouve nivelée par la presse gratuite et l’accès libre, c’est le signe que l’algorithme de Google ne parvient pas à être autre chose qu’un thermomètre de l’opinion commune. Pour un marché de masse et d’entertainement, c’est bien suffisant. Pour asseoir une hégémonie cognitive et heuristique (se repérer dans le foisonnement du réseau), ça ne l’est plus. L’entreprise de Mountain View l’a bien vu, en venant de déposer la notion de « Trust Ranking » (rang de confiance) , qui devrait remplacer celle de Page Ranking, pour classer, filtrer et hiérarchiser les connaissances. Cette indexation renverrait alors à la capacité de placer des indices de confiance (de vérification, d’authentification) en plus des indices de notoriété déjà utilisés. On se doute bien que c’est autant pour des raisons économiques et financières que cognitives ou éthiques que ce besoin de « confiance » s’impose désormais dans la recherche d’information.
D’une part, il n’est pas certain que ce soit ni simple ni faisable d’attribuer ainsi de tels « indices de confiance ». Cela suppose de classer des sites et des contenus de références, démarche encyclopédique ou ontologique assez étrangère à la culture de Google. Mais surtout, difficulté parce qu’Internet n’est pas une bibliothèque statique, où les documents conservés attendraient qu’on les lisent. C’est un univers qui à chaque instant se déforme, se développe, pousse des rhizomes, efface, retranche, ajoute, bouture et lie des images, textes, données et calculs en tout sens.
Au fond, Google se heurte à ce qui se révèle être la caractéristique principale de l’Internet : l’information s’enfle là où elle est sensible, controversée, culturellement, politiquement : d’où vient le réchauffement climatique ? Qui a tué Habyarimana le 6 avril 1994 au Rwanda ? Comment se répand la Grippe aviaire ? Quels sont les causes et effets du 11 septembre ? etc. Au fond, le « Multiverse » qu’est Internet se fait l’écho des énigmes et controverses du siècle. Même si on peut aussi y trouver la recette de la tarte Tatin ou acheter une voiture…
Autant dire qu’en la matière, la référence à des « tiers de confiance » (des institutions académiques, des gouvernements, des grands média, etc…) ne peut être qu’une réponse partielle, leur fonction (et leur pouvoir) ne pouvant trancher ou résoudre des controverses aussi foisonnantes.
Cette limite intrinsèque de Google, au fond Bachelard l’avait déjà supposé, doit être trouvée du côté du sens même de ce qu’on nomme « chercher », activité qui va de la quête de l’horaire d’un train à la question métaphysique ultime : « Quand on ne sait pas ce qu’on cherche, on ne comprend pas ce qu’on trouve »
D’autre part, Internet a re-découvert (ce qu’on feint d’appeler le Web 2.0), que l’indexation qui préside à l’efficacité de la recherche d’information pouvait aussi, et plus judicieusement être recherchée du côté des prescripteurs ou évaluateurs de l’information que sont les internautes eux-mêmes. Un marquage ou étiquetage libre de toute information pré-conçue la contextualise plus sûrement que toute catégorisation sémantique ou logique d’ordre encyclopédique. Le monde n’est pas un annuaire hiérarchisé, mais si j’identifie, par des chaînes de repérages assez efficaces les communautés qui indexent telle ou telle connaissance, ce repérage social sera qualitativement d’une rare efficacité. Nul n’est alors besoin d’un thesaurus fermé, de termes d’ « autorité », intangible, pour marquer les connaissances. Un « nuage » de tags, de marques, suffit à repérer les « folksonomies », les ontologies sociales qui ne cessent de se former et de se déformer dans l’univers du réseau en fonction des communautés d’intérêt. La blogosphère, par ses capacités éditoriales canalisant les flux d’informations, « syndicant » les réseaux de contenus, mutualisant les thématiques, est le type même de cette socialisation dynamique accrue que seul Internet est capable de faire naître.
Il y a fort à parier cependant que ces logiques, aussi prometteuses soient-elles ne pourront dépasser la création « d’ontologies régionales », partielles, et n’apporter qu’une réponse limitée à la recherche de « confiance » comme clé de la recherche du futur. Le Web sémantique, promu par Tims Berners Lee, se heurte à un autre type de contrainte, d’ordre logique. Internet, comme automate, a besoin de composer les unités d’information repérées sur le Web, par exemple, au sein de suites causales propre à enrichir l’information, à la produire dans sa complexité. De fait, tant que l’on navigue dans un espace thématiquement, ontologiquement, homogène (la médecine par exemple, ou la viticulture, etc.) rien n’interdit à des opérateurs logiques d’extraire des contenus édités d’origines diverses pour les reconstruire logiquement en réponse à une requête donnée.
Un croisement du Web sémantique, au sens logique, et des marquages sociaux en terme de « foksonomie » est-il possible ? C’est un des domaines ouvert dans la recherche informatique et documentaire actuelle.
Pour un moteur virtuel !
Mais c’est dans un sens très différent et beaucoup plus prometteur qu’on est en train d’entrevoir le futur des moteurs de recherche. Paradoxalement, ce n’est pas vers une réduction rationnelle, logique (et au fond de rigueur éthique) qu’il faille se diriger. Mais plutôt vers une amplification de ce qui fait le défaut même d’Internet, sa virtualité. Au fond, Internet relève d’une production industrielle et d’une division du travail de création de contenus d’une richesse anarchique sans égale. Pourquoi ne pas partir de ce qui non seulement permet, mais promeut cette création virtuelle, a priori hors du champs du « vérifiable » (ne serait-ce que par l’anonymat des avatars). On se souvient de ce dessin de Steiner en 1993 « On Internet, Nobody knows you are a dog ». Potentiellement, dés l’origine du Web, tout un chacun peut devenir créateur, ou du moins transformateur de contenu, de telle sorte que la « réalité informationnelle » des supports matériels se trouve maintenant totalement dépassée, subjuguée, par la profusion virtuelle des contenus. Des jeux comme Second Life, par l’ambiguïté qu’ils entretiennent entre réalité et fiction, la seconde amplifiant les possibilités de la première, montrent le chemin. La « confiance » recherchée n’a de sens que si elle se confronte aux univers virtuels, qualifiés à juste titre d’ « univers persistants », seule référence suffisamment large et stable pour évaluer progressivement et pérenniser des informations. Justement parce que les univers du jeu en réseau ne sont pas nécessairement liés au temps et à l’espace (il est possible de se téléporter) ; parce qu’ils introduisent un « jeu du monde » où tout semble possible, alors ils permettent, presque par excès là où Google se heurte par défaut, d’imaginer les moteurs de recherche du futur.
La page d’accueil du Web de demain sera l’entrée dans un jeu comme Second Life. Au fond, « la base de données de nos intentionnalités » incluera « logiquement » aussi nos rêves, nos désirs de connaissance aux limites, tout en mobilisant des « communautés virtuelles » pour accéder petit à petit à l’objet même de la requête. Le « réel » sera un sous ensemble d’un univers plus large, « virtuel », où les possibilités apparemment interdites ou contraintes du réel « actuel » s’ouvriront, comme pour expérimenter socialement leur devenir. La controverse n’est plus enfermée dans ce qui la rend énigmatique. Elle se déploie dans autant d’hypothèses que ce nouveau Web peut en produire, à partir des contenus eux-mêmes produits par chaque résident virtuel. etc. La petite boite de requête de Google deviendra un véritable voyage initiatique, ...où il sera aussi possible de trouver la recette de la tarte Tatin ou d’acheter une voiture.
Plus sérieusement, la virtualisation de l’information devrait être en effet une réponse au manque de « confiance » qui fragilise l’accès et la navigation au sein d’Internet actuellement : c’est en se confrontant aux divers « mondes possibles » dont l’information est porteuse que peut lui être restituée sa valeur, cognitive, esthétique, éthique, donc sa valeur de confiance. Une vision restrictive, autoritaire, académique, de la « vérification » n’est sûrement plus de mise. De fait avons nous vraiment besoin de « vérifier » l’information, la connaissance, les faits, par une vaine réduction au réel, ou avons nous besoin de les « virtualiser », pour nous apprendre de quoi est gros ce « réel » ?
Allez MM. Schmidt, Page et Brin, encore un effort ! Après le Page Ranking et le Trust Ranking, voilà le Dream Ranking ! Après avoir racheté You Tube 1,65 milliard de dollars, combien êtes vous capable d’investir dans le rachat de Second Life ?
Aix en Provence 11 décembre 2006
[1] La révolution Google - Comment les moteurs de recherche ont réinventé notre économie et notre culture; J. Battelle - Eyrolles; Juin 2006
Rédigé à 20:28 dans (h)Euristique | Lien permanent | Commentaires (0) | TrackBack (0)
Communication faite lors du Colloque du centenaire de l' Association des Bibliothècaires de France Paris Juillet 2006
« Une des raisons pour
lesquelles il est bon de lire, c’est non pour apprendre et se rappeler, mais
pour ignorer et oublier. De même que les encyclopédies et les bibliothèques, la
fonction principale n’est pas seulement de conserver ce qui valait la peine
d’être gardé en mémoire, mais aussi de filtrer et d’effacer ce qui ne vaut pas
la peine d’être appris ».
Umberto Eco. Interview de la Repubblica. Juin 2006. (trad.
Y.M.)
Non sans avoir de nouveau remercié l’ABF et son Président, Gilles Eboli, de m’avoir invité à participer à votre congrès du Centenaire, je voudrais résumer ici la teneur de mon intervention.
L’essentiel de mon propos consiste à caractériser « l’âge de l’accès », lié à la révolution numérique, et les nouveaux enjeux auxquels sont dés lors confrontés les bibliothèques.
Cet âge de l’accès est caractérisé par trois facteurs :
- Une technologie de la mémoire en croissance exponentielle
- La « reproductibilité de masse »
- L’ubiquité
Mon propose veut montrer qu’au cœur, au croisement de ces trois axes, c’est la notion d’ « Auteur », d’auctorialité qui est profondément modifiée. Les bibliothèques , quelle que soient leur vocations, devront prendre en compte cette mise en cause profonde de l’auctorialité.
Technologie de la mémoire. Une des raisons de l’invitation de Gilles Eboli vient de ma participation aux travaux du rapport mondial de l’Unesco sur les Sociétés de savoir. Ma contribution s’intitulait « Prospective du stockage du savoir et avenir des bibliothèques ». Je vous y renvoie sur le site :d’archives ArchivSic : http://archivesic.ccsd.cnrs.fr/index.php?halsid=902c3779b1372b6725457dd540cbb69a&view_this_doc=sic_00001423&version=1
Un des acquis de cette étude réside dans la nécessité de prendre en compte le découplage entre conservation et accès. On parle dés lors d’ « Ubiquitous storage ». De fait, la Bibliothèque, au sens classique, n’est plus le seul lieu où l’on constitue des « collections » .
Par ailleurs, du côté de ses « publics » la
bibliothèque ne peut plus avoir à faire à son seul « public local ».
Que faire des populations qui migrent dans le monde ? Partent-elles avec
leurs «bibliothèques », leur mémoire ? Accèdent-elles à de
nouvelles bibliothèques de leur « savoir d’accueil » ? Où se fait, s'enregistre le mélange des deux ?
Le « moteur de recherche », comme outil d’identification et de recherche devient la alors même que ses techniques et ses pratiques sont sujets à caution. (Cf. le débat sur le modèle économique et juridique de Google). Autre caractéristique : en acceptant comme telle –globalement, car on sait que des exemptions sont possibles- la distinction entre patrimoine libre de droit (après 70 ans depuis la mort de l’auteur) et accès soumis à autorisation de ayants droits, la Bibliothèque se coupe d’une possibilité de l’ « Open access » en cours, du Savoir comme bien commun de l’humanité.
Le deuxième trait qui stigmatise la perte d’aura de l’auctorialité, c’est la reproductibilité de masse ouverte par le numérique. Là encore, permettez moi (pour aller vite) de renvoyer à un texte de 1995 que vous trouverez sur ArchivSic : “L'oeuvre d'art à l'époque de sa numérisation”, Bull. Bibl. France, N° 46, 1995. Les œuvres sont produites en vue de leur reproductibilité. Pour aller vite, c’est la copie qui fait référence, non plus l’original. Globalement est ouverte une ère où, ce qui fait « autorité, c’est l’audience, la renommée, la réputation (mesurée par le PageRanking chez Google) et non le seule valeur intrinsèque et scientifique des connaissances. On mesure tout l’intérêt social, mais aussi tout le danger de tels fondements de la « référence ». Et les Bibliothèques sont confrontées au premier chef à des savoirs qui seraient d’abord corrélés à leur valeur de fréquence informative, sinon de « propagande » sociale.
Le troisième trait, majeur, est l’avènement de l’ère de l ‘« ubiquité » . Cette notion d’Ubiquitous computing, ou d’« informatique pervasive », est liée à la convergence des télécommunications, des procès informatiques et de la numérisation des contenus. Elle est au centre des interrogations concernant le Web 2.0, tel que Howard Reingold le définit.
Notre table ronde, ne serait-ce que par la présence de Madame Agnès Saal, Directrice générale de la BNF, de la présentation également du projet Quaero, est très orientée vers le devenir des grandes Bibliothèques numériques.
A ce titre, je souhaite m’appuyer sur une page récente du
journal Le Monde du 25 mai a (malicieusement ?) mis sur la même
page un article de Jean-Noel Jeanneney, Président de la Bibliothèque nationale
de France : « Vers la très grande Bibliothèque numérique » ( avec ce sous titre
: « Français au départ, le projet de numérisation du patrimoine écrit
prend de l’ampleur. Pour ne pas laisser la planète à Google ») , et un article
d’Eric Schmidt, PDG de Google Inc. « Internet bouscule toutes les situations
acquises » ( avec ce sous titre : «Réservée jusqu’à présent aux pays riches, la
Toile sera accessible à tous grâce au téléphone portable »).
Malicieuse et intelligente présentation du journal, car on le sait, il y a 16
mois, le journal Le Monde avait publié un article fameux de Jean-Noel
Jeanneney appelant à un sursaut politique national, puis européen, devant la
menace d’hégémonie culturelle du moteur de recherche et de son modèle
économique, s’appuyant sur les effets induits de la publicité associée.
Jean-Noel Jeanneney avait d’ailleurs développé cette argumentation dans un
ouvrage paru le 27 avril 2005 Quand Google défie l’Europe. Plaidoyer pour
un sursaut, chez Mille et une nuit.
La confrontation est donc, un an après, d’autant plus intéressante.
D’une part on peut s’interroger sur la célérité des mesures appelées des vœux
du Président de la BnF. Fort du soutien de la Présidence de la République et
d’un intense lobbying européen et international, les grandes institutions
européennes de conservation, de signalement et de communication des œuvres
physiques (imprimées, cinématographiques, vidéos, musicales ou multimédias)
peinent à mettre en œuvre des plans réels de numérisation de masse, du fait
essentiellement de la complexité et de l’ampleur des négociations financières,
logistiques, normatives et des politiques inter-étatiques,
inter-établissements, qu’il faut réaliser avec l’appui de comités de pilotage
ad hoc. Et ce non seulement pour la numérisation du patrimoine libre de droits,
mais plus encore pour les documents de moins de soixante dix ans couverts
par le droit d’auteur.
L’article de Jean-Noel Jeanneney fait ainsi allusion à l’avènement de ce
portail commun dont le prototype européen sera proposé à l’automne . (On se
rappellera qu’il y a environ deux mois, la Commission européenne avait mandaté
le site hollandais de The Electronique Library pour mener à bien cette
plateforme ; par ailleurs, le Président de la BnF ne fait pas allusion à
Quaero, censé être la réponse européenne au moteur de recherche Google…)
Pendant ce temps, le développement de Google et de ses services a été d’une
grande vigueur, fournissant des accès et des services sur les images, les
cartes, les étoiles, posant ainsi de nombreuses questions éthiques liées aux
libertés et aux manipulations d’accès… bousculant les ayants droits, «
suggérant seulement à ceux-ci, avec effronterie, de protester,- dit le Président
de la BnF- s’ils n’étaient pas contents».
Mais l’essentiel de la mise en regard de ces deux articles nous semble aller
au-delà de ces apparentes (et importantes) différences. Ce qui est surprenant
est de voir combien l’ensemble du texte de Jean-Noel Jeanneney est tributaire
d’une logique de l’offre, combien le texte d’Eric Schmidt, PDG de Google, est
lui inspiré par une logique de l’accès.
Logique et nature de l’offre pour le Président de la BnF. Quantitative :
numériser plus de 100.000 ouvrages supplémentaires en France dés 2007 ;
maîtriser les coûts et les techniques de numérisation ; qualitative : offrir
les types et formats de documents développant Gallica, dont l’indexation doit
être modernisée ; idéologique : assurer la diversité culturelle, se soustraire
à l’hégémonie anglo-saxonne ; assurer notamment l’assise francophone, et non
seulement européenne de cette offre ; juridique enfin : «Faire franchir à la
BNUE la frontière chronologique, fixée à soixante dix ans après la mort des
auteurs, qui coupe en deux notre héritage culturel. »
Du côté de Google et de son patron, rien de tout cela. La seule question
importante aux yeux d’Eric Schmidt, assez en cohérence avec les analyses de
Reingold, est l’élargissement des accès
et de la demande, sur les mêmes bases libertaires qui ont défini et mis en
place le protocole Internet IP au niveau mondial. Certes une offre de 15
millions d’ouvrages sur Internet est donnée comme objectif, mais seulement en
tant que ce seuil est de nature à faire sauter les verrous du contrôle de
l’information, dans les sphères économiques, politiques et cognitives . « Hier
on attendait les nouvelles. Aujourd’hui on sélectionne celles qui nous
intéressent ».
L’information doit devenir une ressources non-rivale, dont l’utilisation (ou la
valorisation) par chacun n’enlève rien à la qualité de l’information disponible
pour autrui.
S’il faut une offre numérisée beaucoup plus ample (celle des bibliothèques, des
médias), c’est parce que la soif de connaissance de la demande ne se satisfait
pas des limites actuelles : 10% seulement de l’information mondiale est
disponible en ligne, et seulement un cinquième de la planète est
connectée à Internet, alors qu’un quart des sujets de requêtes sur Google
concernent des sujets demandés pour la première fois, signe de la vigueur
étonnante de la soif d’accès et d’information.
De plus, pour Schmidt, cette information n’est pas une offre passive, c’est un
accès interactif : un blog par seconde. Aussi en conclut-il très logiquement
que le médium d’accès à Internet ne sera plus le micro-ordinateur, mais sera le
téléphone mobile, le portable.
Là encore, la démocratisation libertaire de l’Internet et des technologies fait
office de rouleau compresseur : la fracture numérique sera résorbée par les
portables, moins onéreux, trois fois plus nombreux que les ordinateurs de
bureaux, et se développant deux fois plus vite ; la Banque mondiale estimant
que plus des deux tiers de la population du globe est desservie par un réseau
de téléphonie mobile, Schmidt de conclure : « Le portable sera le
prochain phénomène technologique majeur ouvrant beaucoup plus largement l’accès
à Internet et ses avantages ».
Cette opposition frontale entre une logique de l’offre et celle de l’accès (qui
certes ont des recoupements) trouve à l’évidence ses origines dans des
présupposés philosophiques, économiques et politiques profonds qui divisent en
effet des visions américaines ( sans doute pas toutes !) et européennes (
du moins celles où une vision française cherche à imposer son volontarisme,
sur fond d’absence de politique communautaire claire).
Au fond, la conception de Google suppose que l’information soit suffisamment et
numériquement abondante pour qu’elle ne se limite plus sur des critères de
rareté de l’offre ou de contrainte de disponibilité juridique, encore moins
freinée par de mauvaises régulations étatiques. Cette conception, au lieu de
penser le numérique dans la continuité des vecteurs culturels
traditionnels, se projette résolument sur la qualité des services et des accès
potentiels et de nouveaux processus de création de valeur ( dont bien sûr la
publicité associée, mais pas seulement).
On a bien là deux logiques difficiles à concilier. Certains avanceront : En
quoi un téléphone portable permettra -t-il l’accès et la lecture de la Comédie
humaine de Balzac ? Est-on bien sûr que la question se pose en ces
termes ? Si les Bibliothèques ont un rôle patrimonial et culturel
incontournables, faut-il faire de celles-ci, aussi important soit leur rôle, le
protagoniste essentiel –sinon unique- de la numérisation de la culture
? Le succès de la récente numérisation et mise en accès des archives de
la télévision par l’INA est instructif à plus d’un titre. Et si l’indexation
fine de la Comédie humaine ouvrait aussi, au XXI ème siècle, sur la
Chine de Dai Sijie et de sa petite tailleuse?
C’est bien aussi du côté du développement des nouveaux services aux publics les
plus divers, des nouvelles formes d’accès pour des missions sociales toujours
plus larges (y compris pour les bibliothèques, lieux sociaux par excellence)
que l’avenir numérique de la culture doit être recherché.
La Bibliothèque numérique européenne, ne devrait-elle pas être aussi (et surtout ?) le réseau de multiples initiatives ( petites et grandes, singulières, différentes, complémentaires) sur tout le territoire de l’Europe des 25 ? C’est à ce titre que l’offre nouvelle de collections numérisées aurait un sens. Et cette structuration européenne et collaborative de la demande ne devrait rien à Google … ! La Ville de Rome, où je travaille actuellement s’est ainsi lancée dans un projet de terrain, (hébergé par le Goethe Institut ) à la fois ambitieux par l’implication de presque toutes les communautés européennes de cette ville , et modeste par les moyens en œuvre.
Si la soif d’accès et de services, y compris tirée par des vecteurs
exponentiels et relationnels comme le téléphone portable, est la variable
majeure, il faut que les industries culturelles adaptent des offres
croissantes, ouvertes et créatives. Et non l’inverse, restreindre l’offre de
peur que des accès incontrôlés en menacent le périmètre actuel de
valorisation.
Chacun sait que les industries culturelles sont actuellement prises dans une
délicate transition pour sortir de ce « double bind ». Mais à cet égard, une
chose est sûre, les services et les logiques mises en oeuvres par Google (et
d’autres opérateurs d’Internet) doivent être étudiés de plus près.
En conclusion, je souhaite souligner combien ces débats sur l’accès, auxquels est confronté la bibliothèque d’aujourd’hui, sont tributaires de la reconstruction d’une nouvelle « auctorialité », d’une nouvelle référence, adéquate à cet univers numérique et collaboratif.
Au fond, cette nouvelle auctorialité est au carrefour d’un nouveau modèle éditorial, permettant la diffusion sans restriction des connaissances (le savoir est un « bien commun de l’humanité ? », voir à ce sujet la position par exemple de Michel Valensi, Directeur des Editions de l’Eclat) ; d’un nouveau modèle lectoriel (les pratiques multimodales d’accès des jeunes à la culture le montrent amplement ; voir à ce titre sur son Blog les positions d’Alain Giffard pour de nouveaux droits du lecteur dans l’univers numérique) ; enfin d’un nouveau modèle bibliothéconomique : il faut que les personnels des bibliothèques s’approprient pleinement ces mutations et en tirent toutes les conséquences pour l’établissement de la bibliothèque du futur, plus collaborative, plus distribuée, plus accessible en tous lieux et sur tous supports.
Parmi ces conséquences, une des tâches majeures à l’avenir sera pour les bibliothèques de « garantir » au sens éthique du terme, la valeur, l’authenticité, l’identité des connaissances mises en réseau. Eric Schmidt souligne cet aspect dans son article : « Hier, on attendait les nouvelles, aujourd’hui, on sélectionne celles qui nous intéressent(…) Les gens (…) veulent contrôler les médias et non plus les subir ».
Comme le disaient déjà D’Alembert et Diderot, constituer des collections encyclopédiques ne va pas sans écarter les « mauvais livres ». Lourde responsabilité. C’est d’ailleurs dans cette fonction d’évaluation de la connaissance qu’on retrouve une des raisons princeps de la constitution des bibliothèques .
Rédigé à 12:28 dans (h)Euristique | Lien permanent | Commentaires (0)
Sous ce titre, l'an dernier, une metteur en scène, m'avait demandé de contribuer par une page de réflexion à ses projets de spectacle de la pièce d'Eugène Durif, "Croisements divagations", travail fait dans le cadre du programme franco-italien TERI, Traduction, édition et publication du théâtre francophone en Italie.
Ce que j'ai fait bien volontier, inspiré par cette photo trouvée dans Gallica et la lecture d'un article du Monde.
Je suis bien sûr pour la plus large utilisation des textes, à leur copier-coller, à condition qu'ils soient "autorisés", c'est à dire simplement, dans une logique de bien commun, que soit reconnue leur origine, justement pour pouvoir contribuer à ce bien d'une communauté d'auteurs... Or, comme ce texte circule anonyme, orphelin ou "approprié".... Comme dirait Molière, le Commandeur n'est pas l'Auteur...Don Juan tient à son statut!
Le Numérique, la Guerre, l’Intime
L’image numérique
dans « Croisements Divagations » d’Eugène Durif .
Le texte de Durif est proprement impossible à monter sur une scène de façon traditionnelle : Pas d’unité ni de cohérence spatio-temporelle. Le parti pris de cette mise en scène est dès lors de privilégier totalement l’art numérique du vidéaste Eric Angels afin de s’affranchir de ces difficultés , même de cette impossibilité des croisements des trois couples qui interviennent sur scène.
Seule l’image , en ce qu’elle capte, mémorise, reproduit à l’infini, projette sur d’autres espaces que l’image d’origine, seule l’image et son traitement numérique, ses focales diverses , parviennent à donner une cohérence que le texte d’emblée s’est interdit, a voulu masquer. Plusieurs des textes présentés ici traitent de la guerre.
L’image est image-mouvement (Deleuze) à partir de laquelle vont se déplacer , se situer les acteurs dans leurs divagations. Elle est aussi image –temps de ces personnages qui divaguent aussi dans leur mémoire, qui sont perdus dans leur repères de souvenirs, dans leur impossibilité de projeter un futur. Aussi l’image. Par ce qu’elle réussit à garder, à transformer au plus près des corps , est ce sur quoi se fixe une projection du spectateur. Elle est ce qui l’accapare totalement, les personnages et leur voix réelle étant une sorte de ballet incohérent comme les sont les prisonniers de la caverne de Platon, où seules les ombres apparaissent vraies.
Mais cette pièce est aussi toute entière sur l’impossibilité de dire la violence, sur l’interdiction totale de la banaliser dans une monstration, un « donné-à-voir » commun.
Le parti pris est
ici, avec le numérique, d’anticiper sur ce que seront les guerres à venir, sur
l’inhumanité nouvelle radicale que le numérique apportera à la violence, et que
ce texte énigmatique de Durif permet de construire.
La guerre, non pas la mise en scène ou l’évocation directe des actes de la guerre ou des histoires de bataille, comme le fait le cinéma de guerre. Mais la recherche de l’expression de ce qui ferait l’essence cachée du conflit, de la violence, en cela que cette essence ne pourrait être représentée, évoquée ou même être dite si elle ne l’était, nommément, par la vie particulière de personnages.
En même temps, ce théâtre contemporain, et pas seulement chez Durif, n’en continue pas moins d’explorer des singularités, des multiplicités, à travers des personnages qui ne se réduisent jamais aux schémas hérités et convenus des « leçons de l’Histoire »
La scène serait alors le lieu interdit, ici et maintenant, où la guerre serait crainte, remémorée, par autant de détours, de distances que de fuites, comme un chemin d’exil, de dévastation, de vide et d’anéantissement. Les personnages parcourent la scène comme Ajac dans Pluie de cendres (de L. Gaudé) rôde dans les ruines, autour d’un trou noir, sentant la mort et cherchant à l’éviter à tout prix.
Dans Tonkin Alger, Eugène Durif fait tourner et s’échanger les couples, comme autour d’un parquet de bal, où les dialogues, les amitiés, les départs imminents, évoquent allusivement, pudiquement, ou au contraire explicitement, l’intervention française en d’Algérie, la torture : Des mots qui la refusent, la soutiennent, la justifient, la condamnent, comme pour en faire transpirer l’odeur morbide.
Dans Les Sacrifiées de Laurent Gaudé, trois générations de femmes algériennes, pendant la guerre d’indépendance puis, jusqu’à la guerre civile, la terreur islamiste et les banlieues, transmettent la malédiction comme une filiation, pour qu’un jour peut-être apparaisse le bonheur et la liberté des femmes.
Par ce théâtre, l’intimité des êtres est ce qui garde en mémoire vivante ce qui justement a été ou est encore puissance d’anéantissement.
De fait le théâtre fait sentir la guerre, comme fait global par ses aspects les plus intimes, locaux, liés à des personnages qui ont des noms, un corps, un lieu, un visage, une grimace.
Et là les corps des acteurs peuvent seuls transmettre cette peur, ce dégoût, ces divergences politiques grosses de toutes les démissions, de toutes les abjections . Seuls les sons physiques des mots, des voix et des cris peuvent trahir cette terreur invisible, cet excès infini au-delà de la mort, qui défini la mort :
« Elle nous a alignés les uns à côté des autres
Et elle nous a tués.
J’ai cru que c’était fini, Mais je me suis trompé.
Cela ne lui suffisait pas « Cendres sur les mains Laurent Gaudé
« J’ai l’âge des déjà morts. Des enterrés nus. Moi qui suis là et qui n’y suis déjà plus » A tous ceux qui Noelle Renaude
« Ceux qui reviennent d’entre les morts parlent juste et droit. Pourquoi personne ne peut plus les entendre ? » Meurtres hors champ Eugène Durif
Le théâtre des
opérations
De ce point de vue, la scène théâtrale serait le lieu où discriminer, invalider, les représentations de la guerre que la presse et les médias ne cessent de nous asséner, pour nous persuader de l’objectivité de l’horreur, au lieu qu’ils ne font ainsi que nous en banaliser l’image bien ou mal cadrée, nous en « reporter » l’apparence pour nous en généraliser abusivement le sens. L’essence de la guerre est d’être mystère, le théâtre est là pour parler de l’histoire impossible du désastre, par le biais de ceux qui en réchappent, désertent, n’y sont pas encore où sont les pauvres émissaires de messages, de désertions, de victimes, de réfugiés ou de faux héros, sont sacrifiés ou marqués à jamais …
On le voit avec Les cendres sur les mains et Pluie de cendres de Laurent Gaudé où nous sommes aussi bien en Tchètchènie qu’en Palestine, ou Les Guerriers de Philippe Minyana
Ce théâtre sera de plus en plus nécessaire, de plus en plus
contemporain. La guerre est en passe de devenir un système généralisé, numérisé
où chaque fantassin, unité, division, appareil va devenir un capteur
directement relié au réseau ; inversement, l’ensemble de la hiérarchie de
« commandement » sera nourrie en temps réel de ses innombrables
« informations » du terrain et de la mort. Comme le montre l’article
de Laurent Zechini « La
révolution de l'espace de bataille » (Le Monde du 09.05.05). «
La guerre en réseaux, le Network Centric Warfare, que les Français traduisent
par
La « déshumanisation » de la guerre est de fait une performance accrue de la violence et de la douleur, totalement évacuée des médias, en même temps qu’entretenue par eux, par leur digitalisation.
Le texte contemporain , avec cette pièce d’Eugène Durif, Croisements Divagations nécessite cette mise en scène du numérique, de l’image mémorisée, gardée, traitée, re-projetée, disloquant le temps et l’espace, pour mieux permettre aux êtres, vivants, sur scène, de « passer à l’acte », totalement mus par des choix irréversibles, partisans, sur le plateau.
Face à la guerre moderne en train d’advenir le théâtre contemporain persiste à dire que la douleur et l’incompréhension restent inscrites dans des corps, des sexes, des espoirs, des enfants, des femmes ou des vieillards, c’est-à-dire des êtres.
PS. Le vidéaste numérique Eric Engels avait fait, Salla Uno, à Rome, dans le cadre de ce spectacle, une remarquable création d'intervention d'images numérisées. La pièce Incroci Derive a été publiée également en italien à cette occasion par Luca Sossella Editore, Roma, traduction d'Anna D'Elia.
La photographie en-tête est tirée du Fonds photographique de la BNF, GALLICA, Geiser, 1892 Algérie.
Rédigé à 11:23 dans Esthétique | Lien permanent | Commentaires (0)
Libération : "Quand de vraies entreprises investissent la vie pour de faux. Second Life, monde parallèle sur le Net, attire désormais des sociétés bien réelles ". 28 août 2006
Christophe Alix, dans "Libération" du 28 août, attire notre attention sur "Second Life" du studio californien linden Lab. Nous sommes au coeur des problématiques soulevées par Mondes Possibles, et preuve en est, du retard des européens sur les capacités des américains à mettre en oeuvre des univers de fiction sur Internet.
Un commentaire de Michel Gensollen, chercheur à l'Ecole supérieure des télécoms, vient souligner l'importance de la création de ces mondes parallèles sur le Net.
Que des sociétés bien réelles viennent occuper l'espace virtuel investi de Second Life par les milliers (579 000) de "résidents" n'est pas étonnant. La publicité, le marketting occupent largement l'univers imaginaire. On le sait depuis au moins Benjamin !
Aussi, dès qu'Internet est capable de donner corps (virtuel, symbolique) à cet univers par le réseau, les sociétés disposent d'un nouveau pouvoir sur les mentalités.
Ce qui est plus nouveau, c'est la marchandisation de ces échanges virtuelles, avec la création d'une monnaie, le Linden Dollar permettant les transactions dans cet espace. Mais comme la gestion des parts d'imaginaire de Second Life n'est pas sans effet sur l'économie réelle, ceci s'exprime par un taux de change (bien réel..) entre dollar et Linden Dollar. Le fétichisme de la marchandise est ici poussé à son extrême. On peut prévoir qu'à terme, l'économie imaginaire devienne centrale, l'économie "réelle", parallèle, tant l'essence du capitalisme est de résider, comme l'indique Gensollen, de plus en plus dans la part informationnelle, immatérielle et/ou de matière grise, de la valeur des biens.
Par transitivité, il serait interessant de savoir combien valent en Euro les Linden Dollar, tant l'économie européenne est faible dans ces investissements imaginaires sur Internet...
Gensollen a raison de souligner cette "convergence entre réel et virtuel , leur porosité croissante, au point que certains présdisent déjà l'effacement de cette frontière".
Il n'y a de fait aucune raison, au contraire, pour que l'économie, au même titre que les relations sentimentales, sexuelles, les jeux de hasard ou la politique, ne viennent se confronter avec l'élaboration, sur le Net , de mondes possibles, du seul fait que ceux-ci ne sont pas (totalement) contradictoires avec les injonctions du "réel" (disons plutôt de l'"actuel"), mais en contraire en exploitent toutes les conséquences logiques, au sens modal du terme. Un monde où les créations des acteurs exploitent ces modalités contrefactuelles.
Là où cela ne fait que déplacer la question ( ...elle bien réelle!), c'est que Second Life suppose que les résidents fassent valoir leur droit de propriété, leur copyright, sur leur création virtuelles....garantie qu'ainsi ce détour ramènera efficacement aux dollars, eux bien sonnants et trébuchants. Il n'y a pas lieu d'admettre cette logique, où Second Life n'est alors plus qu'un avatar amplifié de la jungle capitaliste dans ce qu'elle a de plus sauvage. Gensollen a raison d'indiquer qu'on est plus dans du jeu : "Ce temps passé de création (...) est clairement du temps de travail crèant de la valeurdans les formes numérisées."
Il faut que la problématique des Mondes possibles soit intégralement déplacée au sein du Net, où d'autres sanctions qu'économiques viennent réguler les comportements "socialement persistants", par un développement inouie des possibilités, et non une réduction à un jeu de société bloqué (e), et qui n'aurait même pas l'intérêt de la "gratuité".
Il faut ainsi que dans Second Life on puisse aussi expérimenter d'autres formes non destructrice de production...un altermondialisme militant au sein de Second Life....Beau programme.
Rédigé à 12:03 dans Praxis | Lien permanent | Commentaires (0) | TrackBack (0)
François Schuiten, Benoît Peeters
LES PORTES DU POSSIBLE
Casterman, 2005
Dans le droit fil de l’esprit des Cités Obscures, mais avec un autre angle de vue, Schuiten et Peeters présentent leur nouveau projet : Les Portes du Possible, une manière de « fiction prospective » ou d’« utopie fictionnelle » qui s’ingénie à explorer les conjectures les plus inattendues concernant notre proche futur. L’ouvrage se présente comme une série de vingt sujets (un thème par page, chacune pouvant se lire indépendamment de toutes les autres) et emprunte la forme visuelle d’un « vrai-faux » journal combinant textes et images. Selon les sujets traités au fil des parutions et des rubriques (politique, sport, science, arts, etc.) de ce journal imaginaire, Schuiten et Peeters ont situé leur publication à divers moment du futur (2024, 2030, 2037, etc.), mais toujours dans un avenir « à portée de main ». Au menu des thèmes choisis : les manipulations génétiques, les changements du climat, les nouveaux matériaux, les transports ferroviaires, les rites funéraires, l’évolution de l’Europe, etc.
Ceci est la notice Casterman. Dés que la lecture sera avancée, vous aurez de plus amples commentaires !
Rédigé à 17:22 dans Bibliographie | Lien permanent | Commentaires (0)
Je vous invite à découvrir le dossier sur la Fiction coordonné par Jean-François Dortier dans l'excellente revue "Sciences Humaines" N° 174 d'août septembre 2006.
Jean-François Dortier, par ailleurs rédacteur en chef de la revue, signe un premier article "L'homme descend du songe" dans lequel il rappelle la dette que nous avons en cette matière à l'égard de Borges (Fictions) et ses mélanges ciculaires entre réalité et fiction. Dette d'ailleurs que Borges (la Bibliothèque de Babel) honore envers Leibniz et sa théorie des mondes possibles dans ses Essais de Théodicée (1710) .
De fait, cet article discute des limtes respectives entre fictions et textes référentiels. L'approche est ici celle de Jean-Marie Scheffer (Pourquoi la Fiction ? Seuil 1999) et des auteurs des articles qui complètent ce dossier ; celui d'Alexandre Geffen (Fabula.org) insiste sur le renouvellement des théories de la narration autour de ces notions de fiction et de monde possible dans "Aux frontiéres de la fiction "; celui également de Nancy Murzilli .
L'idée générale est que la fiction, loin de relever de la seule catégorie esthétique de l'imaginaire ou psychologique du "mensonge" , a une profonde valeur heuristique. D'où la référence centrale à la théorie sémantique des mondes possibles.
Un encart rappelle ici la redécouverte de cette notion de mondes possibles vers 1950 par les logiciens de la logique modale Saül Kripke et Jaanko Hintikka. Cet encart , comme l'article de Nancy Murilli , présentent aussi l'approche en terme de réalisme modal du logicien américain David Lewis (dont nous parlons dans ce Blog avec notamment l'oeuvre de Jacques Roubaud).
Pour Lewis ( On the plurality of Worlds, 1986) en effet tous les mondes possibles (comme celui actuel où nous vivons) sont bien réels, et non seulement hypothétiques, théorie provocante s'il en est " Notre monde réel n'est donc qu'un monde possible actualisé" ( Lewis, Couterfactuals, 1973)
Le dossier comprend également un autre article de Jean-François Dortier "Les Lois du merveilleux" explorant le très riches formes du fabuleux, du merveilleux et de l'imaginaire, mais insistant pour montrer que la création et ce pouvoir imaginaire humain ont leurs lois de composition" et ne sont pas "infiniment varié (s)". Un article de Laurent Destot complète cette approche du côté de la Science-Fiction et de la Fantasy, de l'Utopie, der l'Uchronie et des Jeux de rôle.
Enfin un article de Victorine de Villeroy, psychologue, ("Pourquoi sommes-nous si menteurs ? ") souligne l'utilité fictive du mensonge. Il est dommage que cette approche psychologique du mensonge soit ici vue sous le seul aspect de l'intersubjectivité ( pour aller vite entre deux ego) alors que cet éloge du mensonge, "l'erreur utile" , devient sujet à caution dés lors qu'on parle de mensonge d'Etat, de rumeurs ou de manipulation historique. La dimension sociale de la dénégation ou du négationnisme méritait un autre traitement...et met à caution la notion de "mensonge utile". Contrairement à ce que pense Victorine, Kant pourrait bien (transendantalement s'entend) avoir raison.
On retiendra dans ce riche dossier les arguments de Nancy Murilli, membre du GRAPPHIC -groupe de recherches associées sur le pragmatisme et la philosophie contemporaine de l'Université de Provence, avec Jean Piere Cometti- qui détaille la théorie des conditionnels contrefactuels de David Lewis . (En gros , demandons nous , par exemple, ce qui ce serait passé si ...Jospin -ce "désignateur rigide" selon Kripke- avait été élu en 2002 ? ...) ; N. Murzilli au passage y oppose les théses relativistes des "versions de monde" de Nelson Goodman : " La fiction permet de multiplier à l'infini l'expérimentation des possibles, comme autant de points de vue différents sur un aspect des choses, et ce faisant nous apporter une meilleure compréhension du monde. Car le réel n'est jamais qu'une construction dont la fiction édifie certains possibles", conclue Nancy Murzilli,, plus dans le sillage de Goodman que de Lewis.
Il est dommage ( mais ce Blog veut y remédier !) que parmi les structures de la fiction et des mondes possibles n'aie pas été interrogée la forme numérique prise defaçon contemporaine par le truchement d'Internet. Non seulement comme "réalité virtuelle" de la simulation informatique, mais en tant qu'Internet est la construction "rtéelle" au sens de Lewis, d'un (ou d'une infinité de) monde (s) parallèle(s) par la production de sens à laquelle se livrent les millions d'internautes. N'en déplaise à Goodman, Internet est à la fois mot et monde, réalité en perpétuelle "actualisation" ...où le réseau (humain et technique à la fois) joue un rôle toujours plus important.
Reprenons notre exemple : ..."Et si Jospin avait été élu en 2002 ? ..." est une occurence contrefactuelle rencontrée largement sur Internet. En général d'ailleurs, le type de réponse est majoritairement ..."cela n'aurait pas changé grand chose"... Outre que cela a de quoi déculpabiliser les 82% d'électeurs du second tour, cela signifie aussi qu'il est plus dur qu'il n'y paraît d'inventer vraiment de la différence en politique....
Euh! peut-être est-ce justement pour cela que Jospin ( dans l'inconscient politique des électeurs) n'est pas passé au premier tour, ce qui cette fois en dit long sur l'adhésion fondamentale et implicite des foules à la théorie des Mondes possibles de Lewis et sa reconnaissance en Jospin du "désignateur rigide" kripkéen type. (Ceci n'est pas une plaisanterie, la Logique des noms propres de Kripke est aussi une importante réflexion sur la "politique fiction").
Le jour où le Web sémantique (comme je le suggère dans mon article Vérité et Fiction sur Internet) , grâce a un moteur de recherche autrement intelligent que Google, ira chercher des briques d'information dans l'ensemble ( ou dans les ensembles ontologiquementr repérés comme édifiant des mondes) pour construire une réponse adaptée à la requête en jeu ( et donc indépendamment des sites web d'où ces briques seront prélevées....) alors il faudra bien admettre qu'existent per se des mondes possibles qui ne doivent leur existence logique qu'aux opérateurs modaux qui leur auront donné valeur de vérité.
Mais il coulera sans doute encore beaucoup d'eau sous les ponts numériques avant qu'on ne travaille en ce sens....
Rédigé à 19:47 dans (h)Euristique | Lien permanent | Commentaires (0)
BNF / GOOGLE….de l'offre à l'accès !
Le journal Le Monde du 25 mai a (malicieusement ?) mis sur la même page un article de Jean-Noel Jeanneney, Président de la Bibliothèque nationale de France : « Vers la très grande Bibliothèque numérique » ( avec ce sous titre : « Français au départ, le projet de numérisation du patrimoine écrit prend de l’ampleur. Pour ne pas laisser la planète à Google ») , et un article d’Eric Schmidt, PDG de Google Inc. « Internet bouscule toutes les situations acquises » ( avec ce sous titre : « Réservée jusqu’à présent aux pays riches, la Toile sera accessible à tous grâce au téléphone portable »).
Malicieuse et intelligente présentation du journal, car on le sait, il y a 16 mois, le journal Le Monde avait publié un article fameux de Jean-Noel Jeanneney appelant à un sursaut politique national, puis européen, devant la menace d’hégémonie culturelle du moteur de recherche et de son modèle économique, s’appuyant sur les effets induits de la publicité associée.
Jean-Noel Jeanneney avait d’ailleurs développé cette argumentation dans un ouvrage paru le 27 avril 2005 Quand Google défie l’Europe. Plaidoyer pour un sursaut, chez Mille et une nuit.
La confrontation est donc, un an après, d’autant plus intéressante.
D’une part on peut s’interroger sur la célérité des mesures appelées des vœux du Président de la BnF. Fort du soutien de la Présidence de la République et d’un intense lobbying européen et international, les grandes institutions européennes de conservation, de signalement et de communication des œuvres physiques (imprimées, cinématographiques, vidéos, musicales ou multimédias) peinent à mettre en œuvre des plans réels de numérisation de masse, du fait essentiellement de la complexité et de l’ampleur des négociations financières, logistiques, normatives et des politiques interétatiques, inter-établissements, qu’il faut réaliser avec l’appui de comités de pilotage ad hoc. Et ce non seulement pour la numérisation du patrimoine libre de droits, mais plus encore pour les documents de moins de soixante dix ans couverts par le droit d’auteur.
L’article de Jean-Noel Jeanneney fait ainsi allusion à l’avènement de ce portail commun dont le prototype européen sera proposé à l’automne . (On se rappellera qu’il y a environ deux mois, la Commission européenne avait mandaté le site hollandais de The Electronique Library pour mener à bien cette plateforme ; par ailleurs, le Président de la BnF ne fait pas allusion à Quaero, censé être la réponse européenne au moteur de recherche Google…)
Pendant ce temps, le développement de Google et de ses services a été d’une grande vigueur, fournissant des accès et des services sur les images, les cartes, les étoiles, posant ainsi de nombreuses questions éthiques liées aux libertés et aux manipulations d’accès… bousculant les ayants droits, « suggérant seulement à ceux-ci, avec effronterie, de protester,- dit le Président de la BnF- s’ils n’étaient pas contents».
Mais l’essentiel de la mise en regard de ces deux articles nous semble aller au-delà de ces apparentes (et importantes) différences. Ce qui est surprenant est de voir combien l’ensemble du texte de Jean-Noel Jeanneney est tributaire d’une logique de l’offre, combien le texte d’Eric Schmidt, PDG de Google, est lui inspiré par une logique de l’accès.
Logique et nature de l’offre pour le Président de la BnF. Quantitative : numériser plus de 100.000 ouvrages supplémentaires en France dés 2007 ; maîtriser les coûts et les techniques de numérisation ; qualitative : offrir les types et formats de documents développant Gallica, dont l’indexation doit être modernisée ; idéologique : assurer la diversité culturelle, se soustraire à l’hégémonie anglo-saxonne ; assurer notamment l’assise francophone, et non seulement européenne de cette offre ; juridique enfin : «Faire franchir à la BNUE la frontière chronologique, fixée à soixante dix ans après la mort des auteurs, qui coupe en deux notre héritage culturel. »
Du côté de Google et de son patron, rien de tout cela. La seule question importante aux yeux d’Eric Schmidt, est l’élargissement des accès et de la demande, sur les mêmes bases libertaires qui ont défini et mis en place le protocole Internet IP au niveau mondial. Certes une offre de 15 millions d’ouvrages sur Internet est donnée comme objectif, mais seulement en tant que ce seuil est de nature à faire sauter les verrous du contrôle de l’information, dans les sphères économiques, politiques et cognitives . « Hier on attendait les nouvelles. Aujourd’hui on sélectionne celles qui nous intéressent ».
L’information doit devenir une ressources non-rivale, dont l’utilisation (ou la valorisation) par chacun n’enlève rien à la qualité de l’information disponible pour autrui.
S’il faut une offre numérisée beaucoup plus ample (celle des bibliothèques, des médias), c’est parce que la soif de connaissance de la demande ne se satisfait pas des limites actuelles : 10% seulement de l’information mondiale est disponible en ligne, et seulement un cinquième de la planète est connectée à Internet, alors qu’un quart des sujets de requêtes sur Google concernent des sujets demandés pour la première fois, signe de la vigueur étonnante de la soif d’accès et d’information.
De plus, pour Schmidt, cette information n’est pas une offre passive, c’est un accès interactif : un blog par seconde. Aussi en conclut-il très logiquement que le médium d’accès à Internet ne sera plus le micro-ordinateur, mais sera le téléphone mobile, le portable.
Là encore, la démocratisation libertaire de l’Internet et des technologies fait office de rouleau compresseur : la fracture numérique sera résorbée par les portables, moins onéreux, trois fois plus nombreux que les ordinateurs de bureaux, et se développant deux fois plus vite ; la Banque mondiale estimant que plus des deux tiers de la population du globe est desservie par un réseau de téléphonie mobile, Schmidt de conclure : « Le portable sera le prochain phénomène technologique majeur ouvrant beaucoup plus largement l’accès à Internet et ses avantages ».
Cette opposition frontale entre une logique de l’offre et celle de l’accès (qui certes ont des recoupements) trouve à l’évidence ses origines dans des présupposés philosophiques, économiques et politiques profonds qui divisent en effet des visions américaines ( sans doute pas toutes !) et européennes ( du moins celles où une vision française cherche à imposer son volontarisme, sur fond d’absence de politique communautaire claire).
Au fond, la conception de Google suppose que l’information soit suffisamment et numériquement abondante pour qu’elle ne se limite plus sur des critères de rareté de l’offre ou de contrainte de disponibilité juridique, encore moins freinée par de mauvaises régulations étatiques. Cette conception, au lieu de penser le numérique dans la continuité des vecteurs culturels traditionnels, se projette résolument sur la qualité des services et des accès potentiels et de nouveaux processus de création de valeur ( dont bien sûr la publicité associée, mais pas seulement).
On a bien là deux logiques difficiles à concilier. Certains avanceront : En quoi un téléphone portable permettra -t-il l’accès et la lecture de la Comédie humaine de Balzac ? Est-on bien sûr que la question se pose en ces termes ? Si les Bibliothèques ont un rôle patrimonial et culturel incontournables, faut-il faire de celles-ci, aussi important soit leur rôle, le protagoniste essentiel –sinon unique- de la numérisation de la culture ? Le succès de la récente numérisation et mise en accès des archives de la télévision par l’INA est instructif à plus d’un titre. Et si l’indexation fine de la Comédie humaine ouvrait aussi, au XXI ème siècle , sur la Chine de Dai Sijie et de sa petite tailleuse?
C’est bien aussi du côté du développement des nouveaux services aux publics les plus divers, des nouvelles formes d’accès pour des missions sociales toujours plus larges (y compris pour les bibliothèques, lieux sociaux par excellence) que l’avenir numérique de la culture doit être recherché.
Si la soif d’accès et de services, y compris tirée par des vecteurs exponentiels et relationnels comme le téléphone portable, est la variable majeure, il faut que les industries culturelles adaptent des offres croissantes, ouvertes et créatives. Et non l’inverse, restreindre l’offre de peur que des accès incontrôlés en menacent le périmètre actuel de valorisation.
Chacun sait que les industries culturelles sont actuellement prises dans une délicate transition pour sortir de ce « double bind ». Mais à cet égard, une chose est sûre, les services et les logiques mises en oeuvres par Google (et d’autres opérateurs d’Internet) doivent être étudiés de plus près.
Rédigé à 19:48 dans Praxis | Lien permanent | Commentaires (0)
Jeudi 11 mai 2006, au siège de l'Association de la Presse étrangère, à Rome, Via dell'Umiltà, 83/c, Giuliano Amato présentait son livre "Un altro mondo è possibile ?" publié chez Arnaldo Mondadori Editore, en avril 2006.
G. Amato, aujourd'hui sénateur de centre gauche , à l'Ulivo, a écrit ce livre avec Lucia Pozzi, rédactrice en chef du quotidien "Il Messagero". Elle est spécialiste d'économie et de politique européenne, mais aussi de l'évolution de la Chine contemporaine.
G. Amato a été Ministre des Finances, Président du Conseil et Vice Président de la Convention pour le Futur de l'Europe, qui a proposé le texte de la récente Constitution européenne.
Cette présentation, sur laquelle nous reviendrons, a été coordonnée par le journaliste de La Repubblica Corrado Augias, et a vu les interventions successives de'Umberto Eco, de Miriam Mafai, et d'Umberto Veronesi.
La couverture porte cette mention : A la demande "Un autre monde est-il possible ?" nous devons répondre "Oui", pour notre bien et pour celui des générations futures...Ce livre se veut un "Glossaire essentiel du vingt et unième siècle", où Amatao s'interroge sur la nécessité et la possibilité de construire un monde meilleur, où il y aurait moins de places pour les menaces globales (armes de destruction massives, changements climatiques, terrorisme international).
La thèse d'Amato est au final optimiste (optimisme que ne partage pas Umberto Eco dans le débat), à condition que la responsabilité de chacun soit engagée.
Amato, dans sa présentation, a précisé que la demande (pas les réponses!) des altermondialistes du "Social Forum" , notamment des jeunes de Gènes, était à l'origine de ce livre...Une formule : Si la demande en est révolutionnaire, la réponse doit en être réformiste. Dont acte.
Sans préjuger de la lecture (trés vite !) de ce livre à peine sorti, donnons pour l'instant la table des matières :
1. Un monde plus grand : Menaces globales. Science. Global et Glocal. Occident. Orient. Afrique;
2. La part de l'économie : Abondance et rareté. Revenu. Recherche. Santé. Justice. Web. Non lucratif (et service ssociaux).
3. La part de la culture : Pensées et attentes. Jugements et préjugés. Idéologie. Egémonie. Fiscontinuité. Identité. Sécurité et liberté. Bonheur.
4. La part de chacun : Ethique et valeurs. Morale. Religion. Relativisme. Laïcité. Rêves. Rêves de femme.
5. La part dela politique : Mettre les morceaux ensembles. Confiance. Leadership. Réformistes. Neoconservateurs. Populistes. Elites et lobbies. Les autres.
Bon, ça sent son programme électoral (...on imagine cependant que le livre a été écrit AVANT la courte victoire de l'Union de Prodi!) . Restera, à la lecture du contenu, à voir si cela résiste et est bien à la hauteur du projet annoncé dans la préface : inaugurer une sorte d'encyclopédie (la Treccani du vocabulaire alternatif ! ). Au moins, G. Amato vous invite à y contribuer, (une oeuvre ouverte...) en donnant son adresse mail : [email protected]
Allez, lecteurs, un autre monde est possible : celui que vous allez écrire à la lecture de celui-ci.
Critique à venir.
Rédigé à 15:03 dans Actualité | Lien permanent | Commentaires (0) | TrackBack (0)
Sur l'invitation de Cécile Mainardi et de Joseph Mouton, j'ai donné une conférence "Les Mondes possibles d'Internet" à l'Ecole d'art de la Villa Arson le 10 février 2005. Joseph Mouton a bien voulu rendre compte de certains aspects de cette conférence dans son texte "Fortune des noms anonymes", paru dans le recueil Fresh théorie , aux éditions Léo Scheer, 2005, sous la direction de Mark Alizart et Christophe Kihm.
Que Joseph Mouton soit remercié de cette référence, certes exigeante, quand il avance : "les "appels à artistes" auxquels il <Y.M.> se livrait n'avaient pas beaucoup de sens venant de la part d'un homme qui ne possédait lui-même aucune autorité artistique"....J'espère que ce Blog permettra à l'avenir d'enrichir ce type de débat, y compris avec l'intervention d'amis Netartistes, comme Jean-Pierre Balpe, Christophe Bruno, Gregory Chatonsky ou Tamara lai....
Mais laissons la parole à Joseph Mouton:
"Les noms anonymes et l'idéologie
Yannick Maignien, qui a été l'instigateur de la numérisation de la Bibliothèque Nationale de France et y a travaillé effectivement, donnait récemment une conférence à la Villa Arson à propos d'Internet. Il insistait beaucoup sur la dimenesion de fiction et d'incertitude liée à cette technologie de la communication. Il s'étonnait que les artistes aient jusqu'ici fait montre de timidité dans ce domaine fondamental : pourquoi si peu ont essayé de fabriquer des mondes fictifs sur la toile ? Pourquoi rencontre-t-on si rarement des formes qui jouent sur le caractère invérifiable des informations, des narrations et des identités fournies par ce canal? Il aurait fallu, en somme, selon lui, se servir de la quasi disparition de la référence (un des traits les plus fascinants du Réseau), comme d'un matériau ou d'une incitation pour une activité cyber-artistique. Or, quoique le conférencier Maignien se soit montré très persuasif au plan de la culture (notamment en plaçant sa réflexion sous le patronage de Leibniz et des Mondes possibles), il ne laissait cependant d'apparaître en porte-à-faux ; car les "appels à artistes" auxquels il se livrait n'avaient pas beaucoup de sens venant de la part d'un homme qui ne possédait lui-même aucune autorité artistique. Sans doute aurait-il été plus réaliste d'un point de vue intellectuel de chercher des raisons au fait que la "vérifiction" que ne cesse de tramer, soi-disant, la Toile dans son sein n'intéresse pas les artistes d'une façon significative. En réalité, il me semble que l'idée d'un univers sans fond, parce que entièrement sui-référentiel (malgré -ou à cause de- sa très grande complexité) se ramène aisément à un motif idéologique : celui de la disparition heureuse de la réalité (avec toutes les contradictions, les impossibilités, les catastrophes, les combats et les espoirs qu'elle charrie dans son cours). A cet égard, on peut interpréter de deux façons la classe des noms anonymes : soit l'on constate, comme je l'ai fait, qu'en un point, la précision numérique qui appartient à l'ordre de la lettre (et par là à l'ordre du symbolique) tend par sa spécialisation même à quitter sa valeur symbolique initiale pour se mettre à flotter (par exemple en d'innombrables menus) ; soit l'on suppose que le quantum symbolique perdu est compensé par l'imaginaire tel que le fournit la Toile dans son ensemble, dont le centre est partout et la circonférence nulle part; auquel cas il ne faut plus parler de noms anonymes, mais plutôt de noms de fiction, ou pour mieux dire de pseudonymes. A l'évidence, cette seconde perspective offre à de nombreuses personnes matière à jubiler.
J'abrège l'argumentation : longtemps le concept de fiction s'est trouvé opposé à celui de réalité. Mais - corollairement, semble-t-il, avec le développeement de théories enthousiastes du Net - est apparu un nouveau concept de fiction, qui signifierait plutôt un régime d'incertitude (voire d'indifférence) quand à savoir le rapport que ses termes entretiennent avec la fiction (au sens classique du terme) aussi bien qu'avec la réalité. Il me suffira ici de noter que la diffèrence idéologique entre la fiction classique et cette méta-fiction réside dans le fait que celle-là permet encore de se référer à la réalité, alors que celle-ci ne peut plus référer qu'à du possible, au sens de n'importe quoi.
Quans à savoir pourquoi les artistes ne se bousculent pas pour organiser des pseudo-vies parmi les blogs, les sites, les chats, et les cookies, je hasarderais que c'est à cause du principe de réalité (dont Freud a finement suggéré qu'il était le principe de plaisir, juste transformé par la prise en compte de la suite du temps). Et il est vrai que ces sortes d'entreprises exigent une grande ténacité et beaucoup de technique pour un résultat qui n'a rien d'évident : cela fait réfléchir. "
Publié avec l'aimable autorisation des Editions Léo Scheer et de Joseph Mouton. Droits réservés .
Comme je l'indiquais dans cette conférence, citant N. Goodman :
“Ce que nous confondons avec le monde réel n’est qu’une description particulière de celui-ci. Et ce que nous prenons pour des mondes possibles ne sont que des descriptions également vraies, énoncées en d’autre termes. Nous en venons à penser le monde réel comme l’un des mondes possibles. Nous devons renverser notre vision du monde, car tous les mondes possibles font partie du monde réel”. Nelson Goodman Fact, Fiction and Forecast p. 74
Rédigé à 08:02 dans Esthétique | Lien permanent | Commentaires (1)
internet est d'abord une fabuleuse aventure logicielle, marquée
par l'ùniversalité d'un standard « ouvert[1]
» de structuration et de liens de documents (l'hypertexte) à l'échelle
planétaire, grâce aux réseaux de communication, liaisons donc indifférentes
aux distances ainsi qu'au temps.
C'est ensuite une entreprise de « réécriture » de
notre patrimoine documentaire, qui détient un pouvoir tel que les formes
connues de l’organisation et de la production de ce patrimoine sont à repenser
de manière radicale. Au centre de cette remise en cause, d'une ampleur
intellectuelle inédite, se trouve l'auteur, dont le statut paraissait moralement,
intellectuellement, économiquement et juridiquement bien établi, au terme d'une
longue histoire culturelle, notamment de l'imprimé. L'interrogation que nous
formulons est de savoir si cette « refondation » est subie ou si elle peut
aussi, comme nous le croyons, être l'ouverture de nouveaux horizons culturels.
C'est à la mesure de ces bouleversements que les « éditeurs », producteurs et
médiateurs de ces nouvelles formes devront définir leurs missions futures.
Internet, c'est enfin, au moins potentiellement, une reformulation économique de toutes les activités et des relations humaines, dont nous ne commençons qu'à entrevoir le dynamisme. Ce n'est pas seulement en raison de l'importance des capitaux mis en jeu, ou du fait que les secteurs de l'informatique, des télécommunications et des services « en ligne » deviennent la pierre angulaire de la « nouvelle économie ». Plus profondément, la raison de ce dynamisme de long terme -c'est la thèse que nous défendrons - réside en ce que le numérique est une forme plus adéquate au capitalisme contemporain qu'aucun autre continent technique abordé, exploré et absorbé avant lui. Cette adéquation au capital dans ses formes les plus achevées signifie évidemment que la loi de la valeur trouverait sa pleine expression précisément par cette capacité de mondialiser, d'universaliser et de tisser la « toile de fond » d'une nouvelle ère sociale et culturelle. Il n'y a là aucune apologie de l'« idéologie technique », mais au contraire une occasion de penser une configuration des techniques, des formes de division contemporaine du travail, ainsi que des productions intellectuelles que ce « système » nouveau va permettre.
Penser
cela est bien sûr difficile sinon impossible pour l'heure, au risque de
construire une fiction théorique séduisante mais impuissante à
conceptualiser un monde qui se déliterait, tiraillé et écartelé en ces
différentes composantes signifiantes, techniques et économiques. Comment
cependant ne pas voir déjà cette interaction forte du local et du global, qui
ne respecte quasiment plus aucune frontière ? Comment ignorer cette
circulation généralisée de la valeur et des circuits monétaires ? Comment
esquiver cette intertextualité généralisée et désordonnée qui recherche,
peut-être vainement, ses visions encyclopédiques, ses nouvelles figures
d'auteur ?
Pour le dire autrement,
partout où des relations humaines existent, notamment parce que le langage en
permet l'effectuation par la parole et en conserve la structuration par
l'écriture, le Web peut (pourra) en métamorphoser et en réaliser plus largement
et pleinement l'épanouissement. Il n'y a là aucune « illusion du progrès », car
sans doute ne faudrait-il pas perdre de vue qu'au terme de cette métamorphose,
les relations en jeu peuvent venir en « héritage » tout autant avec les
vieilles peurs de destruction et de mort que l'histoire a charriées qu'avec les
promesses d'utopies nouvelles.
Mais
y aurait-il besoin d'écrire, c'est-à-dire de tenter de rassembler les
morceaux épars, apparemment insolubles comme l'eau et l'huile, de ces régions
du monde — technique, signifiant, valeur — si celles-ci étaient transparentes,
traductibles et harmonieusement distribuées ? Y aurait-il de meilleure
justification que de tenter de rejoindre ces cohérences cachées, ces
résurgences possibles, justement en pariant sur l'« hypertexte » parfait,
c'est-à-dire relié à tous les autres textes, celui qui pourrait faire
communiquer ces mondes disjoints ?
Les usages d'une technique
Première
remarque, le développement technique de l’Internet (peut-être de l'ensemble de
l’informatique moderne) se caractérise par son « ouverture ». Par là, il faut
entendre la recherche intransigeante de compatibilité coopérative sur la
base de standards reconnus. Toute initiative qui ne contribuerait pas à
apporter des solutions meilleures dans la gestion des interactions collectives
a très peu de chance d'être acceptée. Bien sûr, cette production de solutions
est pour l’essentiel le fait de sociétés privées, mais l’exercice en est largement
contrôlé par une mise en œuvre sur le réseau qui relève du libre débat.
Autrement dit, le propre de cette technique est sa grande réactivité : ce qui
n'est pas proposé ici et maintenant avec la forte valeur ajoutée que lui vaut
la reconnaissance universelle d'une solution possible apparaît dès le
lendemain comme une banale redite.
Le nouveau doit souvent se
penser au terme d'un effort pour faire converger de nombreux éléments épars,
qui résistent à une volonté de cohérence. L'interrogation devant Internet
n'échappe pas à ce genre. Mais elle est marquée en France par une pauvreté de
la culture technique. Les réalisations les plus audacieuses cohabitent
avec le scepticisme (ou l’angoisse) des intellectuels de la plume, ou au
mieux avec une adhésion mystique au tout numérique[2].
Le numérique, pour ne se
limiter qu'aux secteurs proches du document traditionnel (c'est largement
souligné, notamment dans de nombreux rapports officiels[3])
touche à toutes les étapes de la production, de la création des documents, de
l’écriture sur ordinateur jusqu'à la réception du message et la lecture sur
écran, en passant par la transmission, la mise en réseau, le stockage ou
l’émission différée à la demande dans des banques de données ou des
bibliothèques virtuelles. Mais disons-le nettement : l’État est le moins
bien placé pour donner par le haut des recommandations sur Internet[4],
même s'il trouve quelques raisons à se substituer aux carences et retards de la
société civile en matière de dynamisme technique.
De plus, le numérique subsume les autres types
d'écriture (images, écriture alphabétique, sons, effets spéciaux du cinéma,
images virtuelles, etc.) au point que toutes les activités ou relations
signifiantes en sont touchées. Qu'il se soit d'abord imposé dans les sphères de
rationalité du calcul, des procès industriels, gestionnaires et financiers,
dans les traitements de grandes bases de données, dans la structuration de
documentation et de nomenclature technique avant de pouvoir s'approprier des
formes rhétoriques plus subtiles, des interfaces d'utilisation plus
sophistiquées[5], n'enlève
rien au contraire à la nécessité de maîtriser au préalable et pour le moins la
compréhension des pouvoirs d'efficacité matérielle (le réseau) et
logicielle (l'hypertexte) des outils en cours de développement. Pour ces
raisons de dynamique et de réactivité technique, précisément, il est impératif
de laisser le maximum d'initiatives s'épanouir, comme dans le secteur des jeux
ou de l'édition numérique[6].
Mais on voit combien l'horizon numérique plonge dans la perplexité un certain
nombre d'analystes, sinon dans un pessimisme théorique assez court[7].
Penser le développement d'une technologie, c'est penser ce rapport de la technique à l'ensemble de la culture humaine. Le rapport Cordier a raison : « Le numérique porte en germe une révolution culturelle » ; et d'ajouter : « Ce sont les usages qui conditionnent l'avenir des techniques, et non l'inverse. » Certes, mais à quoi travaillent les techniciens, sinon à des solutions largement dominées par des besoins, des satisfactions potentielles de marché ! Là encore, ce genre de questions revient à se demander qui est premier de l'œuf ou de la poule, difficulté dans lesquelles s'attardent longuement des auteurs comme Dominique Wolton[8].
Un nouveau régime de pensée
Au-delà
des évidences journalistiques, comprendre le régime profond de ce nouveau
système signifiant nécessite de reprendre appui sur les travaux qui
s'interrogent depuis longtemps sur la dispersion des supports de sens et de mémoire.
Foucault, Blanchot, Barthes et tant d'autres se sont interrogés sur le
dérèglement, le désajustement entre texte, discours, auteur, forme éditoriale,
réception à l’époque actuelle.
Comment ne pas reprendre sans
cesse ces pensées, quitte à leur faire dire ce qu'elles n'ont pas dit mais dont
elles commencent, posthumes, à s'approcher ? Celles qui nous annonçaient,
par exemple, « le jeu propre, autonome du langage [venant] se loger là
précisément où l'homme vient de disparaître[9]
» ? C'est mettre en avant nécessairement l'analyse d'une nouvelle économie
généralisée où l'appropriation et les rapports singuliers à celle-ci sont en
train de se rejouer sous nos yeux. « L'auteur est le principe d'économie
dans la prolifération du sens », écrivait Michel Foucault[10]
Ici, nous ne voudrions ni subir les séductions technolâtres, ni succomber à
leur critique humaniste. Internet est bien la manifestation — la seule —
actuelle de notre ambivalence, la forme nouvelle et paradoxale de notre
économie numérique, entre accumulation numérique de la fiction du monde et
singularité jetée dans l'errance de cette parole. Discours à la fois total et «
inexistence manifeste de ce qu'il désigne[11]».
Nous choisissons (en fait de choix, nous n'en avons guère d'autre) de nous
situer dans cette ambivalence que manifeste si bien le numérique comme nouvelle
sociologie du discours.
L'hypothèse que nous faisons ici, radicale, est que le
discours électronique, Internet, est un nouveau signifiant, la nouvelle signifîance ; qu'il est, de plus, un signifiant plus adéquat à son
déploiement universel qu'aucun signifié ne l'a été jusqu'à maintenant.
Ce
que manifeste Internet, c'est la pensée collective, mondialisée en acte[12]
« L'écriture s'identifie à sa propre extériorité déployée[13]
» Le déploiement universel du discours, c'est le Web, l'ensemble des
possibilités et pratiques de communication et de mémorisation que permet
Internet. « Ce qui veut dire qu'elle est un jeu de signes ordonnés moins à
son contenu signifié qu'à la nature même du signifiant. » C'est dans l'extrême
attention à cette écriture (et non en un signifié supposé indifférent) qu'il
faut tenter de lire pour comprendre.
Le texte est beaucoup plus que l'imprimé: tout
document, selon l'approche bibliographique de McKenzie[14],
est signifiant, et le régime de reproduction de masse culmine, après l'imprimé,
la photographie, le cinéma, dans cette nouvelle dynamique de masse qu'est le
numérique[15][16]»
comme « donner statut à de grandes unités discursives » sont bien des exigences
actuelles d'analyse et de compréhension devant le Web. D'un point
de vue archéologique, les « nappes verbales » sont « premières par rapport au
livre, à l'œuvre, à l’auteur » ; « nappes verbales » maintenant universelles qui enrobent la terre, dans toutes
les langues, sur tous les sujets, à toutes les vitesses et tous les débits de
consultation. « Chercher les conditions de fonctionnement de pratiques
discursives spécifiques
La numérisation n'a pas fait
que « libérer » le texte de sa matérialité signifiante. «Dans l'univers de
la communication à distance qu'autorisent la numérisation et la télématique,
les textes ne sont plus prisonniers de leur matérialité originelle[17]
» Encore faut-il comprendre dans quelle matérialité signifiante nouvelle
ils sont en train de s'incorporer ; quelles formes prend cette incarnation d'un
autre ordre, universel, dynamique, hyperdocumentaire, et à quelle économie
généralisée elle ouvre.
La « convergence » des
technologies nouvelles d'information et de communication et de ces théories
critiques du texte et du discours, genre que les Américains ont mis à l'honneur[18],
doit effectivement être reprise et, sans doute, approfondie. C'est à ce prix
que les caractéristiques d'universalité (ou de standardisation), de
dynamique, de structuration logique et rhétorique, de ces nouveaux discours mis
en œuvre sur les réseaux pourront elles mêmes se préciser, s'affirmer plus
clairement pour tout genre d'écriture.
La seule thèse intéressante
est bien de se poser parallèlement la question de l’évolution technique et la question des transformations culturelles,
sociales, économiques, non pas pour imposer des convergences a priori, mais au contraire pour confronter des corrélations
possibles, chercher les interactions profondes ou les régulations complexes
qui gèrent l'ensemble de ces rapports. Le numérique est une « autre »
technique, qui permet et propose une altérité inédite ; mais en retour, la
culture dispose comme elle l'entend» à travers les contraintes sociales,
créatives, économiques que nous évoquons plus loin, et qui, elles, sont de long
terme.
Le sens des technologies
d'information et de communication est donc déjà là, chez les auteurs qui ont
bien voulu s'interroger sur le devenir de la littérature, de Fauteur, de
l'écriture, de la lecture, de la bibliothèque, ou de la rhétorique et des
théories du texte ; sur le rôle et la nature de l'écriture, de l'œuvre d'art
comme matière publiée, comme matière produite, espace de l'œuvre, qui pose la
question de sa publication et de sa distinction au sein de l’univers des
choses publiées.
Si technologies de l'information et théories du texte
convergent à ce point, n'est-ce pas qu'elles seraient peut-être deux
manifestations d'un même monde ? Celui-ci serait alors l'élément commun et profond
d'une globalisation qui suppose, d'une part, une dissémination généralisée que
seule permet leur signifîance électronique ; d'autre part, des formes nouvelles
d'appropriation singulière, que seule peut réaliser l'accumulation numérique.
L'hypertexte, on le sait,
tente d'automatiser les relations, les figures de substitution, jadis mises en
évidence dans la rhétorique de ï'inventio et de la dispositio[19]. V. Bush[20]
puis T. Nelson[21] conçoivent
les « machines » capables de manipuler le langage, postulant que la pensée
fonctionne par analogies, grâce aux liens relevant ces figures de substitution.
L'hypertexte permet une double opération dans la production et la
réception textuelle : l'édition et la qualification de liens inter- et
intra-textuels ; l'utilisation par le lecteur de ces possibilités prééditées de
parcours, en regard de ses liens propres (annotation, marquage, structuration
personnelle).
Le Web intègre de plus cette
structuration hypertexte dans les standards de communication du réseau
planétaire, faisant du monde une toile rhétorique de liaisons potentielles,
généralisant ce pouvoir inédit du signifiant. Les théories du texte, les
nouvelles rhétoriques du discours sont confrontées à l'« immensité
parlante[22]». Celle-ci
est diversité des possibles, des fragments, des langues, des organisations
argumentaires, totalité des images, des documents sonores, ou celle
simulée des mondes virtuels et calculés, enfin des ensembles qu'ap-préhendent
les grammaires logiques. « Les limites de mon monde sont les limites de mon
langage. » « La bibliothèque, c'est-à-dire l’univers », écrit Borges[23]. « II faut tout publier », disait déjà Apollinaire... «Même les notes de
blanchisserie ? », demande en écho Michel Foucault, s'interrogeant sur les
limites de l'opus.
Tout dire, aussi bien les millions de pages déjà
oubliées du rapport sur la vie sexuelle de Clinton que celui sur le génocide du
Rwanda, les sites pornographiques comme l'Encyclopœdia Britannica, les millions de communications scientifiques
comme les services de commerce en ligne ? Difficulté de l'opus envahi par
l'univers des variantes, des esquisses, des brouillons et des redites...
La prolifération documentaire disperse, dissout l'œuvre par la multiplicité
même des intertextualités et contextualités que permettent ces liens. Ceux-ci
ne garantissent plus la cohérence, ils sont au mieux les renvois d'une fuite
sans fin, navigation sans carte.
On le sait, la rhétorique nouvelle qui permettrait de maîtriser (de classifier ?) ces figures de substitution, de restituer l'œuvre, est loin d'être effective. Les tentatives encyclopédiques sont encore loin de dépasser les logiques de d'Alembert ou Diderot[24]. Ce foisonnement du Web est aussi son ouverture, sa disponibilité actuelle aux usages, à la diffusion et à la demande mais pas encore à la structuration d'une offre.
L'espace de la lecture
« La notion d'œuvre est aussi problématique que celle
de l'individualité de l’auteur[25].
» L'auteur, avec l'imprimé, est corollaire d'une collection physique de
documents qui relèvent d'un dispositif précis de publication. Avec le
numérique, l’opus est disséminé, intégré et défini davantage par la valeur des
références mouvantes et des liens que par l'affirmation de l'autorité d'un
auteur. Intertextualités et contextualités ne sont plus maîtrisées par l'œuvre,
centrées sur elle, mais au contraire la produisent. Quelles limites assigner au
texte ? Quel corpus définir au sein de ces totalités potentielles qui relèvent
d'isomorphies d'archives plus que de catégories disciplinaires ou de
collections dûment éditées ?
Il fallait qu'une technique
du texte puisse élaborer cette mobilité, cette mobilisation argumentaire et
associative. Ceci suppose une disjonction et une caractérisation
indépendante du lien argumentaire, et du contenu argumenté. C'est bien ce qui
permet cette mobilisation par la lecture qui est une relecture, une remise en
ordre. Pour citer Blanchot, « la lecture est le mouvement de communication par
lequel le livre se communique à lui-même[26]».
Ce qui serait une assez bonne définition de l'hypertexte : un texte et son
organisation potentielle qui a besoin de l'« opération[27]
» de la lecture pour se structurer (ici et maintenant...). La lecture est
bien l’acte, seul, par lequel l'œuvre s'effectue.
Prenons l’exemple de la politique culturelle française
à l’étranger[28], où l'on
dénonce les nouvelles technologies comme cause de la mort d'une politique du
livre et de diffusion culturelle. C'est tout le contraire : ce qui est de toute
façon en passe de finir, c'est l’espace géographique « euclidien » (celui du
réseau physique des postes à l'étranger, du « béton-fonctionnaire », comme on
pourrait le dire avec les termes désuets de « comptoirs » et de « missions »),
comme espace homogène où l'accès au livre est identique à celui de sa
lecture. L'espace propre au réseau permet au contraire de disjoindre le livre
comme espace d'édition et espace de lecture. Il n'y a nulle opposition du livre
au numérique, il y a transformation de son espace de diffusion, d'appropriation.
Par contre, il s'avère que le « réseau » physique des établissements à
l'étranger, et leurs services, deviennent largement « solubles dans Internet ».
L'hypertexte est pour l'heure
incapable de proposer une technique de filtrage entre les comparaisons motivées
de textes et les mises en perspective intentionnelles, plus ou moins
malveillantes. Mais il n'y a aucune raison de penser que ce programme soit
strictement irréalisable, si le problème en est clairement défini.
Entrecroisement
bio-bibliographique, organisation de pyramides de niveaux d'accès aux œuvres,
comme le propose Darnton[29]...
Les exemples pourraient être multipliés non seulement de documents qui
nécessitent des structures d'hyperliens pour être parcourus, mais aussi
qui présupposent que cette structure en hyperlien est l'image même, fidèle,
d'un monde complexe ; plus encore, qu'elle est un constituant de ce monde comme
compromis entre les figures de Fauteur et du narrateur. Les éditeurs du futur
seront les maîtres des liens ou ne seront pas.
Roger Chartier a raison
d'avancer que « la fonction-auteur est désormais au centre de tous les
questionnements qui lient l'étude de la production des textes, celle de
leurs formes et celles de leurs lectures[30]
». Dans ces « figures de l'auteur[31]
», à la suite de Foucault et d'un travail historique de longue durée, « la
construction d'une fonction-auteur [doit être] entendue comme critère de
l'assignation des textes », non pas seulement comme le pense Chartier « des
ensembles de dispositifs juridiques, répressifs, matériels » qui « inventent »
l'auteur, mais en tant que celui-ci résulterait, actuellement, d'un dispositif
économique de globalisation, de redistribution de rapports du singulier à cette
économie générale nouvelle.
L'un des traits majeurs de
développement d'Internet réside en effet dans la remise en jeu de la «
fonction-auteur », notion reprise de Foucault, autant que de celle de « pensée
du dehors », de Blanchot.
C'est là qu'il fallait lire les définitions de ce «
livre à venir », de cette « parole errante » qui se tissent sous nos yeux ;
auxquelles il ne faut cesser « de faire retour » pour réinterpréter le nouveau,
réensemencer l’ancien.
La « disparition » de
l'auteur dans Internet n'est pas seulement cette incertitude de la signature,
d'intégrité, de validité devant la possibilité infinie de copier, de
déformer, de faire glisser, « pirater », dériver le signifiant,
l'insignifiant, dans une infinité de sites d'un espace inassignable. C'est plus
profondément un lien entre « la prolixité ressassante » dont parle
Blanchot, prémonition qui fait du lien entre l'expansion du discours et le
manque fondamental sur lequel va se cristalliser la disparition de
l'auteur, un trait majeur de notre ère éditoriale. Blanchot nous a appris que
penser, c'est penser le manque qu'est aussi la pensée. Bien sûr, nous
prétendons ici autre chose : cette parole n'est pas errante pour tout le monde.
Comment elle s'approprie, s'accumule, ailleurs, autrement, est le corrélat de
cette dissémination.
Avec le numérique, l'auteur se pose dans la simultanéité d'une génétique du texte, doit faire de cette génétique la texture même de son écriture. À l'évidence aussi, nous sommes dans une nouvelle logique des discours, dans une rhétorique électronique où le rapport de l'auteur ne se définit que par ses nouvelles fonctions d'audience et de réseau par lequel il touche ou est requis par un public, une nouvelle forme de publication.
Quel droit ? Quelle
transgression ?
On
sait que, dans la presse, l'édition, le droit d'auteur est malmené. « La
reproduction non autorisée sous quelque forme que ce soit », privant l'auteur
ou les ayants droit des rémunérations légitimes de cette production, supposait
quand même (il faut le rappeler !) que, d'une part, il y ait création où
l’auteur ait quelque chose d'original à revendiquer (ne serait-ce qu'une
reformulation du patrimoine...), et d'autre part, qu'il en ait coûté
quantitativement quelque chose de produire matériellement ces exemplaires de
l'œuvre, à laquelle la « reproduction » illicite porte doublement atteinte.
Force est
de constater que le droit peine à s'adapter à cette évidence que la reproduction
numérique, si elle risque effectivement de perdre sens dans les contextes
inadaptés, non « autorisés », où elle se reproduit, ne coûte en revanche rien à
se reproduire quantitativement. Certes, on peut alors suggérer que l'économie
serait purement de droit, dans la pure affirmation d'une loi « morale » autant
que juridique.
Nous ne pensons pas
que cela ait suffisamment de consistance. Entre le copyright et (de fait) le
piratage international qui privilégie la diffusion, cette approche est.
radicalement inadaptée : l'auteur n'est-il pas
dès maintenant et d'abord celui qui se situe par rapport aux transgressions
dont Internet est capable et coupable ? Le Web est à la fois espace technique,
signifiant, et économique, comme « horizon indépassable ». Force sera de
définir le droit à partir de ces composantes : produire des solutions en
termes de techniques hypermédias, des organisations sémantiques reconnues
largement dans la toile, ne serait-ce qu'en opposition ou en regard des «
errances » de ce nouveau média, les valoriser en termes de droits collectifs et
de systèmes originaux de rémunération. On peut ainsi imaginer que ce droit soit
corrélé à des formes et mesures d'audiences, celles-ci étant justement le fait
d'éditeurs ou médiateurs dont le travail est de corréler qualité des offres et
largeur de la demande sur le Web.
La transgression dont
l’auteur sera à l’avenir la contrepartie se fera jour d'abord dans cet espace
universel de relations ouvertes par le Web lui-même. C'est le Web en soi, en
tant que danger de globalisa-tion aveugle, bruyante, qui est un espace
transgressif, à transgresser, par la recherche de « silence » des auteurs.
Blanchot, dans une prémonition noire de risque de dictature, voit poindre
« le jour où la parole errante s'imposera... », « la nudité obscure d'une
parole nulle et étrangère, capable de détruire toutes les autres».[32]
« L'autre parole n'a pas de
centre, elle est essentiellement errante et toujours au dehors[33].
» Foucault, suivant Blanchot, confirme que « Fauteur est le principe d'économie
dans la prolifération du sens ». Mais qu'est-ce qui fait autorité « dans »
Internet ? Quel type de fonction-auteur reconnaît-on dans ce nouvel espace d'écriture,
et selon quelle économie nouvelle sera conjurée la prolifération du sens ? Nous
sommes, il faut l’avouer, devant ces questions. Quels sont les modes
d'existence de ce discours ? D'où a-t-il été tenu ? Comment peut-il circuler
et qui peut se l’approprier? Quels sont les emplacements qui y sont ménagés
pour des sujets possibles ? Qui peut remplir ces diverses fonctions de sujet ?
Et derrière toutes ces questions, on n'entendrait guère que le bruit d'une
indifférence : « Qu'importe qui parle[34].
» La prolifération et l’accumulation signifiante ont précédé l'hypertexte et le
Web. Mais en retour, ceux-ci peuvent-ils en conjurer le bruit ?
La
fonction auteur va disparaître d'une façon qui permettra une fois de plus à la
fiction et à ses textes polysémiques de fonctionner à nouveau selon un
autre mode, [...] qui ne sera plus celui de l’auteur, mais qui reste encore à
déterminer ou peut-être à expérimenter[35].
Il n'y a pas là, sous ces « convergences
», qu'un fascinant effet de métaphore. Ce sont bien des traits plus précis
encore qui font problème et, à l'avenir, système. La dispersion du signifiant,
à l'horizon numérique qui se dévoile, est le résultat d'une tendance
lourde des technologies de reproduction, au sens où, après la
photographie, le cinéma, la presse, les médias, la publicité, un certain régime
de création, d'« œuvre », pour parler à la fois comme Mallarmé et W. Benjamin,
est en train de se révéler, de se manifester. Là encore, des raisons de fond
sont à l’ordre du jour, problématiques, fécondes, incertaines : cette nouvelle
esthétique est un aussi un cadre, une exigence heuristiques : comment
s'agencent en réseau les connaissances (ce qui est aussi retrouver la question
des régimes de discursivité différents) entre science, argumentation,
écriture non scientifique, ouverte par cette parole sans auteur, cet «
encyclopédisme » en question ; c'est dans ce ressassement du langage que savoir
et non-savoir se côtoient, se lient, sans qu'une autorialité puisse, en tout
cas pour tous et partout, s'imposer.
On peut bien parler du besoin
nouveau de « filtrage », au sens où les institutions comme l'Église, l'école,
les académies, les éditeurs assuraient ces procédures d'authentification, mais
Internet est justement l'espace où se dissolvent les institutions,
notamment celles du Livre ; espace où les niveaux ou maillages de filtrages
sont relatifs à des points de vue multiples. Comment réinstutionnaliser au sein
du rhizome ? Quelles centralités sont reconnues, et par qui, pour légitimer
ce discours plutôt que tel autre ?
Petit à petit, Internet
apparaît cependant comme un nouveau régime éditorial. Il établit un nouveau
régime de publication car d'abord de « publicité » : c'est un nouveau régime
économique (le numérique réagence le numéraire, la valeur économique de tous
les signifiants à l'aune de cette nouvelle valeur d'échange) ; c'est aussi une
nouvelle expression du droit (souvent posée à courte vue comme prérogative de
la propriété matérielle ou de son opposé vertueux, le droit moral, de la figure
de l'auteur) qui oblige, différemment, à s'interroger sur les nouvelles
transgressions dont sont grosses ces signifiances numériques.
À mon sens, l'informatisation
permet la totale réalisation du procès capitalistique qui est d'incorporer en
un lieu, un outil singulier, une machine particulière, l'universalité (aux
limites) du savoir. L'efficacité et la définition du Net comme texte me semble
résider profondément dans cette adéquation à l'économie généralisée de la
division du travail et de l'accumulation du capital. Celle-ci ne peut être
qu'une virtualisation du réel comme forme aboutie, poussée, de l'accumulation
de valeur.
L'économie généralisée, dans ce que permet et à la
fois interdit l'accumulation numérique, est notre propre « expérience du dehors
». Le parallèle n'est pas de simple métaphore. Le numéraire, comme signifiant
majeur, subit les mêmes transformations numériques que le discours. Ce n'est
pas pour des raisons artificielles que l'homothétie de l'Intemet et du capital
se manifeste (opposition de sa face gratuite, libertaire, et de son versant
marchand[36]). Non,
c'est dans sa nature profonde qu'Intemet « est », comme il s'est affirmé
rapidement, la « nouvelle économie », forme dynamique d'une accumulation du
capital et d'une intégration ultime de toutes les activités humaines dans le
champ de la valeur, dussent-elles passer actuellement par les apparences de la
gratuité coopérative. L'échange numérique est précurseur de tout échange
numéraire à venir.
Qui ne voit par exemple que,
par le biais de la simple indexation des requêtes avec les offres des
librairies électroniques comme Amazon.com, on sait faire l'étude statistique
fine des centres d'intérêts et des demandes des internantes, une cartographie
infiniment précise des consommateurs potentiels ? À partir de là, des
politiques éditoriales peuvent promouvoir, donc produire, des contenus adaptés
à ce cycle marchand, orienter des offres culturelles. Qui ne voit d'emblée les
perversions autant que les promesses de tels « bouclages » interactifs ?
Le Web est aussi bien accessible en Afrique qu'à Washington, en Sibérie qu'en Equateur. Un golden boy le consulte en même temps qu'un écolier de Corrèze ou un paysan sahélien. Nous ne tirons aucune « morale » de pseudo-démocratie, ni de suspicion légitime des répartitions inégales des parcs d'ordinateurs. Nous voulons seulement dire que, potentiellement, Internet est cette connexion généralisée, ce texte déjà tramé d'où l’auteur doit trouver où fonder sa définition, sa possible transgression. D'ores et déjà, des formes discursives apparaissent comme « auteur », rapports officiels internationaux ou d'institutions savantes, sites de création artistique contemporaine, débat ou forum scientifique, sites d'alerte de consommateurs, expériences de constructions encyclopédiques en ligne, mais aussi éditions de jeux à succès, suivi de manifestations ou d'événements internationaux majeurs, etc.
Pour une sociologie du discours
numérique
Depuis une dizaine d'années,
il est évident qu'une recherche plus structurée devrait alimenter les débats,
dégager des expertises, aider et préconiser des stratégies relatives à cette
nouvelle signifiance.
Cette recherche est d'ordre sociologique[37],
au sens où il y a conjointement analyse technique, signifiante et
économique. La discursivité propre à Internet doit en effet être appréhendée
sous des modes différents, économiques autant que stylistiques, techniques
autant qu'esthétiques, éditoriaux autant que mémoriaux — autant de registres
qui font varier, afin de mieux la comprendre, cette « parole errante » qui
émerge, hégémonique, sous nos yeux.
Le numérique n'est pas, n'est
plus une extériorité sur laquelle on pourrait écrire, sur laquelle — en prenant
les distances du sujet distinct de l'objet — on pourrait juger, croyant
pouvoir nous situer « par-delà le bien et le mal » alors qu'on est à l'évidence
dans la généalogie même de cette
nouvelle « morale » numérique, dont nul ne sait où elle nous porte. « Le type
de lecture est révélateur de pratiques sociales et culturelles [...]. Le
numérique, par la fluidité qu'il introduit, rencontre un univers social plus
distant à l’égard de toute forme d'autorité, voire de fidélité[38].
» Pour en comprendre le sens, il faut se glisser dans sa dynamique.
Nous venons de suggérer, à
partir de textes ou d'indices dont la communauté de champs n'est pas
évidente, que la difficulté de l’ère qui s'annonce réside dans la convergence
entre la redéfinition de l'économique, du signifiant et du numérique, dans leur
« traduction simultanée », leur homothétie dynamique. Ce champ nouveau
ouvre et résulte à la fois de nouvelles pratiques. La société, dans ses aspirations
et ses coutumes les plus désintéressées, les plus créatives - l'écriture ou la
lecture -, ne peut plus être indifférente à cette redéfinition. Oui, la
production de la technique (le numérique) sous l'emprise de la loi de la valeur
(« la nouvelle économie ») passe aujourd'hui par la maîtrise hyperdocumentaire
du signifiant. Mais de telles convergences, l'avenir seul pourra confirmer
l’étendue[39].
Yannick Maignien
*
Auteur de la Division du travail manuel
intellectuel (Paris, Maspéro, 1975),
responsable de la politique de numérisation à la Bibliothèque nationale de
France de 1991 à 1997.
[1] Créé par Tim Berners Lee en 1991, actuel président du
consortium W3. Sur la philosophie du Web, voir l'excellent numéro de La
Recherche, n° 328, février 2000
(spécial Internet), où Berners Lee souligne cette « ouverture » : « Le Web
n'admet pas de barrière parce qu'elle n'aurait pas de sens. Si un industriel
voulait fermer son réseau, il s'isolèrait du reste du monde [...]. Le risque
subsiste que le Web se retrouve divisé entre une partie propriétaire et une
partie ouverte : auquel cas ce ne serait plus le Web. »
[2] Dans ce registre, voir les réflexions de Pierre Lévy, par exemple.
[3] Rapport Lorenz sur le commerce électronique ; rapport Bloche sur la francophonie et Internet ; rapport du Conseil d'État sur Internet et les réseaux numériques ; rapport Cordier remis en septembre 1998 (voir l'encadré de R. Robert dans ce même numéro).
[4] Cela n'enlève rien à la qualité des rapports produits, souvent le fait de professionnels, comme ceux mobilisés par Lorenz, Cordier ou Van Dooren.
[5] Par exemple le poste de lecture assistée de la bnf, longtemps prototype depuis 1988, jamais développé comme réalisation définitive, et qui voit dix ans après éclore ses épigones sous forme de livre électronique (voir Le Monde interactif du 12 janvier 2000).
[6] Un exemple de ce retard « français » ou étatique : nous avions proposé il y a trois ans que la politique de numérisation de la bnf soit relayée activement par une politique éditoriale sur le réseau (qui ne serait pas une seule mise à disposition des documents du domaine public), ce qui supposait des accords avec les éditeurs et les fournisseurs d'accès de l'Intemet ou ceux, puissants, de l'édition électronique Minitel. On voit aujourd'hui cette logique se réaliser avec l’achat de grandes sociétés de contenus (Tïme Warner, etc.) par des fournisseurs d'accès (aol, etc.). On retrouve ces logiques de « livres numériques » chez Havas, Bertelsmann, etc.
[7] Quelle différence avec un auteur aussi passionné de technologie des réseaux comme l'était Yves Stourdzé dans les années 1980 !
[8] 8. Dominique Wolton, Internet et après, Paris, Flammarion, 1999, qui présuppose un faux adversaire technolâtre, un « bêtisier » technologique, pendant 250 pages, pour mieux s'opposer (au même niveau...) et conclure que « pour l'essentiel, le Net n'est pas un média » (p. 105). On ne saurait mieux dire, quand on a rien à dire sur le Net. Au fond, il semble que Wolton ne se soit pas aperçu que le Net était une technique de signifiant, c'est-à-dire quelque chose d'inextricablement humain et culturel, non susceptible d'une analyse dichotomique et manichéenne, serait-elle, a fortiori, présentée ainsi par les protagonistes « de surface ».
[9] Michel Foucault, « La pensée du dehors », Dits et écrits, tome 1 (1954-1969), Paris, Gallimard, 1994, p. 544.
[10] Id., « Qu’est-ce qu’un auteur ? », Dits et écrits, op. cit., p.789.
[11] ibid., p.537.
[12] Ce dont on peut, bien sûr, à bon droit, comme Paul Virilio, avoir une vision des plus pessimiste.
[13] M. Foucault, Dits et écrits, op. cit., p. 793.
[14] D. F. McKenzie, la Bibliographie et la sociologie du texte, préf. de Roger Chartier, Paris, Éditions du Cercle de la librairie, 1991.
[15] Sur la théorie de Walter Benjamin, je renvoie à mon article : «L'œuvre d'art à l'ère de la numérisation », Revue des Bibliothèques de France, Paris, Centre Georges-Pompidou, 1997.
[16] M. Foucault, Dits et écrits, op. cit., p. 791
[17] Roger Chartier, l'Ordre des livres, Paris, Alinéa, 1992.
[18] G. P. Landow, Hypertext 2.0, "Thé Convergence of Contemporary Critical Theory and Technology", J. Hopkins University Press, 1997.
[19] Comme le dit Gérard Genette : « S'il n'y avait pas de figures, y aurait-il seulement un langage ? », Introduction à Figures du discours de Fontanier, Paris, Flammarion, coll. « Champs », 1988.
[20] V. Bush, "As we may think", en 1945, avec son prototype Memex, avant même l’informatisation possible de la langue.
[21] Ted Nelson, Literary Machines, 90.1, Mindfull Press, 1990.
[22] Maurice Blanchot, le livre à venir, Paris, Gallimard, 1971, rééd. 1986, coll. « Folio-Essais », p.323
[23] L'importance de Chomsky, de Searle, de Wittgenstein, de Blanchot comme de Borges (la Bibliothèque de Babel) est décisive dans la rupture de Foucault avec le structuralisme de type saussurien, dans l'émergence d'une culture de l'hypertexte. Les éléments du discours sont susceptibles de logiques de liens autres' que ceux de leur linéarité structurelle. Sur Foucault, voir « La bibliothèque de M. Foucault », Paris, Centre Georges-Pompidou, bpi, 1997.
[24] Voir J. Virbel et Y. Maignien, «Encyclopédisme et hypermédia : de la difficulté d'être à la complexité du dire », Catalogue de l'exposition d'ouverture de la bnf, « Tous les savoirs du monde », décembre 1996.
[25] M. Foucault, Dits et écrits, op. cit., p. 794-795.
[26] M. Blanchot, le Livre à venir, op. cit., p. 356.
[27] Ibid., p. 356.
[28] Jean-Michel Delacomptée, «Coopération culturelle: la mort du livre?». Esprit, juin 1999. Dans ce même numéro, lire aussi l'article de Vincent Simoulin.
[29] L'historien américain Robert Damton a proposé récemment une manière de refonder une politique édiloriale universitaire grâce au numérique. II part des conditions économiques (coûts de revient, budget d'acquisition de bibliothèques), sociales (publications et titularisation des maîtres-assistants, etc.) et techniques de l'édition des revues savantes. Il propose six niveaux d'accès permis par l'hypertexte et le réseau Internet, de l'exposé concis d'une thèse aux archives qui en sont la matière de base. Son optimisme le conduit à penser que pourrait se recomposer un espace édilorial et lectoriel cohérent. Cette intertextualité du discours savant à l'archive était déjà problématisée par Foucault dans l'Archéologie du savoir. Voir Review of Books, trad. fr. « Le nouvel âge du livre », Le Débat, n° 105, Paris, Gallimard, mai-août 1999.
[30] R. Chartier, l'Ordre des livres, op. cit., p. 67.
[31] 31. Ibid.
[32] M. Blanchot, le Livre à venir, op. cit., p. 321.
[33] M. Blanchot fait de la littérature et de l’écrivain celui qui s'approche au plus près du tumulte et paradoxalement en capte le silence, celui qui peut « reconduire la parole vers le silence qui est en elle [...]. Il faut qu'un instant elle s'oublie, afin de pouvoir naître, par une triple métamorphose, à une parole véritable : celle du Livre, dira Mallarmé » (le Livre à venir, op. cit., p. 325).
[34] M. Foucault, Dits et écrits, op. cit., p. 808.
[35] .Ibid.,p.811.
[36] Là encore, on voit combien sont courtes les analyses de Dominique Wolton en guerre contre « l'idéologie technique ». Voir son article « Sortir de la communication médiatisée », Le Monde diplomatique, juin 1999, où il demande de choisir entre Internet comme « immense réseau commercial » et Internet comme « système de communication politique et d'expression individuelle pour la communauté internationale. Les deux perspectives [étant] contradictoires ». Le problème n'est pas dans cette dichotomie, mais bien dans le fait que le Net investit et redéfinit l'ensemble de la valeur. Encore faut-il faire œuvre d'analyse et d'interprétation avant de postuler des jugements fondés sur de telles apparences.
[37] Ce terme est repris de McKenzie pour qualifier une recherche propre à l'ensemble de la production documentaire, dont le numérique.
[38] Rapport Cordier.
[39] Je dédie ce texte à Jacques Virbel, en reconnaissance de dette.
Rédigé à 23:54 dans Praxis | Lien permanent | Commentaires (0)
Lu dans le Monde du 8 février 06 article d'Adrien de Tricornot, sur la manipulation d'audience et de référencement à laquelle se livreraient des entreprises comme BMW ou Ricoh. Google en effet les accuse de truffer de mots-clés, invisibles par l'utilisateur, tels que "voiture d'occasion" pour BMW, des pages "satellites", fraudant et gonflant ainsi leur audience...
L'intéressant est que Google n'a d'autre choix que de déréférencer et d'inviter ces sites indélicats "à s'engager moralement -juridiquement, BMW comme les autres ne sont pas répréhensibles - à ne plus utiliser de procédés du type "pages satellites"" .
Voir le site de Matt Cutts, ingénieur de Google :
http://www.mattcutts.com/blog
Vouloir être une voiture de référence conduit à quelques liberté avec l'éthique ...
Cet article fait suite à d'autres des 25 et 27 janvier beaucoup plus préoccupants sur l'autocensure de Google. Celui -ci va lancer, dans le courant de la semaine, une version chinoise de son moteur de recherche (Google.cn) après avoir accepté de censurer des liens avec certains sites dont l'accès est interdit par les autorités de Pékin, affirme le Wall Street Journal dans son édition en ligne.
Le Page Ranking et la censure font apparemment bon ménage....sur le dos de l'éthique !
Rédigé à 18:07 dans Ethique | Lien permanent | Commentaires (1)
Devant la pléthore d'effets d'annonces médiatiques, de surenchères économiques, d'appels politiques, ou de défenses culturelles ou stratégiques de nature diverse dont la presse se fait l'écho à propos des projets Google et des réactions françaises en la matière, il serait souhaitable d'éviter les conversations "café du commerce", sinon les initiatives dispersées, pour proposer un cadre conceptuel et opérationnel cohérent.
Certes chacun a le droit de s'exprimer, mais de fait beaucoup d'ignorance se révèle au coin des meilleures intentions du monde et de vérités a-historiques assénées avec beaucoup d'aplomb. L'ampleur des réactions représente déjà un corpus significatif digne d'étude !
La principale lacune réflexive semble ressortir d'une forte opacité, sinon incapacité à penser les raisons qui ont fait que la France, étant en pointe en 1990 dans les programmes de numérisation (notamment Gallica) est devenue suiviste sinon en retrait 10 à 15 ans plus tard.
Besoin d’inventaire
Avant donc de lancer des "Faut qu'on Y a qu'à" et des affirmations stratégiques péremptoires (sans doutes à l'aune des grands desseins européens présidentiels et ministériels), il semble qu'on ne pourra pas faire l'économie (en guise d'inventaire, mais pas seulement) des "causes" techniques, scientifiques, juridiques, éditoriales, corporatistes, culturelles économiques, industrielles et politiques (dans l'ordre d'importance) qui expliquent largement le temps et l'initiative perdus en la matière.
A n'en pas douter, l'interrogation pourrait porter (toutes choses égales par ailleurs) sur l'échec relatif qu'il y a eu, depuis les années 90 à mener à bien en France une sorte de groupement d'intérêt économique où les missions utilisatrices de conservation et d'éducation des bibliothèques pouvaient se conjuguer avec les impératifs de recherche d'une part, les indispensables dimensions éditoriales (juridico-économiques) et les intérêts industriels des opérateurs informatiques et telecom d'autre part.
Il ne faut pas se le cacher, le projet de Google est d'abord de cet ordre, avant d'être une prouesse logicielle, une performance technologique ou un montage financier ambitieux.
Faute de s'interroger sur cette carence de synergie et de négociation propres à assurer des consensus productifs là où divergent les intérêts à court terme, il semble que l'appel à la puissance publique nationale, ou même européenne, comme seul appel de fonds, ne sera pas à la hauteur du défi lancé par Google. Les mêmes causes (en 1995/97) donneront les mêmes effets (en 2005/07).
Synergies vertueuses
Certes la France (et l'Europe) n'est pas l'Amérique, mais quand celle-ci, consciente dans les années 94 /98 d'être partiellement distancée, elle a alors, via la NSF et d'autres fonds scientifiques d'Etat, lancé un vaste National Digital Project pour répondre alors au défi ...européen. Ce furent des dizaines de projets spécifiques, dans de très nombreux domaines applicatifs précis, autour des grandes bibliothèques universitaires américaines, coordonnés par celle du Congrès, expérimentant dans tous les domaines cités plus haut, avec à chaque fois des triangles avec la recherche informatique, linguistique, logique etc. du plus haut niveau et des réalisations industrielles financées par les grandes entreprises des secteurs informatiques et de la communication.
C'est dans ce contexte que Larry Page et Sergei Brin ont situé leur "garage".
D'une part prenons la mesure de l'ambition de Google. Ramenées par exemple au montant d'investissement de Gallica en 1992, les sommes annoncées par Google de 150 à 200 millions de dollars représentent en fait un effort similaire, dés qu'on module ces 13 années en fonction de la loi de Moore divisant par deux les coûts tous les 18 mois...
Mais surtout, une grande partie (essentielle) de la capacité de réponse - certes sous l'impulsion des pouvoirs publics- résidera dans la capacité à assurer les synergies "vertueuses" d'acteurs aussi différents impliqués en amont et en aval d'un vaste processus de numérisation.
Moteurs de recherche et moteur de connaissance
Est-on sûr, par exemple en ce qui concerne la recherche, qu'elle ne pêche pas aussi (à côté d'une grande qualité) par un superbe isolement, tant en direction des milieux utilisateurs que de ceux impliqués dans des logiques économiques éditoriales, informatiques ou communicationnelles ?
Le CNRS a-t-il fait les choix stratégiques, certes pour l'instant dans le strict domaine des périodiques scientifiques, à même de fédérer des intérêts à terme antagonistes, et donner la pleine mesure de ce vecteur de travail en réseau qu'est Internet?
Les grandes bibliothèques n'avaient-elles pas abdiqué un peu vite (devant une entreprise de recherche d'information comme Google), en tous cas pendant la période citée, leurs missions régaliennes, depuis Alexandrie qui consistent d'abord à organiser des connaissances, à structurer de l'encyclopédisme, face aux nouveaux besoins d'intelligence du monde, et dont la recherche d'occurrence ou d'information n'est qu'un sous ensemble réducteur ? A cet égard, le Ministre de la Culture a hautement raison de citer l'"Archéologie du savoir" et Foucault comme devant présider à de telles ambitions heuristiques! Comme le disait Bachelard " Quand on ne sait pas ce qu'on cherche, on ne comprend pas ce qu'on trouve" et les objectifs cognitifs de moteurs de recherche tels Google sont limités, comme l'ont déjà souligné plusieurs scientifiques.
En 1995 à la BNF, par exemple, nous avions tenté de comprendre, en partenariat avec l’Ecole des Mines et le moteur de recherche le plus prometteur de l’époque, LiveTopics d’Altavista, développé par le français François Bourdoncle, ce que signifiait « trouver de l’information » dans un fonds structuré de connaissances comme la collection Gallica. Il est dommage qu’il n’ait pas été donné suite à cette initiative. Le moteur Exalead du même F. Bourdoncle est, sans doute, toujours candidat pour des initiatives renouvelées 10 ans plus tard…
Modèle économique
Les éditeurs n'ont-ils pas aussi leur responsabilité quand certains bloquent à court terme toute réflexion sur les montages juridico-économiques possibles pour préparer (comme dans le secteur musical) les répartitions nouvelles des gains de productivité liés au numérique ? Mais en amont d’une telle « négociation », il faudra bien un jour revenir au « contenu » (de Gallica) dont on parle si peu, au sens où cette offre culturelle, en fonction des critères qui ont conduit cette sélection, demande encore à identifier et rencontrer ses publics, ses usages et ses lecteurs ! En tous cas, on ne pourra faire l’économie de la réflexion sur l’extrême diversité des « sources » et des formes éditoriales à partir desquelles numériser (comme pour Gallica, où beaucoup de contenus ne proviennet pas de la BNF et n’ont pas d’équivalent physiques au sein du site de Tolbiac…). Les Archives de la Révolution française ont été numérisées à partir de l’édition microfilm anglo-saxonne Maxwell. Qui s’en plaindrait …. ?
Les opérateurs telecom européens ont-ils réellement pris la mesure des services de valeur ajoutée auxquels ils pourraient être associés, injectant en retour les indispensables investissements informatiques et technologiques ? Les trente millions de pages de Gallica sont « déchargées » gratuitement et quotidiennement dans le monde entier (y compris déjà on l’imagine par Google …). C’est sans doute une grande victoire de la francophonie, mais avec bien peu de retour sur investissement …
Il ne s'agit pas ici de comptabiliser des griefs, il s'agit de réfléchir ensemble, avec les acteurs si différents de cette nouvelle chaîne éditoriale, afin de ne pas réitérer les mêmes erreurs ou lacunes, et construire une vraie réponse au défi lancé par Google.
Il nous semble que c'est autant dans cette capacité organisationnelle originale que dans les montants (importants!) des moyens financiers requis qu'un tel programme se révélera efficace. C'est peut-être aussi le meilleur moyen de conjurer certains fantasmes de risques culturels (par ailleurs bien réels).
Les pouvoirs publics ont pris la mesure, au plus haut niveau de l'Etat de cet enjeu. A tous les acteurs évoqués ici d'avoir l'abnégation et l'imagination suffisante et nécessaire, à l'échelle européenne, pour donner corps à cette volonté.
YM/15.03.2005
Note publièe d'abord dans Archivesic du ccsd
Rédigé à 10:51 dans Praxis | Lien permanent | Commentaires (0)
Ethique de l’Internet. EW3
Rencontres franco-italiennes 2005 - Rome / Venise
Juin /octobre 2005
Le service culturel de l’Ambassade de France à Rome a organisé le 17 juin 2005, à Rome, une première journée du colloque franco-italien EW3 sur l’Ethique d’Internet, suivie de deux jours les 28 et 29 octobre à Venise. Ces trois jours de débats pluridisciplinaires ont permis de poser les questions fondamentales d'éthique qui accompagnent l'émergence d'une nouvelle culture d’innovation et de création en réseau, à tous les niveaux de l’architecture physique de l’Internet, des capacités logicielles comme du développement sans précédent des services et des contenus du Web.
Ces journées de rencontres franco-italiennes ont été menées, sans concession, sous le signe d'un avenir numérique complexe à discerner et à construire, tâche combien exaltante. Pour de nombreux orateurs, le débat éthique ressortit à la notion de liberté en jeu à l’ère numérique, avec l’émergence de nouveaux « biens communs ». La référence en fond de débat était le travail de Lawrence Lessig (« L’avenir des idées », publié au PUL), relayé par les ouvrages de Philippe Aigrain (« Cause commune »), de Florent Latrive (« Du bon usage de la piraterie »), de Gérard Wormser (Revue « Sens Public ») ou de Franco Carlini (Totem) et Davide Bennato sur l’éthique des blogs (La Sapienza).
La première journée de juin à Rome, avait donné les fondements euristiques d'une réflexion sur les limites à tout niveau (cognitif, logiciel et sémantique) des logiques de vérité et de falsification ou de manipulation possibles en oeuvre sur ce média (Gemma Marotta, La Sapienza). La notion cognitive interpersonnelle de « confiance » était au cœur des réflexions de Gloria Origgi. Les communications de Jean-Max Noyer (Université Paris VII) et Nicola Guarino (CNR) sur les ontologies et le web sémantique ont permis d’entrevoir les pouvoirs accrus de l’Internet du futur dans la recherche de connaissances complexes.
Des pistes fonctionnelles, sociologiques, juridiques (Gérard Haas), ont été évoquées pour parer ces difficultés croissantes qui grèvent la confiance dans l'Internet, l’intégrité des contenus et la sécurité des services. L’approche de Michel Riguidel (ENST) sur l’informatique quantique et la sécurité était de haut niveau prospectif.
*****
Les deux journées de Venise sur l’esthétique et l’éthique de la gouvernance ont prolongé cette réflexion, faisant apparaître clairement les limites de régulations du marché, sinon de réglementation politique, qui ne prendraient pas en compte la spécificité universelle de ce nouveau média. De fait les enjeux de liberté, d’innovation, de création ouverte par l’Internet se heurtent à des conceptions de contrôle public autant que privé, héritées des médias physiques et des droits afférents. Une conception du bien commun nouveau que représente l’Internet reste donc à fonder et à affirmer, dans les valeurs les plus fondamentales des sociétés modernes.
La création esthétique sur Internet, est le fait de Netartistes (Christophe Bruno, Jean-Pierre Balpe, Grégory Chatonsky, Lorenzo De Tomasi et Giovanni Ansceschi), qui expérimentent de nouveaux territoires (là encore entre fiction et réalité du monde informationnel). Elle bouscule les modèles économiques et juridiques existants dans la diffusion, prépare de nouveaux "biens communs" culturels à partir de ressources libres. En parallèle, l'exigence de standards et de normes plus universels ne doit en aucun cas, bien au contraire, amoindrir les chances de diversité culturelle que doit promouvoir le net, aussi transgressives qu’en soient les formes (Franco Berardi/« Bifo », Tommaso Tozzi). Paradoxalement, le NetArt appelle un nouveau « partage du sensible », par de nouvelles intrications entre réalité sociale et pouvoir de fiction.
La dernière journée a synthétisé de nombreuses approches philosophiques (Paul Mathias, Joëlle Zask, notamment avec la nécessaire référence pragmatique), sociales, organisationnelles de la "gouvernance" d'Internet et par Internet, façon souvent ambivalente de montrer que des formes inédites de responsabilité culturelle, sociale ou politique sont impliquées dans le moindre acte du réseau. Là encore, le lecteur final, actif, numérique, la « communauté des lecteurs », devrait se voir reconnaître de nouveaux droits (Alain Giffard).
Ce colloque a pu approfondir les relations franco-italiennes dans ces secteurs technologiques et culturels, grâce aux partenariats avec les Universités de La Sapienza (Alberto Abbruzzese, Marcello Serra), l’IUAV de Venise (Paolo Fabbri, Carlo Grassi) et celle de Vérone (Davide Rocchesso) mais aussi avec les organismes français et italiens, le CNRS (Jean-Gabriel Ganascia/programme Info-éthique du CNRS, Jean-Michel Salaun/CNRS RTP-doc), du CNR (Stefano Trumpy), de l’INRIA et W3c (Vincent Quint, Oreste Signore), de l’ISOC (Sébastien Bachollet), de l’ICANN (Richard Delmas), du Forum Italien des technologies (Giorgio Pacifici) et de l’ENS-lsh (Françoise Massit Follea).
Il a pu ouvrir largement les collaborations internationales (c'est l'échelle de l'Internet!), dans le cadre européen qui est naturellement le sien, notamment exprimé par la présence de M. Richard Delmas de la Direction de la Société de l'Information à la Commission européenne, de Bernard Benhamou (représentant M. Jean-Michel Hubert du SIMSI), ou le monde de l’entreprise avec Mme Catherine Gabay (MEDEF).
C'était aussi le sens du soutien du Ministère des Affaires étrangères et de son programme "D'Alembert" destiné à promouvoir le débat d'idées dans le monde.
Nul doute que ces travaux et débats auront des suites, y compris au cœur du Sommet mondial de la société de l'Information qui se tient prochainement à Tunis. Le conseiller culturel, Delphine Borione a, à cet égard, rappelé combien il était de la responsabilité de chacun de mesurer tous les effets de la fracture numérique justement dénoncée par ce sommet.
Il ne faut pas se le cacher, les enjeux majeurs à venir de l'Internet se joueront sur les "couches" les plus hautes des régulations et des contenus, celles qui requièrent une confiance maîtrisée dans l'information, la création, les services et la connaissance permis par Internet. Jean-Gabriel Ganascia l’a particulièrement montré dans l’administration et les relations de travail. Gérard Wormser a précisément rappelé comment le droit s’est toujours adapté aux mutations éditoriales et techniques (et non l’inverse), par exemple celles liées à la Révolution française et à la Révolution américaine.
La réaffirmation d’un espace de liberté accru, et moins réglementé, pour favoriser l’innovation et la création, y compris entreprenariale, est une preuve de confiance que doivent affronter les sociétés contemporaines pour tirer le plus grand parti des gains de productivité fabuleux du numérique. Certes des pratiques très diverses sont en jeu, des développements techniques et logiques encore inédits sont requis (le Web sémantique, la traduction, etc). Mais derrière les stratégies industrielles et commerciales des moteurs de recherche par exemple (François Bourdoncle/Exalead), ce sont nos visions du monde et de la connaissance qui se déterminent. C'était aussi le sens du soutien des nombreux organismes de recherche et de formation impliqués, au premier titre duquel le CNRS et ses programmes sur le document numérique et sur l'info-éthique.
Comme l'avait envisagé en juin dernier Jean-Michel Salaun du CNRS et professeur à l’ENSSIB, maintenant en charge de l'Ecole des sciences de l'Information et des bibliothèques de Montréal, ces travaux ont montré qu'ils pouvaient être la matière d'un enseignement de haut niveau, par exemple un Master international. Il reviendra aux différentes instances universitaires, italiennes ou françaises, impliquées dans ce colloque d'en concrétiser les promesses.
Il faut maintenant diffuser le plus largement possible les acquis de ces travaux. Si le public "physique" des étudiants, des chercheurs, des universitaires n'était pas toujours au rendez-vous, à Rome, à Venise, inversement l'audience en ligne de ce colloque n'a cessé de se développer tout au long de ces mois, en plusieurs langues, et dans de nombreux pays. Les textes et contributions seront largement mis en dépôt sur de nombreux sites, et en premier sur celui du réseau culturel français en Italie, www.france-italia.it et sur le serveur CCSD ArchivSic. L'idée d'une publication de synthèse fait elle aussi son chemin, dès lors que des co-éditeurs (La revue « Sens Public », le Forum italien des technologies, etc.) auront défini le bon format.
Qu'il soit permis enfin de remercier les innombrables bonnes volontés (au premier chef celle d’Aurélie Chêne) qui ont permis, avec tant de compétence, de gentillesse et d'efficacité, l'organisation et la réussite logistique de ces journées. De même, tous ont apprécié la qualité de l’accueil et de l’équipement technique de la salle du Future Centre de TelecomItalia de Venise, que nous remercions. Il en est de même pour d’autres sponsors, Altran, Air France, Pierre et Vacances, etc. Sans eux ces journées n’auraient pas été possibles.
Résumé : Une réflexion éthique, liminaire à toute préoccupation normative, juridique ou politique, doit continuer à se développer en Europe, souvent en retard sur l’état des questions posées par de nombreux penseurs américains. Elle doit notamment approfondir la question des libertés liées au développement d’Internet, qu’il s’agisse des ressources physiques du réseau (contrôle industriel et commercial, interopérabilité…), des couches logicielles (éthique du logiciel libre, respect de l’innovation technologique et scientifique, etc…), ou enfin des couches supérieures des contenus sémantiques (liberté des services, des accès, des interactions humaines, etc.) nécessaire à la création culturelle.
Ces réflexions permettront d’éclairer les nombreux débats réglementaires, de régulation, sinon d’ordre juridique, d’un jour nouveau, en phase avec les fantastiques capacités d’évolution et de croissance du réseau.
Le réseau culturel français dans le monde peut être un terrain privilégié de cette réflexion, notamment autour du site www.ideesdefrance.fr. Ici encore, les idées, soutiens et initiatives de tous les intervenants sont les bienvenues.
Cf http://www.france-italia.it
Delphine BORIONE, conseiller culturel
Yannick MAIGNIEN, responsable du Bureau du Livre et des médiathèques
Service culturel de l’ambassade de France en Italie - BCLA
Rédigé à 10:38 dans Ethique | Lien permanent | Commentaires (0)
This article was published on http://www.interdisciplines.org/defispublicationweb/papers/13
It was a first version of "Vérité et Fiction sur Internet" (cf. cette note)
Truth and fiction on the Net
by Yannick Maignien
(Translated from French by David Horn)
Does the Internet and its generalized, hypertextual publication space -- the Web -- fundamentally alter the veracious and/or fictional relationship of language with the world? It is this seemingly simple question that I would like to submit for debate.
Undoubtedly, ethical questions -- or simply deontological interrogations, in certain professional contexts -- are regularly posed regarding the abuses, excesses (or weaknesses) and new forms of transgression (or constraint) introduced by the Web. Piracy, hacking, hoaxes and fraud of all kinds are generated by the development of global networks, through the medium of electronic mail as well as via the Web. For some observers, these new possibilities for fraud or dissimulation -- or simply the difficulty of determining editorial status or even interest -- intensify but hardly change in a fundamental way the profoundly destructive tendencies manifested in human relations over the millennia. In an extreme form of such arguments, the widespread development (in more or less disguised form) of paedophilic, violent, racist, revisionist, or simply «uninteresting» sites, is claimed to be primarily a result of the fundamental perversity of human nature. For others, the unprecedented level of textual production is the cause of the problem, but is considered the price we must pay for the power of new technologies, which new regulations must restrain in the future (1). I would like to reflect on various reasons specific to the new medium of the Net, that, though perhaps less extreme and delicate than these other infractions, are by their very ambiguity less visible and more fundamental. In other words, the question is whether it might be necessary to rethink in a more profound way the relationship that this medium introduces and maintains between language and the world.
Since Frege, analytical philosophy has investigated, as a complement to other conceptions of language, the relationship of reference (Bedeutung) and thereby of truth, that language maintains with the world, as distinguished from dimensions of sense (Sinn) -- fiction for Frege -- according to which language can signify even though verification may not be practical or even possible. Errors, fraud, pretence and even fiction therefore clearly become domains of linguistic activity, without a real engagement of the logical possibilities of language. This aspect of the philosophy of logic and of language has long been clearly established (2). Henceforth, the philosophical debate is open as to whether fiction is a non-referential linguistic form (i.e. without literal denotation). Nelson Goodman contests this claim, preferring to speak of «non-denotational reference» -- thereby revealing the possibility of a positive understanding of the power of fiction, without having to contradict Frege.
How does all this relate to the World Wide Web ?
The idea is that the Web, as a result of its geographic reach, its multi-linguistic (and therefore trans-cultural) scope, but also its intrinsic dynamics (a more or less automated hypertextualisation, the interruption of the authorial function, the reappropriation of a whole range of semiotic, iconic, symbolic and auditory worlds), would seem to permit -- at the very least -- expressive and communicational practices in which the conditions of verification and referencing become, if not impossible, at least difficult or random. However -- and this seems, for the moment, to contradict the present argument -- we are forced to recognise that attempts to create fiction on the Internet (except for a few, perhaps excessively experimental efforts) have remained «disappointing» in the sense that they contribute nothing more than that which literature or cinema have already provided.
It seems to me that, particularly as a result of its unlimited power of hypertextualisation, the Web is largely «self-referential» (or «connotational»), and that the borders between fictional and «true» or «verifiable» worlds are thus much more difficult to determine.
This is more or less my position; I suspect that that the lack of distinction among the practices mentioned is more intrinsically linked to the nature of the medium itself, to that which distinguishes it qualitatively, and that it is necessary to broadly clarify this specificity using varied and innovative heuristic hypotheses. Numerous symptoms warn us that vigilance is necessary. When journalists (those guardians of reference!) express worry over the potential power (and possible abuses) of Google News as a means of producing automatic press reviews (3), unavoidable questions are posed regarding the fundamental techniques of «page ranking» and the logical elaboration of the system. When the Web becomes a privileged forum for the dissemination of rumours (for example, the recent allegations of conspiracy in the wake of Meyssan's book on the September 11th terrorist attacks, despite all evidence to the contrary), provoking sensitive and radical responses from the journalistic community (4), the appropriate reaction is not to hide our heads in the sand.
The evidence suggests that a new «pragmatics» of the Web must be taken into account -- not as a marginal phenomenon, but as an element which, though perhaps not yet entirely visible, is fundamentally linked to the future development of the Web. By «pragmatics,» I mean that these on-line linguistic and semiotic practices lead to new human behaviours. For example, in this respect, the regulated practice of publishing (in the academic sense of the term) falls apart -- with undeniable benefits for the increased circulation of scholarly reflection, but also undoubtedly as a result of the negative way in which traditional rules (the condition of authorship, the legitimacy of reading committees, the functioning of scientific committees, the conditions of reception and readership) have been called into question. For this reason, the work of the Pragmatic School (to which my reflections owe a great deal (5)) should be put to more productive use.
Another heuristic trajectory consists in using memetic theories to take into account the fundamental reproducibility that characterises digital documents. To the extent that these theories attempt to characterise the technological evolution of material duplication in a cultural context, now digital, as processes homothetic to those involved in genetic selection and Darwinian natural selection, we must take seriously the analysis of the memosphere in order understand and extract criteria of fidelity, fruitfulness, and longevity attached to communicational processes. From this point of view, the paths of denotational and fictional reference mentioned above owe a great deal to an economy in which the digital meme, like the gene, has its own logic of competition and success: «memes can take different paths in order to succeed, in the same way that genes use different strategies» (6). As a result of the «replicative performance» intrinsic to digital formats, the value of the copy is superior (in strategic terms) to that of the original -- in which case, questions relating to authenticity, to «content,» to truth as proof, and to the adequacy of denotational reference, are somewhat disrupted.
In relation to these hypotheses, according to which digital language is, in its «machination,» beyond that which formerly bore the admirably manual name of «manipulation,» the Web begins to follow a path well known to information specialists. Its mode of operation implies an ever-increasing distinction between language and metalanguage, data and metadata. At issue is not only the distinction, within the machinic deployment of language, between two levels in the modus operandi of the search for and identification of information, but also the claim that procedural metadata (7) should be added to these descriptive metadata, filtering, authorising, profiling, according to prior characterisations of the data. As we know, this is related to future advanced treatment techniques for on-line resources: client machines will «understand» complex requests.
The hypothesis that procedural metadata could take into account a semantics of pragmatically identified objects is an innovative and central aspect of these reflections.
To conclude, these considerations could converge in the following manner: the theory or semantics of possible worlds, as an adequate conceptual space for representing the characteristics of the Internet, could conceivably be juxtaposed with the logical and syntaxic tools that the (semantic) Web will require. The idea is that the transgressive character of the Web, far from being (exclusively) a flaw, could constitute the new system of benchmarks in relation to which web publishing must be put into perspective and evaluated. The veridiction of Web resources becomes a central question, if only because their growth is exponential and uncontrollable in determinist terms. As I have indicated (8), the contemporary foundations of logic (sense, denotation, reference) are quite explicitly necessary. Cognitive questions of error, of fiction, of transgression or falsification of data, and therefore those regarding more generally the ways in which the network's various manifestations might be regulated, become essential.
Does the extension of an RDF syntax to these modal operators make sense ? (9). From this point of view, we may be able to mobilise the field of modal logic and the semantics of possible worlds, particularly the foundational work of S. Kripke and D. Lewis, provided that we posit that the Web also exists to create possible worlds. The Web, perhaps more than any other medium could (though this is not yet the case), create a «narrative depth,» in which the «real» and the various «symbolic denotations» could ceaselessly reconfigure themselves, not so much in order to dissimulate or to confuse, but to complexify, and thereby enrich, the heuristic possibilities of a reading of the world.
That machines and automata might help us to better structure and differentiate, on the Web, «real» (verifiable) spaces and erroneous or «fictional» spaces, is by no means an insignificant paradox.
(1) This is, to a certain extent, the point of view of Marc Guillaume, see l'Empire des réseaux, for whom the discrepancy is a result of unequal development: rapid for new technologies, slow and uniform for culture.
(2) Jean-Marie Schaeffer, in the Nouveau dictionnaire encyclopédique des sciences du langage, provides a clear presentation of this tradition. See p. 373, «Fiction»
(3) see http://news.google.com/news/gntechnologyleftnav.htmland Automates-intelligents n° 36: «Google provides a current example. The question will be posed: in what way is it democratic? Won't big (notably American) publishers be privileged, as opposed to small ones? What proof do we have that the results produced by the program won't be quietly altered in order eliminate articles considered politically incorrect? What will happen to journalists and editorialists? Undoubtedly, all kinds of manipulations are possible. However, we don't see how the proposed system eliminates debate and the liberty of opinion.»
(4) See Le Monde, 26/03/02: «Les journalistes et le livre de Thierry Meyssan», and «Internet, l'agora de la rumeur», or the editorial published in Le Monde, 20/03/02: "le Net et la rumeur"
(5) I would like to thank Anne Reboul for her help. See La pragmatique aujourd'hui Points essais Le Seuil, 1998 and Dictionnaire encyclopédique de pragmatique, Seuil, 1994. A. Reboul et J. Moeschler.
(6) Susan Blackmore. The meme machine, Oxford U.P. 1999. Thanks again to A. Reboul for having drawn my attention to these perspectives. See also Denett, d. La conscience expliquée, Odile Jacob 1993, Dawkins, R. The selfish gene. On the convergence between this reflection on reproducibility with those of W. Benjamin in bulletin des bibliothèques de France, 1997: «L'oeuvre d'art à l'ère de sa reproduction numérisée» Y. Maignien)
(7) I am referring here to the semantic Web, and more precisely to the Resource Description Framework syntax.
(8) Again, following J. M. Schaeffer et O. Ducrot Nouveau dictionnaire encyclopédique des sciences du langage Essais Points Seuil, Paris 1995.
(9) I think so, obviously, but a working group should be created in collaboration with the W3C in order to test these hypotheses.
Rédigé à 10:19 dans (h)Euristique | Lien permanent | Commentaires (0)
Résumé
Internet et le web sont souvent loués pour leur prodigieux pouvoir documentaire, mais critiqués également pour les difficultés à statuer sur la véracité des informations obtenues. Le présent article tente de réfléchir sur la nécessité de dépasser cette contradiction. C’est fondamentalement le rapport linguistique au monde qui serait à nouveau en jeu avec le Web. Aussi les relations de référence, de dénotation, de véridiction, de dénotation symbolique et de fiction, apportées par la logique et la philosophie analytique devraient être plus mobilisées. Par ailleurs les conduites humaines, sous-jacentes au Web, devraient être mieux caractérisées à l’aide des théories pragmatiques, afin d’intégrer des métadonnées procédurales. Enfin la question de l’émergence de mondes fictionnels ou de « mondes possibles » au sein de l’heuristique du Web nous semble indispensable pour dépasser l’opposition erreur/vérité. Encore faudrait-il que les outils linguistiques automatiques (métalangage, syntaxe RDF) prennent en compte des dimensions logiques plus riches que celles actuellement envisagées.
Vérité et fiction sur Internet
Y. Maignien
Web et transgression
Internet et son espace de publication généralisé et hypertextuel, le Web, changent–t-ils fondamentalement le rapport de vérité et/ou de fiction que le langage entretient avec le monde ? C’est cette question, apparemment simple, que je voudrais mettre au débat.
Certes, nombreuses sont les interrogations d’ordre éthique, (ou simplement déontologiques pour certains milieux professionnels), qui sont régulièrement posées à l’égard de dérives, d’excès (ou de faiblesses), de transgressions (ou de contraintes) nouvelles que le Web introduit, relativement à des pratiques de communication antérieures. Actes de piraterie, hacking, Hoax, malversations en tous genres que génère l’accroissement des possibilités du réseau mondial, autant pour le courrier électronique que pour le web. Pour certains, ces possibilités nouvelles de tromperie ou de dissimulations _ ou simplement d’indistinction dans le statut ou l’intérêt éditorial _ , si elle les amplifient, ne changent rien à la nature profonde des tendances malfaisantes déjà exprimées depuis des millénaires dans les rapports humains ! A l’extrême, le développement généralisé, plus ou moins masqué, de sites pédophiles, violents, racistes ou révisionnistes, (ou simplement « sans intérêt »), relèverait d’abord des vices fondamentaux de la nature humaine. Pour d’autres, le degré révélé de production textuelle sans commune mesure avec l’édition imprimée ferait problème, mais au titre de rançon négative des pouvoirs des nouvelles technologies, que de nouvelles régulations devraient juguler à l’avenir (1).
Nous voudrions ici nous interroger sur des raisons spécifiques au medium nouveau qu’est le Net, qui, d’une part sont peut-être moins extrêmes et moins sensibles que ces délits, mais d’autre part, du fait même de leur ambiguïté les rendent à la fois moins lisibles et plus fondamentales.
Autrement dit, la question serait de savoir s’il n’y a pas lieu de reprendre plus fondamentalement le rapport du langage au monde que ce medium fait advenir et entretient.
1.C’est un peu la position de Marc Guillaume, dans l’Empire des réseaux, pour qui le hiatus naît la différence de vitesse, rapide et accélérée pour les technologies, lente et uniforme pour la culture.
La question de la référence
Depuis Frege (2), la philosophie analytique, en complément d’autres conceptions du langage, s’interroge sur le rapport de référence (Bedeutung), et par là de vérité, que le langage entretient avec le monde, à la différence de dimensions de sens (Sinn) , _ la fiction pour Frege _ selon lesquelles le langage peut signifier mais sans qu’une vérification soit possible ou même faisable. De ce fait, l’erreur, la tromperie ou feintise, et même la fiction deviennent clairement des secteurs d’exercice linguistique, sans que les possibilités logiques du langage soient réellement engagées. Cet aspect de la philosophie de la logique et du langage est clairement connu depuis longtemps (3) . Dés lors le débat est philosophiquement ouvert de savoir si la fiction est un genre linguistique non référentiel (ou de dénotation littérale nulle), ce que conteste Nelson Goodmann, qui préfère lui, parler de «référence non dénotationnelle » (4) , ouvrant ainsi la voie, sans contester les acquis de Frege, à une compréhension positive des pouvoirs de la fiction.
En quoi tout ceci intéresse-t-il le Web ? L’idée serait ici que le Web, du fait même de son extension géographique, de sa variété multilingue, et donc transculturelle, mais aussi de sa dynamique intrinsèque (hypertextualisation plus ou moins automatisée, décrochage des fonctions d’auteurs, réappropriation de l’ensemble des mondes sémiotiques, iconiques, sonores, symboliques, etc. ) autoriserait pour le moins des pratiques d’expression et de communication où les conditions de vérification et de référencement deviendraient sinon impossibles, du moins malaisées ou aléatoires. A contrario, et cela semble pour l’instant plaider en défaveur des présentes tentatives, force est de reconnaître que la création de fictions sur Internet (sauf de rares et peut-être trop expérimentales réalisations) se révèle encore « décevante », au sens où elles n’apporteraient rien de plus que ce que la littérature ou le cinéma auraient déjà apporté.
Il nous semble que, notamment à cause du pouvoir illimité d’hypertextualisation, le Web est largement « auto-référentiel » (ou « connotationnel »), et que les limites entre mondes fictionnels, et mondes « vrais » ou vérifiables sont de ce fait beaucoup plus délicates à établir. Une autre façon de le dire serait de postuler que le Web n’offre pas toujours les garanties de vérification, _ étant le lieu possible du mensonge, de l’erreur et de la manipulation _ mais pour autant ne serait pas propice au discours de fiction, justement en ce qu’il est distinct du mensonge.
Rappelons d’abord que c’est bien en terme de vérité qu’il faut caractériser le discours assertif en jeu dans la « référence ». C’est ce que John Searle nomme le « discours sérieux », où justement son modèle est le journalisme, dont il rappelle les quatre règles sémantiques et pragmatiques : l’implication de l’auteur, la fourniture de preuve, l’apport d’une vérité nouvelle, la règle de sincérité (5).
Et c’est d’ailleurs en opposition avec ces « règles verticales » du journalisme (« … qui établissent des connexions entre le langage et la réalité » ), que Searle va distinguer et définir la fiction. « Concevons donc les conventions du discours de fiction comme un ensemble de conventions horizontales qui rompent les conventions établies par les règles verticales »(6) .
Il n’est pas certain que « l’intention de feindre », bien que relevant effectivement de conventions pragmatiques, soit suffisante à faire comprendre en quoi le Web est propice ou non à un discours de fiction. Notre position est plutôt celle-ci. Nous soupçonnons que la question de l’indistinction des pratiques dénotées est plus intrinsèquement liée à la nature du médium lui-même, dans ce qui le différencie qualitativement, et que cette spécificité a largement besoin d’être éclairée au moyen d’hypothèses heuristiques diverses et nouvelles. D’une part de nombreux symptômes appellent à la vigilance. Quand des journalistes (ces gardiens de la référence !) s’inquiètent des pouvoirs (et des détournements ) qu’introduit Google news comme moyen d’éditer des revues de presse automatique (7), la question des techniques profondes de page ranking et d’élaboration logique du procédé ne peuvent être éludées. Quand la diffusion de rumeurs prend de façon privilégiée les voies du Web (voir par exemple les récentes allégations de complot, au sein du Web, à la suite du livre de Meyssan mettant en cause, contre toute évidence, les conditions des attentats du 11 septembre), déclenchant là encore dans le milieu journalistique des mises au point sensibles et radicales (8), il y a lieu de ne pas se mettre la tête dans le sable (9).
2. Gottlob Frege, Ecrits logiques et philosophiques, Paris, Seuil , 1971, p. 102, “Sens et dénotation”.
3. Jean-Marie Schaeffer, dans le Nouveau dictionnaire encyclopédique des sciences du langage, présente clairement cette tradition. Voir p. 373 « Fiction ».
4.Nelson Goodmann , Manières de faire des mondes, Ed. Jacqueline Chambon, 1992. Voir notamment p. 135 : “ …les mondes de fiction appelés possibles résident à l’intérieur des mondes réels”.
5.John R. Searle, “Le statut logique du discours de la fiction”, in Sens et expression, Paris, Minuit, 1982.
6.Id. p. 110.
7. http://news.google.com/news/gntechnologyleftnav.html Voir aussi le n° 36 d’ Automates-intelligents « Google nous en donne un exemple immédiat. On demandera: où est la démocratie là-dedans? Les gros éditeurs (notamment américains) ne seront-ils pas favorisés par rapport aux petits? Qui nous prouve par ailleurs que les propositions du logiciel ne seront pas remaniées en douce pour éliminer les articles jugés politiquement incorrects? Que deviennent enfin les journalistes et commentateurs? Toutes les manipulations sont possibles, certes. Cependant, on ne voit pas en quoi le système proposé élimine les libres-opinions et les débats. »
8.Voir le Monde du 26/03/02 « Les journalistes et le livre de Thierry Meyssan » et « Internet, l’agora de la rumeur »., ou l’édito du Monde du 20/03/02 « le Net et la rumeur »
9.Voir également Pascal Froissart, “Rumeurs sur Internet” et François Bernard Huyghe, “Du cyberterrorisme comme objet virtuel”, Les Cahiers de médiologie n° 13 “La scène terroriste” . Gallimard, 2002.
Pragmatique et mémétique
A l’évidence, il y a une « pragmatique » du Web, nouvelle, à prendre en compte, non pas marginale, mais profondément liée à ce qui spécifie le Web dans son développement à venir, non encore totalement dévoilé aujourd’hui. Par pragmatique, il faudrait entendre que des comportements humains inédits sont impliquées dans ces pratiques linguistiques ou sémiotiques en ligne. A cet égard, la pratique réglée d’édition, au sens académique du terme, par exemple, explose de toute part, pour le bien sans doute de l’amplification des circulations savantes certes, mais sans doute aussi par la nature négative des remises en cause des règles du jeu (condition d’auctorialité, légitimité de comité de lecture, fonctionnement de comité scientifique, bouleversement des conditions de réception et de lectorat, etc.). A l’évidence, la nature numérique des supports en ligne implique une autre pragmatique que celle en jeu dans l’édition classique. Se refuser à l’admettre, comme le font beaucoup d’éditeurs, restreint et stérilise d’emblée la réflexion. A ce titre, les travaux de l’Ecole pragmatique (auxquels ces réflexions doivent beaucoup (10)) devraient être mieux utilisés.
Un autre axe heuristique consiste à prendre en compte la fondamentale reproductibilité qui caractérise le document numérique, à partir des théories mémétiques. Dans la mesure où ces théories tentent de caractériser l’évolution technologique de duplication matérielle, au sein de la culture, maintenant numérique, comme processus homothétique à celui en jeu dans la sélection génétique et la sélection naturelle au sens darwinien du terme, il convient de prendre au sérieux l’analyse de la mémosphère pour comprendre et dégager les critères de fidélité, de fécondité et de longévité attachés aux processus communicationnels. De ce point de vue, les voies de la référence dénotationnelle ou fictionnelle dont nous parlions plus haut sont redevables d’une économie où le mème numérique, à l’instar du gène, a sa propre logique de compétition et de réussite « les mèmes peuvent prendre différentes routes pour réussir, de la même façon que les gènes ont des stratégies différentes »(11) . La « performance réplicative » foncièrement liée au numérique fait de la copie une valeur supérieure, stratégiquement parlant, à l’original. Auquel cas les questions d’authenticité, de « contenu » de vérité comme preuve et d’adéquation dans la référence dénotationnelle, sont quelque peu bousculées.
Pour prendre une métaphore facile, avec le Web on est passé du stade de la « manipulation », où la question de la vérité relevait d’un rapport quasi manuel, naturel, au langage, à l’ère de la «machination », au sens où le réseau des machines connectées est ce qui conditionne les jeux contemporains de langage.
10. Qu’Anne Reboul soit ici remerciée pour l’aide apportée. Voir La pragmatique aujourd’hui, Paris, Seuil, Coll. Points, 1998 et Dictionnaire encyclopédique de pragmatique , Paris, Seuil, 1994. A. Reboul et J. Moeschler.
11.Susan Blackmore. The meme machine, Oxford U.P. 1999. Remerciements à A. Reboul là encore d’avoir attiré mon attention sur ces perspectives. Cf. aussi Dennett, D. La conscience expliquée, Odile Jacob 1993, Dawkins, R. Th e selfish gene. La convergence de cette réflexion sur la reproductibilité avec celles de W. Benjamin (cf. un texte antérieur dans le Bulletin des bibliothèques de France , 1997 : « L’oeuvre d’art à l’ère de sa reproduction numérisée » Y. Maignien )
Vers un web sémantique des mondes possibles
De fait, le Web est une première étape pour les automates de communication dans une direction bien connue, notamment des spécialistes du monde documentaire. Son fonctionnement implique de différencier toujours plus langage et métalangage, données et métadonnées, afin que des liens ne se limitent pas à « pointer » sur des informations du réseau, mais puissent « traiter » ces informations. L’enjeu est non seulement qu’au sein du déploiement machinique du langage, soient distingués deux niveaux du modus operandi en termes de recherche et d’identification d’informations, mais aussi qu’à ces métadonnées descriptives soient ajoutées des métadonnées procédurales, filtrant, autorisant, profilant, en fonction de caractérisation préalable des données. On sait qu’elles sont liées aux fonctions de traitement avancé des ressources en ligne, et à la « compréhension » par les machines clientes de requêtes complexes. Nous faisons référence ici aux travaux du Web sémantique et plus précisément à la mise en œuvre de la syntaxe Resource Description Framework (12) .
Si ce ne sont pas les « propriétés textuelles » qui selon Searle permettent de distinguer vérité, erreur mensonge ou fiction, ce sont cependant les descriptions métatextuelles des conventions « horizontales » qui diffèrent et ont besoin d’être spécifiées.
Dores et déjà, des tentatives de métalangages existent pour caractériser et baliser des entités sémantiques, de telle façon qu’elles s’inscrivent dans des rôles fictifs (13). Inversement des romanciers, tel Philippe Vasset (14), ont bien vu que les règles conventionnelles qui président aux univers de fiction pouvaient être maîtrisées, au sens industriel du terme, par des logiciels comme Sriptgenerator, dont son roman donne par ailleurs le descriptif…. « Toute ressemblance avec des personnages ayant existé serait … ».
Depuis Don Quichotte, parlant dans le second volume de ses propres aventures imprimées, jusqu’à Mulholland Drive de David Lynch, la théorie de la fiction a repéré le rôle majeur du métalangage, de la figure de la boucle et de la mise en abîme, permettant ainsi au support d’être inhérent à la problématique de la fiction.
L’hypothèse selon laquelle les métadonnées procédurales pourraient prendre en compte une sémantique d’objets pragmatiquement identifiés est un aspect novateur et central de ces réflexions.
Enfin, ces réflexions pourraient converger de la façon suivante. Pourraient être mis en regard la théorie ou sémantique des mondes possibles comme espace conceptuel adéquat pour représenter ce qui caractériserait Internet, et par ailleurs les outils logiques et syntaxiques dont le Web (sémantique) aura besoin.
Une partie du chemin a déjà été faite par les sémioticiens(15), mais avant que le Web ne se développe. Il est à cet égard étonnant que l’on n’ait pas vu la nécessité de reprendre ces travaux à nouveaux frais, en ce qui concerne l’espace de la communication interactive, et non seulement « le rôle du lecteur ou la coopération interprétative dans les textes narratifs » (U. Eco)
L’idée est de penser que le caractère transgressif du Web, loin d’être un défaut serait un système de repères nouveaux relativement auquel il faudrait mesurer, mettre en perspective la publication en ligne. C’est plus du côté du Net Art qu’il faut actuellement se diriger pour trouver de telles expériences transgressives, utilisant des outils interactifs collectifs comme le Weblog ou les Wiki. La question de la véridiction des ressources du Web, ne serait-ce que du fait de leur croissance exponentielle et non maîtrisable en termes déterministes, devient majeure. Une nouvelle pragmatique du Web est nécessaire pour explorer et révéler cette ambiguité cognitive. Comme nous l’avons signalé(16), les fondements contemporains de la logique (sens, dénotation, référence) sont alors explicitement requis. La question cognitive de la fiction, de l’erreur, de la falsification ou de la transgression des données, et donc des modalités sur lesquelles il y a lieu de statuer en diverses instances du réseau, devient centrale. L’extension d’une syntaxe RDF, ou DAML+OIL, à ces opérateurs modaux a-t-elle un sens (17)? Des ontologies d’êtres fictifs peuvent-elles être définies, afin de problématiser le Web sémantique, pour aider à distinguer vérité et erreur, de part et d’autre ? Le recours aux travaux de logique modale, de la sémantique des mondes possibles, notamment ceux fondateurs de S. Kripke (18) et D. Lewis(19) pourraient être mobilisés en ce sens, à condition de postuler que le Web est là aussi pour créer des mondes possibles. Le Web, plus peut-être que tout autre medium, pourra-t-il (ce qui n’est pas du tout le cas actuellement) créer une « profondeur narrative » où le « réel » et les « dénotations symboliques » pourraient se composer à l’envi, moins pour cacher et brouiller les pistes, que pour enrichir, en les complexifiant, les possibilités heuristiques d’une lecture du monde.
Que les machines et automates puissent nous aider à mieux structurer et différencier au sein du Web des espaces « réels » (vérifiables), d’autres erronées, mais aussi d’autres « fictionnels », n’est pas le moindre des paradoxes.
12. Plu s récemment des développements à partir de RDF ont été apportés en ingénierie des programmes de métalangage : DAML +OIL et d’ontologies : OWL du consortium W3C.
13.Voir entre autres Interactive Fiction Markup Language (IFML) http://ifml.sourceforge.net, utilisant XML.
14. Philippe Vasset, L’Exemplaire de démonstration, Ed. Fayard, 2002.
15. Umberto Eco, Lector in Fabula, Grasset & Fasquelle, 1985. Surtout : “8. Structures de mondes” p. 157. Et Thomas Pavel, Univers de la Fiction , Paris, Seuil, 1988. Cet article a aussi une dette envers Alexandre Gefen et son équipe de Fabula (cf. www.fabula.org) cf. Christine Montalbetti, La fiction, et Alexandre Gefen La mimésis, GF Flammarion, Coll. Corpus.
16. Là encore à la suite de J.M. Schaeffer et O. Ducrot, Nouveau dictionnaire encyclopédique des sciences du langage, Paris, Seuil, Coll. Points, 1995.
17. Nous le pensons évidemment, mais il faudrait que s’ouvre un atelier en liaison avec le W3C pour tester ces hypothèses. Il est par ailleurs assez évident que les cloisonnements disciplinaires dans la recherche française en sciences humaines, dont les sciences de l’information et de la communication, interdisent en l’état une recherche de ce type…ou alors dans un autre monde possible.
18. Saul Kripke, La Logique des noms propres, Paris, Minuit, 1982
19. David Lewis, On the Plurality of Worlds, Blackwell Publishers, 1986
Cet article est le chapitre 14 du livre Les défis de la publication sur le Web : hyperlectures, cybertextes et méta-édition, coordonné par Jean-Michel Salaun et Christian Vandendorpe, Presses de l’ENSSIB, Collection « Référence » , Lyon 2004.
Rédigé à 12:57 dans (h)Euristique | Lien permanent | Commentaires (0)
La venue à Rome et à Bologne en octobre 2003 de Jacques Roubaud fut l’occasion de mieux faire connaître en Italie un des auteurs français les plus importants. Poète, romancier, essayiste, mathématicien, oulipien, spécialiste des troubadours, l’œuvre multiforme de Roubaud, appréciée en France, est mal connue en Italie, essentiellement parce qu’elle est très peu traduite.
Sous ce titre « Les mondes possibles de jacques Roubaud », nous voulions rendre compte de cette diversité.
Mais ce titre est aussi proposé comme une des clés de l’œuvre de Jacques Roubaud.
Celle-ci est en effet travaillée par la question du Projet d’écriture : les différentes formes d’expression pratiquées par l’auteur sont autant de recherches, exposées dans « Le Grand incendie de Londres », puis dans « La Boucle » , - recherches pour accomplir le projet de mémoire, de persistance du rêve dans le réel, en lequel consiste écrire.
L’œuvre de Roubaud est de fait paradoxale : en prose, dans les deux ouvrages cités, elle va à la description la plus détaillée de moments de vie, attachés à sa généalogie familiale, parents, lieux d’habitation, rites précis (par exemple la fabrication de la confiture d’Azeroles). A chaque fois, ces éléments sont érigés en une sort de formalisation, en loi, théorème, etc (La théorie du gnien gnien autre exemple), mais parce que, comme le dit Roubaud, ces éléments sont la bibliographie de personne, parce que la bibliographie de tout le monde.
Mais le Monde disparu, notamment lorsqu’il est celui des êtres aimés, interdit de façon irréversible cette reconstruction, de la même façon que le souvenir du rêve est autre chose que le rêve. Aussi pour recomposer, autrement, ce lien au passé, dont le souvenir n’est qu’un effet dérivé et déformé, le travail de recréation poétique est l’une des issues possibles. La poésie est même , pour Roubaud, entre « deux bords de mort »
« Quelque chose noir » est ainsi la tentative de reprendre pied dans ce monde après des mois de deuil et de silence.
Au sein de cette impossible, mais aussi irrépressible, nécessité de conserver le passé, Roubaud est l’un des rares auteurs à citer, à utiliser la théorie logique des mondes possibles. A la suite de Saul Kripke et de David Lewis, deux philosophes et logiciens américains, et comme eux à la suite de Leibniz, Roubaud évoque, tant dans sa prose que dans sa poésie, la possibilité réaliste de la pluralité des mondes.
(«Des mondes: Projet, récit», in Brouillons d’écrivains, B.N.F., 2001 et Jacques Roubaud " La Pluralité des Mondes de Lewis" : poésie, Gallimard, 1991; )
Nous avions déjeuné à la Villa Deste, et lui parlant longuement, mais prudemment, de la possibilité d'appliquer la logique modale dans les opérateurs logiques qui iraient rechercher l'information en ligne dans différents sites du Net, créant ainsi des mondes possibles, Jacques Roubaud donnait l'impression de trouver cette idée assez cohérente, du moins dans la ligne du réalisme modal de Lewis. J'ai surtout le souvenir qu'invitant le poète, au moment de retirer de l'argent au distributeur de billets voisin, impossible de me remémorer la combinaison des quatre chiffres fatidiques...L'art de la mémoire vous joue parfois de ces tours!
Jacques Roubaud, lors d’un colloque à Rome avec Paolo Fabbri, Michele Emmer, Domenico Doria, a lu un sonnet qu’il venait d’écrire, et qui est paru depuis chez Gallimard "Churchill 40 et autres sonnets de voyage 2000-2003", Gallimard, NRF, 2004.)
In memoriam David Lewis
A Yannick Maignien
En dépit de l’impossibilité logique
Qu’il avait pu souverainement démontrer
Il prenait le train pour des voyages trans-mondes
Comme moi ; comme moi soupçonnant que les chats
Y sont maîtres qui "dans les bras deviennent
De petites locomotives". Il partait souvent
De Grand Central pour Princeton, Boston, Providence,
Mais nul ne l’a jamais rencontré sur l’Amtrak.
Je sens que le train ralentit à la frontière
D’une ville encore invisible, matinale,
Vers la gare gorgée de rails et je ne sais
Si la voix que je vais entendre parlera
En mots de la langue présente ou avec ceux
Du plus convaincant de tous les mondes possibles,
Le passé.
(var.) :
Du plus certain de tous les mondes impossibles
Le passé.
Rome, octobre 2003.
Un spectacle a été donné depuis au Théâtre de la Colline sur la Pluralité des Mondes de Jacques Roubaud.
Voir le dossier préparé par Jean-François Puff:
www.colline.fr/revue/roubaud
http://www.incidentsmemorables.org/roubaud/pluralite_des_mondes.pdf
Rédigé à 23:14 dans Esthétique | Lien permanent | Commentaires (0)
Publications, ouvrages, articles :
- Maignien Y. La division du travail manuel et intellectuel, Maspero, Paris 1975
Traduction et publication en Espagne, Edition Anagrama, Barcelona, 1977.
- Maignien Y. Et alii. La Planète alimentaire, Flammarion, Paris 1986
- Maignien Y., Beaudiquez M., “La politique de numérisation de la Bibliothèque nationale de France”, Communication présentée au 3e colloque Microlib, 5-6 septembre 1994, Bruxelles
- Maignien Y. “La constitution de la collection numérisée de la Bibliothèque nationale de France : Vers un nouvel encyclopédisme ?” Literary and Linguistic computing Vol 10. N°1. 1995. Oxford University Press.
- YM. “La bibliothèque virtuelle, ou de l’Ars Memoria à Xanadu”. Bulletin des Bibliothèques de France, 40, 2, 1995, 8-17.
- YM. “Lector ex Machina” Le Débat N° 86 Septembre octobre 1995, Gallimard
- YM. “L'oeuvre d'art à l'époque de sa numérisation”, Bull. Bibl. France, N° 46, 1995
- YM. “Digital library : new preservation practice for a larger scale of access”, Library Preservation and Conservation in the 9Os.,IFLA , Budapest 1995, August14th / 18th .
- YM. “La langue, le corpus, l’archive : le rôle du Trésor de la Langue Française dans le programme de collection numérisée de la BnF”; actes du colloque de l’INALF/CNRS sur le TLF informatisé, Nancy, juin 1995 "Lexicographie et informatique", Didier Érudition, Paris 1996..
- YM. Intervention in “Bibliothèques, Université, Internet” Publications de l’Univ. Paris VII, 1995.
- YM., Wagneur J.D. “La lecture assistée par ordinateur” Bulletin de l’Association des bibliothécaires de France, 1995.
- YM., Virbel J.(IRIT. CNRS). “Le livre électronique et le concept de station de lecture assistée par ordinateur”, à paraître. Symposium “Banques de Données et Enseignement Supérieur”, Dijon 18-20 Septembre 1995.
- YM., Virbel J.(IRIT. CNRS) “Encyclopédisme et hypermédia : de la difficulté d’être à la complexité du dire” : catalogue de l’exposition d’ouverture de la BnF. déc. 1996 "Tous les savoirs du monde" , Flammarion.
- YM., E. Dussert “Numérisation et lecture savante. Le projet de collaboration avec le centre international de synthèse autour de la Revue de synthèse”, in Henri Berr et la culture du XXe siècle. Albin Michel 1997
- YM., E. Dussert, J.D. Wagneur “Hypertexte et Revues”, 1996, “Revue des revues”, IMEC, Paris. N°22, 97
- YM Who will really control the virtual library ? Coll. “The workstation “is” the library”, British Library and UKOLN, Londres, mars 1997, à par.
- YM. “ Vers la Bibliothèque numérique”, Coll. Patrimoine écrit, Roanne, Oct. 1996, à par.
- YM. "Patrimoine et numérisation" Coll. de l'École nationale du patrimoine sur le Multimédia. Nov. 1996, à par.
- YM. "Bibliothèques numériques : les aiguilleurs du Web" Bulletin de l’Association des bibliothécaires de France, N° 174, 1997
- YM “La bibliothèque de Michel Foucault”, Bibliothèque Publique d’Information, Beaubourg. Centre Georges Pompidou, 1997-
- YM. “Au-delà du livre, le numérique ?” in Sociétal N°9, juin 1997
- YM. « Internet y transgresion », in Lineas de fugas, Mexico, 1999.
- YM. Bibliothèques numériques. Chronique partielle d'une bibliothèque virtuelle Ed. Hermès
-YM " Le travail intellectuel à l'ère numérique" Esprit, Mars avril 2000
- YM. « Note sur le réseau des revues électroniques en SHS » A M. Jean-Luc Lory, Directeur des activités du Programme de numérisation de l’enseignement supérieur (PNER), à l’occasion du colloque « Open source dans les sciences humaines » Paris 2001
- YM, « Quelques éléments de prospective en matière d’enseignement à distance. »In Les Technologies en éducation, Perspectives et questions vives, sous la dir. De GL Baron et E. Bruillard. INRP Fondation Maison des sciences de l’Homme. Paris 2002.
-YM. « Réflexions sur la distinction « médiations humaines et médiatisations technologiques –Réponses à Claire Belisle ». In Médiation, médiatisation et apprentissages Notions en questions. Rencontres en didactique des langues, PP 35-38. N° 7, mai 2003 Coordonné par Marie-José Barbot et Thierry Lancien, DIR. Daniel Coste . ENS Editions Lyon,
- YM. Article : « Bibliothèques numériques » In Encyclopedia Universalis . V. 8. 2002
- YM. « Vérité et fiction sur Internet » Colloque virtuel Jacques Cartier Novembre 2002, Lyon. « Les défis de l’édition numérique » Publié, 2004. Presses de l’ENSSIB. Lyon.
- YM . art. « Bibliothèque virtuelle », in Dictionnaire encyclopédique du Livre, p. 327. , Dir . Pascal Fouché. Editions du Cercle de la librairie , Paris , 2002.
- YM. « Fiction et Internet : la question du métalangage » Colloque « Logiques de la fiction » Université d’Aix en Provence (à par.) Février 2003
- YM . « Les bibliothèques numériques » p. 502, et « Vérité et fiction sur Internet » p. 212, in Le Monde des littératures Dir . Y-N. Lelouvier, Ed. Universalis , Paris 2003.
YM. « Prospective du stockage du savoir et avenir des bibliothèques » Rapport mondial sur la construction des sociétés du savoir. UNESCO. Déc.2005. Coord. M. Jérôme Bindé.
« Comment comprendre le défi de Google et comment y répondre ? » ArchiveSic mars 05
Plusieurs de ces articles sont en ligne sur
http://archivesic.ccsd.cnrs.fr/perl/searchfr?LANG=fr&submit=Rechercher&_order=order3&authors=maignien,yannick
Rédigé à 13:00 dans Bibliographie | Lien permanent | Commentaires (0)
« Mondes possibles » est un lieu virtuel de réflexion et d’action pour mieux maîtriser les développements culturels d’Internet.
Internet est, comme la langue la pire et la meilleure des choses. Mais à une échelle inconnue jusqu’alors.
Rien ne garantit qu’Internet fasse de la société de l’information une société de savoirs et de développement démocratique.
L’information, plus que jamais, peut être l’instrument d’une société de contrôle, d’autant plus que seront mal connues et mal maîtrisées les dérives actuelles d’Internet (manipulation, rumeurs, menaces sécuritaires, atteintes à la vie privée, hégémonies des trusts, publicité captive, financement occulte, etc.) .
Inversement ces dérives ne justifient en rien les craintes technophobes, dont les conservatismes trouvent leur expression juridique ou politique sur les terrains les plus réactionnaires.
Des acteurs les plus divers des secteurs de l’information et de la documentation, artistes, entrepreneurs, juristes, responsables économiques ou politiques s’interrogent sur les limites de cette révolution.
Pour sa part, « Mondes possibles » postule qu’Internet et la société de l’Information proposent non seulement l’expression du monde tel qu’il est, dans ses contraintes juridiques, économiques et politiques actuelles, mais permettent déjà de jouer sur de nombreux scénarios virtuels ou potentiels.
Le Web sémantique, les moteurs de recherche à venir devront aller dans le sens d’une plus grande créativité cognitive. L’Internet est le creuset de créations spécifiques indispensables à notre avenir, au dépassement des cloisonnements territoriaux, culturels ou linguistiques.
Que le politique (dans ces heures de pensée unique particulièrement grise) doive se ressourcer dans l'utopie est déjà osé, mais que celle-ci puisse se réaliser dans le signifiant du réseau numérique, voilà une gageure d'un autre ordre!
La mondialisation positive sera plurielle, alternative, dans la diversité culturelle, ses représentations et ses réseaux de coopérations internationales, ou ne sera pas. La dimension "altermondialiste" originale de cette réflexion n'aura donc échappé à personne!
La confiance dans Internet a besoin plus que jamais d’être alimentée par de nouvelles études, de nouvelles initiatives, de nouvelles expertises et de nouvelles réalisations.
« Mondes possibles » souhaite contribuer à cette responsabilité nouvelle.
Rédigé à 12:48 dans Manifeste | Lien permanent | Commentaires (1)
Les commentaires récents