samedi 19 décembre 2009

Exploration bibliographique dans le projet Érudit

Comment chercher? Quoi chercher? Que savoir?
Sur le modèle des base de données météorologiques, astronomiques ou génomiques...

D'abord, il faudrait avoir un support informatique pour développer des modules d'interrogations complexes.
Il faudrait pouvoir construire des méta-requêtes composées de plusieurs sous-requêtes pour regrouper, trier, relier des ensembles de résultats divers, pour créer des index spécialisés, des sous-bibliothèques, des graphiques, des chronologies, des parcours bibliométriques, etc.

Premier principe de la critique: les moteurs de recherche sont insuffisants et ne peuvent faire avancer réellement la connaissance, car ils n'offrent la possibilité que de faire les mêmes recherches qu'avant, mais plus rapidement et plus exhaustivement.

Au centre de cela est la question: que voulons nous savoir?

Si c'est la liste des articles qui ont parlé de tel ou tel mot-clé ou auteur, on n'a pas besoin de plus. Déjà, si ce qu'on veut connaître est la liste des articles dans lesquels on parle de toutes les oeuvres d'un romancier, disons une vingtaine, c'est déjà plus compliqué si on veut regrouper les résultats, et ne pas se retrouver devant 20 listes non fusionnées. Ensuite, faudra une autre requête pour connaître les oeuvres dont parle un seul article. On ne le fait pas, parce qu'on n'a pas les bons outils de recherche.

Autre principe: ces types de requêtes exigent la collaboration d'un informaticien, capable de concevoir et d'écrire ces requêtes complexes.

Qu'est-ce qu'une modélisation, comme en météo? Une sorte de méta-requête qui effectue des dizaines, sinon des milliers d'opérations et d'analyses dans une base de données et qui crée des résultats sous forme de graphes ou de cartes, des cartes animées qui représentent le résultat affiché d'une méta-question composée de multiples petites questions et de résultats, regroupés, puis mis en relation les uns avec les autres.

Pour continuer ce sujet de refléxion: poser une question très complexe et la décomposer en multiples requêtes pour montrer un chemin possible à suivre, puis montrer le mode de représentations qu'on pourrait lui donner. Par exemple, l'idée d'établir comment le Nouveau Monde a conquis l'imprimé européen.

Montrer aussi: que ces méta-requêtes peuvent servir à créer de véritables catalogues spécialisés ou même des bibliothèques. Par exemple, dans Érudit il pourrait y avoir la "salle" Révolution tranquille (RT), subdivisée, organisée comme une vraie bibliothèque virtuelle. Ce pourrait être un projet à proposer: regrouper toutes les ressources de l'imprimé autour de la RT.

Aussi, ces réflexions mènent à reconsidérer le "traitement" que l'on fait à un document quand il est acquis et qu'on indique parfois justement "en traitement". Cela signifie les étapes suivantes: indexation, description, reliure, sécurité, code barre, intégration dans le système informatique puis sur les rayons et dans le logiciel de prêt. Essayer de penser à un traitement automatisé du contenu pour l'intégrer dans les différentes bibliothèques/catalogues spécialisés. Par exemple, on analyse le contenu en texte intégral, identifie les mots-clés associés à la RT, on le "tague" automatiquement, l'ajoute aux index des auteurs, des sujets, aux réseaux bibliométriques. Une façon donc de programmer le traitement sémantique des contenus. Le soumettre à des requêtes pré-établies, le traiter pour lui donner des mots-clés supplémentaires. Ce serait une sorte d'outil d'indexation supplémentaire...

Voir aussi les "FOAF" (Friend of a Friend) qui permettent de représenter les liens entre les personnes.
Trouver aussi des manières de représenter les liens entre les textes critiques, entre les oeuvres elles-mêmes, entre les textes critiques eux-mêmes. On pourrait imaginer des TsuT, un "Texte sur un Texte".

Créer différentes modalités de représentation des résultats, par exemple sous la forme d'arbres schématiques:
- de la critique, positive, négative...
- de la création littéraire: des branches qui unissent des contenus thématiques, des branches qui unissent des matières textuelles (dans le cas de Ferron très nombreux); ces modules peuvent être transposés dans le domaine de la critique: il y a des liens thématiques ou méthodologiques (psy, sémio, historique...), ou argumentatifs (l'évolution de la réception du thème du pays ou du "Ferron intime"); la matière textuelle de l'oeuvre, cela peut être des citations, des éléments textuels-sémantiques de la critique, que l'on retrace pour tracer des liens, les argumentations de la critique....

- peut-on trouver des manières automatisées de créer soit des résumés et/ou les structures argumentatives en identifiant les opérateurs logiques du texte argumentatif...

- distinguer les formules introductives des citations ou des commentaires (généralement placées après, mais souvent avant aussi: la citation illustre alors un fragment d'analyse)
- liens entres les auteurs de la critique / liens entre les textes de la critique
- identifier aussi les marques de la citation indirecte: "comme disait X...", "Y a écrit que blablabla"...
- tout le défi aussi d'identifier les notes en bas de pages, les bibliographies, etc.: trouver quelques exemples de logiciels qui tentent d'extraire les références bibliographiques des textes imprimés...
- tracer des réseaux sémantiques et argumentatifs entre les textes critiques

Donc proposer des sujets de recherche et aussi des manières de présenter les résultats. En ce moment, le résultat est aussi éphémère que la durée de la session. Les résultats de la recherche ne s'accumulent pas. Imaginons une application qui conservent les recherches effectuées pendant un mois: mots-clés, sujets, titres, auteurs, etc. Au bout d'un mois, une application en fait la synthèse et crée une bibliographie de ce que les usagers ont cherché et trouvé. On pourrait ainsi au moins savoir ce que les usagers cherchent pour inclure les résultats dans
1) une histoire de la recherche
2) une analyse des performances du moteur de recherche
3) une programme de suggestions de recherche
4) pour créer des bibliographies spécialisées en analysant le contenu des recherches.

Enfin, il est impossible que les recherches effectuées ne contiennent aucune information sur les intérêts des chercheurs, les limites du système de requête, sur les stratégies de recherche, etc.
Comment mesurer la performance du chercheur pour trouver ce qu'il cherche: emploie-t-il une mauvaise stratégie ou est-ce l'interface et les possibilités du moteur de recherche qui sont déficientes.

Pour ce sujet, partir d'une vraie question et tracer toute la démarche à suivre pour trouver des "réponses"

mardi 1 décembre 2009

Écrire dans l'ère numérique

Un chroniqueur de Wired, encore elle, la vieille revue des nouvelles Internet, parle ce mois-ci du déclin de l'univers des blogues qui n'aurait que 4 ans. Ces "nouvelles" pratiques d'écriture perdraient de la popularité et seraient peu à peu abandonnées au profit de Facebook, MySpace ou d'autres sites de réseautage parce que les "anciens " blogueurs y trouveraient presque les mêmes possibilités d'écriture et des possibilités infiniment supérieures pour partager photos, vidéos, clips sonores, liens, "amis", etc., alors que dans les logiciels de blogues actuels ces applications sont moins développés (cela est généralement vrai). On y parle d'un blogueur "célèbre", américain bien sûr, qui aurait presque fermé son blogue pour aller vers ces sites ou même vers Twitter, ce site de micro-textes. Et de conclure que les gens ne veulent lire que des textes brefs, de plus en plus brefs, et préfèrent échanger des instantanés de toutes sortes plutôt que des textes.

Bon, ce n'est pas nouveau: ça toujours été vrai pour tous ceux qui n'aiment pas lire ni écrire. Puis, il y a quelque chose de culturel, presque d'anthropologique, un phénomène qui semble avoir toujours existé: il y a somme toute peu de gens qui poursuivent pendant longtemps la pratique d'un "art" ou plus simplement une pratique de communication ou d'expression. Presque tout le monde a écrit quelques pages de journal personnel un jour, déjà moins de gens ont écrit le lendemain, et encore moins le troisième jour, ainsi de suite, jusqu'à ce qu'il ne reste qu'une infime poignée de gens au bout d'une année, et seulement quelques de diaristes après deux ans et plus. La seule chose qui ait vraiment été populaire et le restera, c'est le téléphone. D'ailleurs, c'est vers les téléphones intelligents que se déplacent de plus en plus les NTIC. Là, ou malgré tout les efforts qu'on fera, l'interface d'écriture restera étroit et limité.

Même chose pour la musique: qui n'a jamais gratté une guitare ou pianoter? Qui a poursuivi le moindrement intensivement pour au moins être capable de continuer à savoir jouer quelques petites tounes tout au long de sa vie? Très peu. Pourquoi la pratique des nouveaux médias serait-elle différente? S'il est sûr que l'éducation et l'alphabétisation a accru de manière radicale le nombre de gens qui écrivent, des écrivains professionnels aux rédacteurs amateurs, il demeure un tout petit nombre de gens par rapport au nombre de gens qui savent écrire. Des milliers, il y a des millions de fois plus de lecteurs que d' "écrivains" (une chance!). Et même chez les écrivains, combien y a-t-il de première oeuvre sans deuxième oeuvre, de 2e sans 3e, etc.?

Et pourtant, le "monde branché" écrit plus que le "monde non-branché": courriels, textos, clavardage, etc. On écrit tout le temps, même les requêtes et les recherches dans les moteurs peuvent être considérées comme les formes minimales d'écriture. Du moins, pour ce qui est des communications spontanées, de la communication écrite.

Et si les blogues déclinaient parce qu'il y en a trop peu de bien écrits! De vraiment bien écrits. Et que le petit blogue sympathique du voisin et de la voisine ne pouvait qu'être vraiment intéressant pour peu de gens, leurs vrais amis. Dans les blogues d'informations, combien offrent vraiment des informations importantes et bien écrites? Pierre Foglia a sans doute pris des années et des centaines de chroniques pour avoir le public qu'il a aujourd'hui. Les livres, même les meilleurs souvent, ne rejoignent que quelques milliers de personnes en moyenne alors que, comparés à la moyenne des blogues, ils sont bien écrits. Et on voudrait que le blogueur moyen ait plus de lecteurs que un écrivain, même moyen?

N'empêche que le commentaire de Wired sur l'écrit dans le monde numérique, ces continuels déplacements d'un genre à l'autre, des pages personnelles aux blogues puis au profil d'usager et au mur-babillard de Facebook, montre comment l'écriture est maintenant dans un univers concurrentiel, en compétition avec les autres médias et techniques de communication. Jusqu'à l'ère numérique, tous les médias exigeaient une infrastructure relativement importante pour diffuser des contenus: journaux, livres, photos, films, voix, etc. L'écrit demeurait le plus simple, le plus léger et malgré cela, les possibilités de diffusion restaient étroites. Internet donne à tous les médias les mêmes possibilités démocratiques que l'écriture: il égalise, il égalitarise. Il est même possible de réaliser assez simplement de courts films d'animations 3-D, quelque chose de réservé strictement aux populeuses équipes de Disney voilà 10-15 ans.

Enfin, c'est une situation connue où l'écriture semble toujours perdre, devenir de plus en plus pratiquée et, dans le même mouvement, toujours plus marginalisée, secondarisée symboliquement, comme accessoire. C'est paradoxale: plus le nombre d'utilisateurs-scripteurs augmentent, plus sa valeur "baisse". Phénomène d'offre et de demande: la rareté de l'écriture se faisant moins grande, sa valeur diminue. Cela fait penser au commentaire de Ferron selon lequel "dans une société analphabète, les écrivains occupent symboliquement une place forte, admirée". En contrepartie, dans une société ou presque tout le monde écrit presque quotidiennement, et même seulement "fonctionnellement", quel peut être le statut de l'écrit et des écrivains?

Que comprendre de cela? Comment interpréter ce statut incertain, contesté de l'écrit dans la culture?
Ces changements peuvent montrer, a contrario, à rebours de l'histoire, dans une sorte de perspective historique inversée, comment les oeuvres, les grandes oeuvres de l'écriture ont pu exiger des siècles, sinon des millénaires d'efforts, d'essais et d'erreurs. Car si la pratique intensive de l'écrit par des millions de personnes dans des dizaines de langues, sous toutes les formes possibles, représente un échantillon immense, exceptionnel et jamais rassemblé, des possibilités scripturales de l'écriture, il faudra convenir comment les grandes oeuvres représentent des constructions-inventions absolument extraordinaires, exceptionnellement rares, exigeant que l'écrivain atteigne une maîtrise de l'écriture au-delà de tout ce qu'un scripteur spontané ne pourra jamais faire dans sa vie, et même s'il en avait plusieurs.

Faisons un parallèle avec le sport. Tout le monde peut courir, nager ou sauter, ou presque. Mais combien de spectateurs peuvent attirer les joggings de monsieur-tout-le-monde et les steppettes et madame-tout-le-monde? Quelques amis et parents, sympathiques, venus les encouragés, et qui d'autre?

Le glissement "naturel" des écrits numérique vers le texte bref (parce que les gens aimeraient ça plus que les textes longs), c'est comme si le marathon était abandonné parce que les coureurs du dimanche trouvent ça trop fatigant ou ne sont tout simplement pas capables de le compléter. Si la tendance se maintient et que l'écrit glisse vers Twitter, où la maximum de mots est 140, plus Dante, Balzac, Faulkner, Ferron, Baudelaire, Montale ou Saint-Denys-Garneau deviendront de plus en plus de grands écrivains. Parce qu'on n'aura qu'une seule question à la bouche: comment ont-ils pu concevoir des oeuvres aussi vastes alors que la tendance "naturelle" des scripteurs est d'envoyer des textos ou de clavarder? Comment ont-ils pu faire alors? Autrement qu'en ayant un peu de génie et ayant consacrer leur vie à cela. Il y a aussi peu d'écrivains intéressants que de sportifs intéressants à regarder.

Le mystère est celui-là: comment faire naître de la pratique courante de la parole et de l'écrit des oeuvres si fortes, qu'elles soient littéraires ou plus généralement intellectuelles. D'ailleurs, il sortira certainement quelques petits chef-d'oeuvres de l'époque blogue, ce seront ceux de génies précoces - il y aura bien quelque Rimbaud dans toute cette blogosphère -, ou des blogueurs au long souffle qui écriront le leur pendant des années et des années, sans relâche, comme certains grands journaux personnels, composés de milliers et de milliers de pages, de liens. On ne peut les connaître, ni les uns ni les autres pour le moment. Annoncer la mort d'un genre, le blogue, alors qu'il n'a que 4 ans, c'est un peu rapide.

vendredi 20 novembre 2009

Après les systèmes Dewey et Congress II

Les grands sites commerciaux, ceux qui gèrent des millions de documents, d'informations et de documents, comme Ebay, Amazon, Facebook, Youtube, etc, ont développé d'autres systèmes de classement, non-standardisés, plus intuitifs, où les usagers jouent un rôle central dans l'indexation des dizaines de millions documents multimédias qu'ils décrivent. En ce domaine, c'est sans doute l'expérience de Ebay qui est la plus riche et originale. Le site regroupe des millions d'acheteurs et de vendeurs qui font des millions de transaction par jour pour vendre-acheter de tout: livres, bébelles, voitures, maisons (!), billets de spectacle, vêtements, "weird stuff", etc. La variété des choses décrites est absolument phénoménale: elle recoupe tous les produits et choses possibles. Et pourtant, les acheteurs trouvent rapidement ce que des milliers de vendeurs sans aucune formation en bibliothéconomie ou en indexation décrivent spontanément, sans trop rigueur, d'une manières souvent incomplète et même souvent (involontairement) fausse. Et ça marche! Moins rigoureux que ceux des bibliothèque mais plus souple, ce système est très performant parce qu'il évolue tout le temps selon les ressources nouvelles des NTIC. Celui des bibliothèques ne bouge pas, n'évolue pas. Si de nombreuses discussions portent sur la manière d'introduire la folksonomie dans les bibliothèques web 2.0, faut noter que les exemples sont encore rares et plutôt prudents et craintifs.

Mais comment le sytème d'Ebay réussit-il? Il y a deux systèmes d'identification complémentaire: un thésaurus de catégories structuré, hiérarchique et la recherche plein texte dans le titre (par défaut) et/ou dans le texte de la description rédigée par les vendeurs. Ça peut ressembler à un système Dewey, moins détaillé à l'intérieur de chaque grande classe d'objets (par exemple, le classement des livres y est infiniment moins développé quand dans le Dewey bien sûr), mais avec un spectre, un champ d'application plus large, du dé à coudre pour collectionneur aux photos anciennes, du calendrier aux souliers de contrefaçons.

Autre idée: Youtube permet de découvrir et tous les moteurs de recherche commerciaux sont axés sur la découverte: offrir aux clients plus qu'ils en demandent, leur proposer ce qu'ils ne cherchent pas, les faire cliquer plus et plus, ne jamais les mettre devant "pas de résultats": ces sites nous inondent d'informations qu'on ne cherche pas, et ça marche: souvent, on oublie un peu ce qu'on est venu chercher et on clique sur ce qu'on nous propose. D'ailleurs, les gens utilisent très souvent l'expression "T'as pas vu ce que j'ai découvert..." ou "Tu sais pas ce que j'ai trouvé...", mais employée dans le sens de "découvrir", verbe qui exprime l'étonnement, la surprise... En un certain sens, les moteurs de recherche de ces sites sont plutôt des moteurs de découverte plus que de recherche.

Dans les sites des institutions publiques, c'est comme si à l'entrée d'une musée il y avait un portier qui demandait l'air un peu bête: que cherchez-vous? Si vous ne le savez pas, attendez de le trouver avant d'entrer. On sait tous que souvent la première motivation, comme dans une librairie, est la curiosité même l'ignorance: "Je ne sais pas trop, je m'en viens voir ce que vous avez..." Et c'est au musée et à la librairie de concevoir un aménagement qui m'en mette plein la vue. C'est ce que font les sites commerciaux qui, autre paradoxe, ne produisent aucun contenu! Ils ne doivent pas classer ce qu'ils produisent, mais ce que les usagers et les abonnés ajoutent à leur base de données. Ce sont des sites qui investissent rien dans le contenu, ou presque, et tout dans des applications pour rendre facile l'ajout du contenu, sa consultation, son échange, etc.
À l'inverse, les bibliothèques et les institutions nationales investissent tout dans le contenu numérisé et rien ou presque dans les applications pour le consulter, le commenter, l'échanger. La popularité des premiers est-elle que tout le monde les connaît - même ceux les non-branchés ont entendu parler de Ebay, Amazon, Facebook - alors que le contenu des seconds est à peine connu et consulté par le public branché.

jeudi 22 octobre 2009

Après les systèmes Dewey et Congress I

Le système de classement des livres de Dewey et celui de la Library of Congress jouent deux rôles: classer les livres et les documents par leur contenu dans le cadre d'une description standardisée des savoirs, ET à classer les livres sur les rayons des bibliothèques.

Pourtant, en théorie, les cotes pour décrire les contenus des livres et leur localisation dans les bibliothèques pourraient être distincts. Par exemple, touts les documents ont un «call number», un numéro de système unique qui sert à les identifier dans la base de données, souvent selon leur date d'acquisition. Ce numéro ne décrit aucun contenu et est attribué arbitrairement, automatiquement. On pourrait classer les livres sur les rayons par ce numéro d'identification... mais ce serait un vrai bordel que de chercher dans une telle bibliothèque: les livres seraient sur le plan des contenus dans un désordre absolu.
Le double usage des cotes Dewey et/ou Congress vient du choix, apparemment logique et pratique, qu'on a fait de mettre côte à côte les livres qui ont le même sujet, des contenus similaires. Avoir un seul système pour eux décrire les contenus et localiser les documents, c'est économique pour la gestion des documents et facile à utiliser par les usagers et le personnel.

Curieusement, dans les moteurs de recherche, les usagers cherchent peu avec la cote ou par sujet. Ils cherchent par titre, par auteur, surtout. Les résultats sont surtout classés par ordre alphabétique ou par date, quand il y a la possibilité de trier les documents trouvés selon différents champs. La chronologie et l'ordre alphabétique sont déjà deux autres systèmes de classement différents de Dewey et Congress. Même s'ils en ont la possibilité, les usagers parcourent «rarement»  (ce serait à vérifier) les résultats des moteurs de recherche par la cote, alors que c'est la pratique la plus courante dans la bibliothèque elle-même.

Un système de classement unique a de multiples avantages, entre d'autres de permettent la standardisation de la description, l'échange des notices, le pré-catalogage, etc. Cela ne fait pas de doute et qui va proposer d'abandonner ces systèmes? Y aurait-il seulement deux manières de classer les livres, les imprimés et tous les documents produits par l'humanité? Évidemment non. Et la tâche d'inventer un système qui se propose de permettre de tout classer est immensément difficile. Y en a-t-il des meilleurs que d'autres? Certainement. Mais c'est Dewey et Congress qui se sont imposés, comme les thésaurus de mots-clés et des vedettes-matières internationaux qui les complètent.

Parce que la cote officielle classe le contenu intellectuel et sert aussi à ordonner les documents physiques sur les rayons de la bibliothèque, il est obligatoire qu'il y en est une seule. Cette double fonction («immatérielle» et «matérielle») est donc un compromis. Dans répondre à cette double contrainte, il ne peut alors y avoir plus qu'une classification en usage. Intellectuellement, on fait abstraction des multiples contenus dont peut parler un document pour en retenir que quelques-uns, celui jugé le plus important par Dewey ou Congress, du moins tel que définis à l'intérieur de ces deux systèmes. Les mots-clés complètent ce système et permettent d'ajouter à ce contenu principal d'autres sujets, d'autres contenus. C'est possible de le faire, parce que les livres ne sont pas classés sur les rayons en se basant sur les mots-clés. Pour le faire, il faudrait plusieurs exemplaires d'un même document lié à autant de localisation où il serait placé à côté des autres documents avec le même mot-clé. En fait, dans un tel système, il faudrait avoir autant d'exemplaires d'un document que de mots-clés ayant servi à en décrire le contenu. Peu économique pour la bibliothèque! Mais cela pourrait être utile pour l'usager. C'est d'ailleurs ce que les résultats de recherche en ligne permettent. On peut y afficher une liste de documents par mot-clé.

Quand on veut trouver ces ouvrages, au lieu de les trouver côte à côte, on doit se déplacer sur plusieurs rayonnages pour les regrouper tous. Tout ça pour dire que les classements Dewey et Congress sont des systèmes de description des contenus mais qui remplissent un autre rôle beaucoup plus pragmatique, celui de localiser les documents. C'est la contrainte matérielle d'avoir une seule et unique localisation qui empêche fondamentalement qu'il puisse exister plusieurs systèmes pour décrire les documents des collections.

La question demeure pourtant: pourquoi sont-ils les seuls à être utilisés pour classer la bibliothèque? Pour en intégrer un autre dans une bibliothèque réelle avec de vrais livres sur les rayons, il faudrait que ce soit un système qui ne sert qu'à décrire le contenu. On ne peut pas avoir deux cotes différentes pour localiser un document unique! Pour ouvrir la possibilité d'autres systèmes, il faut donc d'abord distinguer le classement des contenus du classement physique du document. C'est ce que montre la prolifération des modules qui permettent d'ajouter des mots-clés personnels (tag) aux documents consultés.

Ce qu'on appelle la "folksonomie" (classement par le "peuple-folk") est en voie de se généraliser. Leur caractère spontané et le peu de document que ces taxonomies décrivent n'en font pas des systèmes de classement proprement dits: ces mots-clés s'ajoutent à ceux attribués par les responsables de l'indexation. En fait, ils identifient le contenu plus qu'ils le classent dans une hiérarchie, dans un thésaurus.
D'ailleurs, c'est une des limites des folksonomies actuelles que de ne pas permettre, semble-t-il, la création de véritable thésaurus pour représenter un réseau de relations sémantiques entre les termes utilisés pour décrire les contenus. Sans hiérarchie et relations sémantiques pas de système, que des «nuages» de mots-clés. Du moins, c'est ainsi qu'on représente parfois ces nouveaux mots-clés.

jeudi 1 octobre 2009

Que peut-on savoir de l'oeuvre de l'écrivain aujourd'hui?

En prenant Ferron comme échantillon-étalon, quelles sont les questions que l'on peut poser à une oeuvre et à son auteur aujourd'hui? Que peut-on savoir, penser, écrire, publier aujourd'hui, avec l'avancée des NTIC, sur une oeuvre littéraire ou, tout simplement (!), sur la littérature?

D'abord, essentiellement, les connaissances et les informations ne sont pas différentes de celles qui permettaient de les étudier précédemment: exhaustivité du corpus, manuscrits, textes critiques, documentations connexes, etc. On retrouve tout cela autour de certaines grandes oeuvres canoniques: la Bible, Shakespeare, Rabelais, Cervantes, Carroll. Ce travail est l'accumulation de siècles de recherche parfois. Le passage au numérique accélère d'une façon inimaginable la cueillette des informations et permet de les regrouper rapidement dans des applications ou des bases de données que l'on peut interroger immédiatement et sans arrêt. On peut donc étendre ces recherches exhaustives à tout un ensemble d'autres oeuvres.

Une partie de ces informations, surtout celles sous forme imprimée, était accessible mais seulement théoriquement. Dépouiller tous les journaux du XIXe siècle pour y trouver des références à une oeuvre ou à des auteurs était possible, mais dans la réalité, cela ne l'était pas vraiment: trop long, trop fastidieux, c'était une tâche infinie compte tenu des ressources humaines disponibles.

Les changements sont alors:
- la précision et l'exhausitivité des inventaires textuels imprimés... Les grands corpus numérisés vont permettre d'étendre la réception critique à de grands corpus jamais ou rarement indexés précédemment. Souvent des références secondaires, bien sûr. Mais dans un projet d'une étude de réception critique pointue ou de la diffusion d'une idée ou d'un style sur une longue période dans un immense corpus, cela peut devenir un champ de recherche et de découverte très riche.

- la pluralité des sources documentaires qui recouvrent la totalité de l'activité littéraire de l'écrivain (de ses lectures à la dernière réception critique dans un blogue, en passant par ses manuscrits, les rééditions, adaptations, etc.)

- une abondance d'informations qui dépassent la capacité de lecture et d'analyse d'un seul lecteur et même d'une équipe (mais cela est assez fréquent dans le cas d'un auteur important, comme Proust), ce qui fait qu'il n'y a plus de véritable synthèse. Les études deviennent de plus en pointues, spécialisées, pas tant à cause d'une évolution intellectuelle qui aurait permis de faire apparaître un nouvel objet d'étude, mais tout simplement parce qu'une étude à l'horizon large, ambitieuse, synthétique, est maintenant impossible.

Par exemple, l'analyse de Bakhtine sur l'évolution du roman occidental, des pastorales grecs à Dostoïevski, peut paraître aujourd'hui extrêmement partielle. On pouvait le penser et le savoir aussi quand cela a été publié, mais la critique était malaisée: il était impossible de faire autrement, et on ne pouvait qu'admirer sa culture et son érudition. Ce qui ne signifie pas que ces hypothèses soient fausses, mais la prise en compte de tout le corpus maintenant numérisé, donc accessible à l'analyse, modifierait certainement ses conclusions.

En ce sens, des travaux de recherche pourraient consister à refaire des études anciennes, à partir des mêmes hypothèses, et de les étendre aux grands corpus maintenant accessibles. Faudrait, bien sûr, réussir à automatiser la méthodologie et le répérage des indices textuels à l'aide de logiciels en intelligence artificielle. Que resterait-il de ces études anciennes une fois qu'on les aurait soumises à cette épreuve? Cela se fait souvent en science, en médecine, dans toutes les sciences expérimentales où les protocoles d'observation sont repris sur des échantillons plus vastes. Les conclusions confirment ou infirment souvent les premières. L'autre chose, bien sûr, est de modifier le protocole de recherche en les adaptant aux ressources des NTC pour les ré-appliquer au corpus premier.

D'autre part, c'est un point capital: la valeur du travail de Bakhtine, et de bien d'autres comme lui, est justement sa méthode, sa culture, ses connaissances encyclopédiques et "polygottes". Les NTIC étendent à des dimensions infinies le corpus, et montrent la valeur irremplaçable de l'esprit et de l'intelligence du critique.
Paradoxalement, cette explosion du corpus interrogeable montre une déficience de la pensée. On pourrait dire que plus s'accroît l'accès aux sources documentaires, plus diminue la capacité intellectuelle de les étudier pour en faire jaillir le sens, autrement que par des données quantitatives. L'intelligence ne diminue pas en "quantité" absolue: ses limites, son incapacité (relative) à penser est inversement proportionnelle au corpus accessible.

Nous sommes donc en déficit d'intelligence.

Faudrait voir comment dans le domaine scientifique, la théorie a été obligée d'évoluer à cause de nouveaux outils de connaissances ou d'observation. Par exemple, le microscope électronique, en faisant reculer les limites du "visible", a forcé la physique, la chimie et la biologie à revoir leurs théories. En climatologie, où il y a maintenant des milliards de données presque quotidiennes, cela doit être la même chose: penser autrement la météo parce que les données sont différentes, et surtout extrêmement plus nombreuses.

La quantité et la variété du corpus demande l'assistance d'assistants artificiels et intelligents. Ils vont apparaître et doivent se développer sous la pression de ceux qui veulent connaître. Justement, que voulons-nous savoir d'une oeuvre littéraire et d'un auteur aujourd'hui que nous ne pouvions pas connaître auparavant? Ou encore mieux, que voulons nous connaître que nous n'avions même pas l'idée de connaître parce que l'éventuelle réponse, la "réponse virtuelle", était en dehors du connaissable, ou de ce que nous pouvions connaître avec les outils dont nous disposions? Il y a donc aussi un déficit de questions, ou une difficulté à poser d'autres questions, de nouvelles questions, pour forcer, encourager le développement des applications des NTIC.

Qu'est-ce qui est alors vraiment nouveau?

1) le format numérique permet de réunir toute la documentation qui, dispersée dans des centaines et des milliers de documents-papier, ne pouvait pas être vraiment regroupée, liée, reliée et associée pour créer un seul immense document, comme un ouvrage gigantesque de dizaines de chapitres, de tableaux, d'index, de définitions, etc. Ce réseau documentaire est inédit. L'oeuvre de Rabelais n'est pas reliée à sa critique, sauf parfois en notes en bas de page. Pour ce texte où chaque mot a fait l'objet de plusieurs gloses souvent importantes, aucun ouvrage imprimé ne rend compte de la totalité de la documentation ni des liens qui existent entre les différentes gloses.

2) la question centrale est sans doute à chercher de ce côté, de la manière d'organiser les réseaux documentaires dans des perspectives diachronique et synchronique. D'abord, en réalisant ces deux réseaux pour chaque élément de l'étude:
- biographie
- oeuvres - manuscrits
- correspondances
- critiques
- documentation diverses (bibliothèques, lectures, influences, contexte intellectuel...)
- chronologies multiples.

Pour la critique, cela prendrait la forme d'une bibliométrie exhaustive où on pourrait suivre chaque élément et point de vue de la critique tout au long de l'histoire de l'oeuvre. Par exemple, pour Ferron, on pourrait suivre la réception du "pays incertain" depuis 1962 à travers la critique, ou l'idée de Jean Marcel à savoir que "toute l'oeuvre de Ferron peut être placée sous le signe du conte". Idée souvent reprise depuis plus de trente ans.
De la même manière, on pourrait faire une sorte d'étude de bibliométrie pour l'oeuvre de Ferron elle-même pour identifier la multitude des reprises textuelles ou thématiques que l'on trouve tout au long de ses écrits: d'un manuscrit, à une historiette, à un récit, à une lettre, à un autre manuscrit.

Une fois qu'on aura trouvé une manière d'exploiter la documentation numérique, il faudra inventer aussi comment représenter, publier les résultats trouvés. Une partie prendra toujours la forme de textes et d'études, peut-être la partie essentielle, mais il faudra aussi inventer des manières de publier-afficher-diffuser les résultats d'un type nouveau que permettent les NTIC. Il y a un spécialiste italien qui crée des graphiques assez originaux à partir de grands corpus sur la littérature du XIXe siècle. Par exemple, il a trouvé une façon de représenter l'évolution des techniques narratives de l'intrigue policière sous la forme d'une sorte d'arbre généalogique. Il a fait la même chose avec l'apparition du discours indirect et du discours indirect libre.

Pour Ferron, une étude linguistique intéressante serait d'étudier comment le jeune brébeuvois qui écrit des petits vers libertins "niaiseux" a-t-il pu s'émanciper de ce style appris pour, à la toute fin de sa carrière, près de cinquante ans plus tard, écrire avec le souffle de Gaspé Mattempa. Vadeboncoeur a écrit que la langue de Ferron marchait sur trois siècles: le Grand Siècle, le XIXe et le XXe. Peut-on le démontrer, l'illustrer ou l'infirmer? Sur le plan du lexique, de la grammaire, de la syntaxe? À quel corpus le comparer? Comme écart stylistique, mais dans quelle mesure le fait-il, lui qui a toujours souligné comment l'écrivain écrit avec la langue de tous?

mercredi 30 septembre 2009

Exploration des lieux de la mémoire

Que faire à partir de l'inventaire des lieux de la mémoire du Canada français par le CÉLAT? Comment le présenter pour qu'il devienne un publication internet où un assez large public pourrait y découvrir l'histoire, et aussi, que des associations et des organismes OSBL puissent l'exploiter à leur façon, y aménager des parcours?
D'abord, les lieux de mémoire mettent en relation la géographie et l'histoire, l'espace et le temps selon deux espaces-temps. Leur reconnaissance, et donc leur inventaire, s'appuie sur (au moins):
- deux séries de dates: celle de la date où s'est "produit/ ou a commencé" l'événement commémoré (concept de l'Inventaire: "données mémorielles") : mort, bataille, personnages, fondation, découvertes, lieux, etc. Ces dates sont nécessairement différentes: la commémoration, postérieure à "l'événement".

- deux séries de lieux: le lieu de l'événement commémoré et le lieu/site de la commémoration. Dans ce cas, le lieu commémoré et le lieu commémoratif peuvent souvent correspondre (mais pas toujours), le lieu commémoré n'est généralement plus le même suite à toutes les transformations qu'il a subies: on pose souvent une plaque commémorative sur un édifice "moderne", alors que le "lieu de mémoire" n'est pas cet édifice ou tout autre chose qu'un édifice, même si le lieu proprement dit (longitude-latitude) est le même.

vendredi 25 septembre 2009

Wiki, c'est beau, bon, mais est-ce si nouveau que cela le paraît

Nouveau par le mode de rédaction, mais pas entièrement. J'ai déjà trouvé la mention d'un dictionnaire des noms propres de 83 tomes dans un catalogue d'une libraire d'ouvrages anciens. La Somme théologique de saint Thomas aurait été écrite aussi par un groupe de rédacteurs. Émile Littré a écrit son dictionnaire avec un très large réseau de correspondants, Larousse, comme les frères Grimm, rédacteurs d'un dictionnaire allemande de référence, ou le dictionnaires Oxford et son collaborateur fou qui a envoyé le plus de contributions, le Webster, etc.
Donc former un équipe, pour rédiger une encyclopédie ou un dictionnaire, ce n'est pas nouveau...
Ce qui l'est dans Wikipedia, c'est l'absence d'une hiérarchie forte, la réécriture perpétuelle, la présentation des sujets en étendue et en profondeur. Denis Diderot et D'Alember ont dirigé intellectuellement la rédaction de leur Grande Encyclopédie des Sciences et des Lettres. Et personne avait le droit de récrire les articles écrits par eux ou Voltaire!
Wikipedia, c'est aussi une collaboration ouverte, sans fin, produisant un contenu lui aussi presque sans fin.
C'est à ce demander ce que seront devenus certains sujets dans 10 ans, 20 ans: combien de pages pour décrire l'histoire des États-Unis? Ou même seulement l'entrée "Jacques Ferron", que sera-t-elle devenue dans 20 ans?
Faudra-t-il alors faire subir une cure d'amaigrissement à Wikipédia? D'ailleurs, l'idée d'une Wiki Ligth serait peut-être déjà une bonne chose... La WikiJunior vient d'être lancée, je pense.

La nouveauté de Wiki s'est aussi la caractère bénévole des contribution, ce qui est une réussite assez incroyable. Le caractère multilingue aussi, immense réussite.
L'étendue des choses décrites est immense, bien plus que dans n'importe quelle autre encyclopédie, ce qui en fait plutôt un dictionnaire encyclopédique qu'une encyclopédie dans le sens strict du terme: synthèse du savoir, et non définition des mots (dictionnaire) ou description des "choses". En plus, il y a l'extension de Wiki vers une sorte de répertoire, d'index, de glossaire, de manuel d'instruction, de pages jaunes. D'une foule d'autres genres rédactionnels que ceux des ouvrages de connaissances traditionnels. Wipkipedia est une forme hybride, souple. C'est nouveau et, surtout, une forme non fixée, non stable, appelée à changer sans cesse pour s'adapter à ce qu'on sait. Mais ce changement se fait sous la direction d'équipes, de collaborateurs. Ce n'est pas non plus un ouvrage sans règles de rédaction.

Cette rédaction perpétuelle de Wikipedia mène cependant à un paradoxe

Si Wikipédia était perpétuellement mise à jour, on ne pourrait plus savoir ce que l'on ne savait pas avant! Quand on consulte les vieilles encyclopédies, on note immédiatement tout ce qu'on sait maintenant et qu'on ne savait pas avant. Et le contraire: tout ce qu'on savait avant et qu'on ne sait plus: les métiers disparus, par exemple, ou tous les personnages dont peu à peu on ne parle plus...
Wikipédia garde la mémoire des modifications qu'on lui apporte. La mémoire de ces modifications sera-t-elle toujours infaillible, exacte, exhaustive? Dans tous les cas, il serait amusant de pouvoir reculer, d'antidater Wikipédia de quelques années, et aller voir comment elle était développée alors et ce qu'on savait, qu'on savait pas... Que "savait" Wikipedia en 2000? Aujourd'hui, c'est encore si nouveau et si jeune, que la question semble amusante plus que pertinente. Mais en 2023, avoir une "machine à remonter le temps" (une WayBackWiki) pour voir ce qu'était l'état des connaissances et des savoir dans Wikipedia en 2000 sera devenu essentiel.
Ou quels sont les articles ajoutés, nouveaux, entre telle ou telle année?

C'est surtout sur le plan de l'organisation des savoirs qu'elle propose que Wikipédia demeure le plus traditionnel. De ce côté là, pas de nouveauté du tout, semble-t-il. Consulter les articles qui renvoient les uns aux autres, comme dans le portail du Québec, c'est se promener dans une classification des savoirs traditionnelle, consensuelle. (À suivre)

lundi 21 septembre 2009

Bibliographier Internet?

Un problème quasi insoluble en ce moment, c'est d'établir une bibliographie thématique annotée des informations trouvées dans Internet. Plusieurs difficultés:
  1. ajout perpétuel et rapide d'infos
  2. pluralité des "types" de documents dans Internet: en plus de tous les genres de textes connus associés à l'imprimé (articles, livres, lettres, chroniques...) et leur version numérique, il y a tout un ensemble de nouveaux genres: les blogues et leurs commentaires, les "profils de membres", les clips audio, vidéos, tous les types de photos, etc. S'ajoutent à ces variétés non-standardisées le fait que ce soit souvent des genres très courts, bien moins qu'une page, parfois quelques dizaines de mots comme dans les "chats" les séances de clavardage, les textes hyper brefs de la nouvelle patente "Twitter" (140 mots au maximum, je pense). Autre difficulté, une seule page peut contenir toutes sortes de types de documents, comme une page de journal, mais en pire! Dans l'indexation des journaux anciens, on indique parfois la colonne où apparaît le document ou la citation. Dans les périodiques contemporains, avec leur graphisme éclaté, le concept même de colonne est problématique. Dans Internet, en plus, la "publication" du document est elle-même problématique, elle est souvent aléatoire, contextualisée par une requête de l'usager. L'étude de la publicité pourrait être encore plus difficile. On peut localiser une pub dans un imprimé, mais comment localiser un bandeau publicitaire qui apparaît de temps en temps en puisant dans une liste de bandeaux virtuels?
Donc, il y a une première difficulté à décrire le type de document et d'informations, à le localiser physiquement "spatialement", et à le dater. Sur ce plan, l'indexation d'Internet reste vraiment problématique. Pour l'imprimé, même dans le cas d'un imprimé détruit, on pourrait quand même être sûr que le texte X a paru dans le document Y à la date Z, et ce pour toujours! Un poème publiés dans Les fleurs du mal, mentionné dans la table des matières, ne disparaît pas si on perd l'exemplaire du livre. Dans Internet, cela est possible. On risque fort de ne pas retrouver le texte déjà identifié lorsqu'on retourne sur un site, il n'y a peut-être même plus de trace que ce document ait un jour existé. C'est pourquoi Zotero, par exemple, offre la possibilié de conserver des saisis d'écran de tous les sites et pages que l'on ajoute à sa bibliothèque. Au moin, si la pge disparaît, change et supprime les informations qui nous intéressaient, on aura pas l'impression d'avoir rêvé. Comme si l'établissement d'une bibliographie exigeait que l'on conserve aussi un exemplaire de tous les livres mentionnés au cas où ils disparaîtraient! Cela ne fait que montrer l'importance des institutions de conservation traditionnelle, bibliothèques et archives, mais montre aussi la tâche extrêment complexe d'archiver Internet.

Autres difficultés:
  1. Aussi, localiser correctement un document et lui donner une adresse précise est aussi problématique: le document peut changer souvent de place dans un même site, et être reproduit des dizaines de fois, des centaines de fois. Internet, c'est le règne des doublons. Mais tous les catalogues de bibliothèques mis en ensemble demeurent sans doute le plus énorme univers de doublons jamais créé. Les catalogues collectifs sont confrontés à cela: pour un titre, on trouve des centaines de localisation, de doublons. C'est pratique quand on est rendu à l'étape d'aller le consulter à la bibliothèque près de chez soi, mais dans les résultats préliminaires de recherche, cette montagne de doublons doit être surmontée par une sélection des documents-titres "uniques", ce qui oblige à avoir des descriptions les plus standardisées possibles. Trouver les doublons à partir de descriptions dissemblables est chose presque impossible. Les grandes bibliothèques, grâce à leur tradition, arriveront assez bien à résoudre ce problème de doublons, mais comment Google pourrait-il y arriver? Comme Ebay oy Abebooks où se sont des millions d'usagers-clients-abonnés qui créent leurs descriptions personnelles des documents. Les pages complètes, entièrement identiques sont probablement, toute proportion gardée, peu nombreuses, mais les fragments d'informations, eux, doivent atteindre une quantité astronomique. Avec toutes les applications qui se développent, ce sera encore mille fois pire bientôt.
Alors combien d'informations originales? Et que signifie "combien"?

L'autre chose est la nature des résultats de recherche que donne Google, par exemple. Malgré la possibilité de développer un moteur de recherche personnalisé, on recommence toujours à zéro avec Google et les autres moteurs de recherche. Peut-être y a-t-il un moyen "d'écumer", "d'élaguer" peu à peu un premier résultat et d'éliminer tous les résultats non-pertinents pour ne conserver que ceux qu'on choisit pour annoter, mais cela n'est pas facile à réaliser. Le métachercheur Copernic, version pro, paraît offrir la possibilité de gérer les résultats, de les filtrer, etc. Il semble cependant que l'évolution de ce logiciel soit arrêté. Plus personne en parle, et les dernières infos sur leur site date d'un année ou deux
Aussi, on ne peut chercher que quelques mots à la fois (avec les opérateurs booléens, par exemple... Google fixe le maximum à 25, je crois). Pour une recherche le moindrement complexe qui couvrent un domaine de recherche substantiel, un mot à la fois ne mène à rien. Il faudrait pouvoir chercher des listes d'expressions, fusionner les résultats, et les conserver! Puis, travailler à les identifier, les choisir, les annoter avec des mots-clés standards, et surtout rejeter de ce résultat, les pages-références qui ne sont pas pertinentes.

jeudi 17 septembre 2009

Idées à développer 1

Quelques autres applications du Web 2.0 serait-il possible de réunir dans une seule méta-application? Comme un monde parallèle, un territoire parallèle, dans l'idée d'un territoire imaginaire de la culture (Malraux)...
Par exemple, ViaMichelin, une application sur le site des guides Michelin, permet de créer des albums de voyages multimédias, d'inviter des amis, de les publier dans Internet.
Commentaire: en fait, plusieurs applications de ce genre, Mon Musée, Ma Bibliothèque, Mon Michelin, Mon Youtube sont a peu près construits sur le même modèle de réseautage, de contribution, de collaboration, de blogue, etc., mais adapté à un univers culturel particulier: voyage, lecture, musée, musique, etc.
On pourrait imaginer un seule super-application qui donne le choix de créer tel ou tel type d'application personnalisée. Pour une bibliothèque, vocabulaire du livre, de l'édition, base de données thématiques. Michelin permet de chercher dans les infos de ses très nombreux guides et de les ajouter à ses propres voyages. On crée ainsi des circuits-parcours, et sans doute puiser dans la banque d'images que d'autres "amis-voyageurs" ont ajouté.
Comme pour Wikipédia, on peut très bien imaginer une version ViaMichelin pour les voyages fictifs, les livres de récits de voyages fictifs.

L'utilisation des applications du web 2.0 est trop tournée vers les contemporains, les usagers réels. C'est normal parce que les contributeurs-collaborateurs doivent être des usagers actifs. Cependant, les usagers réels d'aujourd'hui pourraient se créer des avatars ou mieux, devenir des sortes de parrains-tuteurs au service de personnages fictifs ou des personnages historiques morts pour recréer leur monde à eux, fictifs ou oubliés.
Pourquoi ne pas créer une sorte de programme "d'adoption virtuelle". Un usager réel d'aujourd'hui adopte-emprunte l'identité d'un être fictif ou mort et travaille à lui donner une réalité numérique.
En ce moment, la dimension participative du web 2.0 encourage un certain narcissisme: on parle de soi, que de soi...

Une observation générale: le transfert numérique de l'imprimé, des archives sonores et visuelles ramène à la "vie", dans l'actualité un quantité immense de documents et d'oeuvres. D'un autre côté, les contemporains d'Internet, surtout les nés-numériques, créent une quantité encore plus grande, plus rapidement de documents de toutes sortes. Facebook contiendrait déjà 5 milliards de photos???

Donc, les productions nées avant l'ère numérique vont représenter une proportionde plus en plus petite dans l'ensemble des documents en ligne. Dans une dizaine d'années, l'univers pré-numérique, même transféré entièrement sur support numérique, va être engloutie, enterrée sous des masses de documents nés numériques. Un contemporain quelconque, né dans l'ère numérique, aura accès à plus d'informations sur lui-même qu'il n'y en aura jamais sur les plus grands personnages de l'histoire pré-numérique.

En ce sens, la numérisation du pré-numérique n'est pas l'équivalent d'une présence, d'une ré-actualisation d'un document ou de la mémoire. Il faut qu'elle s'accompagne d'une entreprise de vivification, d'une re-personnalisation, d'une ré-incarnation en quelque sorte ou, comme le disait Ferron, de "repiquage". Le mot "virtuel", dans son sens propre de "possibilité", est central. La numérisation donne une possibilité d'existence, une possibilité de lecture, mais n'est ni l'existence et ni la lecture.
La situation des informations à l'intérieur d'une base de données est particulièrement intéressante sur ce plan. C'est uniquement la requête-demande d'un usager qui fait advenir l'information, affiche le document, met en action le clip, démarre la diffusion. Sans sa participation directe, il n'y a rien.

mercredi 2 septembre 2009

1960 a(aura) 50 ans

Il n'y a pas d'autres dates-années plus célèbres dans l'histoire du Québec. 1960 est aujourd'hui même plus marquante que 1760 ou 1837...
1960 sert et a servi à tracer une frontière entre un avant et un après que symbolise le fameux "Désormais" de Paul Sauvé. Un partage historique, sociologique, démographique (fin du baby-boom), économique, national, politique, littéraire, culturel... En fait, l'histoire de tous les domaines de la vie québécoise est traversée par 1960, comme 1789 pour la France. Au Québec, à côté de 1960, 1968 a d'l'air d'un phénomène de surface ou d'une crise d'adolescence.

Mais 1960 est surtout un discours, littéralement un mythe (mythos).

Autant pour ceux qui y voit le début lyrique de la Révolution tranquille que pour ceux qui contestent cette périodisation en insistant sur les signes avant-coureurs et sur la continuité de certaines réalités bien au-delà de 1960. Peu importe ces divergences interprétatives, cette année-là reste un jalon incontournable. La bibliographie des titres d'articles et de livres dans lesquels apparaît cette date serait gigantesque.

Si 1960 est connu, c'est d'abord par le discours et le sens qu'on lui a donné, bien plus que par la mémoire de ce qui s'est passé et réellement vécu cette fameuse année. Il y a bien la mort de Duplessis, en 1959, le bref règne de Sauvé, mais pour le reste, de quoi se souvient-on de 1960?

Autre chose. Il y a un discours dominant sur 1960, une idéologie dominante, des souvenirs dominants sur 1960: ce sont ceux du groupe qui l'a d'abord amorcée, mais surtout ceux du groupe qui a réalisé la Révolution tranquille, avant d'en profiter, comme disent plusieurs aujourd'hui.

Que savons-nous des perceptions qu'ont eu de 1960 les gens qui cette année-là avaient 75 ans, 65 ans, 50 ans, 40, 30 ans... Ceux qui ont eu 20 ans en 1960, on risque fort de la connaître. Si nous prenions la pyramide d'âge en 1960, nous verrions peut-être que nous avons surtout la vision d'une minorité, appelée à devenir une majorité, mais qui ne l'était pas encore. Ainsi, le souvenir, l'interprétation et la signification qu'a eu 1960 pour la majorité de la population nous seraient inconnues ou presque.

Si on ajoute à cela comment ces changements ont modifié les rapports entre les groupes socaiux (les classes!), on verrrait qu'il y a des groupes qui ont eu très peu de voix au chapitre ou que leur voix est maintenant oubliée. On connaît par coeur le discours anti-clérical de cette période; que savons-nous de l'expérience qu'ont vécu, pour prendre l'exemple correspondant, les membres des communautés religieuses?

Même chose pour 1968, en un certain sens, ce qu'on connaît surtout c'est la parole de la jeunesse révoltée, mais que savons-nous réellement du "vécu parental" pendant le conflit des générations? On en sait ce que leurs enfants en ont dit. Comme objectivité faudrait trouver mieux.
Le lyrisme de cette génération, c'est un peu cela. Mais un lyrisme peut-il être encore lyrique quand il devient dominant? Lyrisme dominant, cela fait un bel ozymoron dont on pourrait attribuer la paternité anachronique à François Ricard.

Donc 1960 aura 50 ans...

Les objectifs de ce projet seraient de regrouper en un seul site Internet l'ensemble, la totalité des archives (qui ont été conservées!) sur cette année 1960: tous les imprimés (livres, périodiques...), toutes les émisions de radio, toutes les émissions de télévision, tous les films, toute la musique, tous les spectacles, toutes les pièces de théâtre, toutes les correspondances, tous les documents de la vie économique, toutes les statistiques, etc. À quoi, il faudrait ajouter les archives privées de tous les volontaires qui accepteraient de les mettre en ligne. Aussi, on y ajouterait ce qui est trouvable dans les archives étrangères et qui ont parlé du Québec. C'est-à-dire l'utopique projet d'une archive totale d'une année.

La totalité est utopique, parce qu'il manque au départ tout ce qui n'a pas été conservé. Alors l'utopie serait de ne pas pouvoir même réunir ce qui a été conservé. Est-ce une question de la taille des archives envisagées? Non, il y a déjà des bases de données qui contiennent plus d'informations et de documents que pourrait en contenir ceux de 1960. Google, Youtube, Flickr, Facebook et d'autres sites qui gèrent et mettent en ligne une quantité astronomique de documents consultés par plus d'usagers par jour qu'il y a d'habitants au Québec et même au Canada! Ce n'est pas une utopie technologique. Financière? Ça pourrait coûter cher, disons 100 millions (et là j'exagère), soit 1 km de métro! Pour .2 ou .3 km de métro, on aurait un projet pas mal bien parti...

Donc, une sorte d'archives quelque peu imaginaires parce qu'une grande partie de ce corpus n'était certainement pas connue au Québec en 1960. Aussi, encore, la totalité des références à l'année 1960 dans la culture et littérature québécoise, une sorte de "1960 à travers les âges". Plus, encore et encore, la cueillette des archives audio-visuelles des souvenirs de 1960 par ceux qui l'ont vécu directement, et ceux qui en ont entendu parlé. Par exemple, on peut penser à programme d'interviews de personnes nées après 1960 et leur demander ce qu'ils savent de 1960 et non seulement ce qu'ils en pensent.

En fait, il s'agit un peu de donner à 1960 une "second life".

Impossible, voyons voir...

Archives de Radio-Canada et de CBC: la totalité de 1960
BAnQ: la totalité de l'imprimé de 1960 (en collaboration avec La Presse, Le Devoir, etc...)
Autres archives de l'imprimé: Google -Livre, BNF, BAC, etc...
Cinémathèque et ONF: tous les films
Youtube: Québec - 1960
Musique: sites de musique en ligne, Itune, numérisation du corpus québécois
Web: inventaire, répertoire complet de "1960 - Québec"

lundi 25 mai 2009

Projets d'encyclopédies diverses

À rebours:
- à une certaine époque: au temps de Platon, Christ, Moyen-âge

Négative:
- une encyclopédie du "contre": exemples, dans la bibliographie ferronienne les résultats seraient tout ce qu'on a écrit contre lui et ses oeuvres, etc.: contre Platon, contre la beau, contre la Chine, contre les Encyclopédistes, contre les chats...

Métaphorique:
- inspiré du Bateau ivre et de la connaissance née de la métaphore qui unit deux termes souvent inusités, moins arbitraires que la rencontre d'une machine à coudre et d'un parapluie proposé par les Surréalistes, mais un peu dans le même esprit;
- inspiré de l'usage de la métaphore dans les différents courants littéraires: l'encyclopédie du romantisme n'est pas l'encyclopédie romantique
- on pourrait imaginer d'autres encyclopédies inspirés de d'autres figures de rhétoriques: métonymie (n'est-ce pas le modèle dominant de "l'hyper-lien" qui nous mène à la continuité, à la contiguïté: un lien sur "Louiseville" nous mène à Louiseville. Dans l'encyclopédie métaphorique ferronienne, Louiseville nous mènerait au mythe du Paradis perdu, de la scène primitive (le feu de l'église, la mort de la mère)...

Diagonale:
- inspiré par l'esthétique généralisée de Caillois, il s'agit de tracer des lignes de sens entre des disciplines séparées-isolées dans par les encyclopédies traditionnelles ou reconnues
- Caillois le fait très bien quand il rapproche les dessins incrustés dans les pierres de l'art abstrait moderne pour proposer que plus l'artiste semble renoncer à sa volonté téléologique de faire oeuvre plus l'esthétique de celles-ci se rapprochent de ce que fait la nature (dans les roches ou sur les ocelles de papilllons) involontairement ou selon les lois objectives de la physique et du hasard

Le hasard comme encyclopédie:
( le hasard existe-t-il toujours comme concept dans le philosophie ou la bioloogie, en pensant au fameux titre de Laborit (?) sur le Hasard et la nécessité...)
- dans la vie, le "hasard" est productif, que produit-il dans le domaine de la connaissance?

Ethnologique (en suivant les leçons de la Pensée sauvage de Lévi-Strauss):
- réunir les connaissances des peuples ethnologisés pour les faire connaître;
- surtout s'inspirer de leurs systèmes de classement et de classification des savoirs et des pratiques pour construire à partir cette fois-là des savoirs contemporains la Nouvelle encyclopédie bantoue ou Boroboro.
- d'ailleurs une encyclopédie de l'anthropologie appuyé sur les travaux de Malinowski, Mead et autres, serait fascinante, construite à partir de leurs archives, qui me semblent un domaine des chantiers de numérisation peu développé.

Littéraires:
- idée simple, présenté l'encyclopédie des connaissances à travers l'univers esthétique et culturel de grands auteurs: Dostoïevski, Rabelais, Camus, Paz, Ducharme, etc.
- par exemple, c'est peut-être l'encyclopédie rabelaisiennet qui est la plus facile à saisir: vision carnavalesque, drôle, pleine de "merde joyeuse"

Ces différents projets tournent un peu autour de l'idée de substituer le substantif par le qualificatif. Non pas une encyclopédie du romantisme mais une encyclopédie romantique; non pas celle de l'univers de Ferron mais une encyclopédie ferronienne. Point de vue qui rejoint celui du concept de "vision du monde", d'une manière particulière qu'une oeuvre redéploie-réorganise autrement des éléments déjà connus.

Ivre (clin d'oeil à Jacques Dufresne qui aime rappeler qu'il a mis un lien vers "Le bateau ivre" de Rimbaud dans son dossier sur l'eau dans l'Agora)
- prendre le système d'images et de métaphores utilisées par Rimbaud pour créer, par une réorganisation des matériaux linguistiques, un bateau ivre, un bateau-monde. L'ivresse étant ici peut-être la dérive sémantique des mots hors de leur catégorie encyclopédique habituelle. La métamorphose de l'eau suit une série de rencontre-lien avec d'autres mots: ce sont ces liens (inattendus et surprents) qui créent le symbolisme.

On peut dire aussi que dans ces projets, il y a aussi un peu l'idée des pastiches, de s'inspirer d'un style, d'une époque, d'un point de vue pour proposer une nouvelle réorganisation des connaissances à travers soit ce style, cette époque ou de ce point de vue. Queneau a fait les exercices de styles, il pourrait y avoir les exercices encyclopédiques.

Autre Grand Inspirateur serait Malraux et son Musée imaginaire et sa série sur l'histoire de l'art: Le Surnaturel, l'Irréel, l'Intemporel. Vraiment à relire ses textes où il explique sa démarche.

Faudrait penser aussi à une encyclopédie vue par les mathématiques, une sorte d'encyclopédie de la mesure et du nombre (et toujours pas une encyclopédie des maths). En ce sens, à quoi pourrait correspondre un autre regard sur l'encyclopédie de la mort (celle de l'Agora), pas son contraire, une sur la vie, mais une sorte d'"encylopédie mortelle" ou plutôt une "encyclopédie de la fin": de la vie humaine (c'est fait), mais des animaux, des villes, des machines, des peuples... Bertrand Gervais a travaillé beaucoup sur l'imaginaire de la fin, mais c'est à autre que cette idée devrait mener.

Titre d'un projet de livre: La machine à wiki, Exercices d'encyclopédie, Voyages probables dans l'inconnu, Le Je ne sais et le Tu ne sais rien (en hommage à Jankélévich)

lundi 4 mai 2009

History numeric Lab à l'université Concordia

Plusieurs projets en histoire orale à Concordia: Montréal, travail, droits humains...

Oral/écrit: y a-t-il vraiment des différences fondamentales pour concevoir une application pour l'un ou l'autre de ces deux modes de communications verbales?
- oral: un seul agent, celui qui parle, à un ou plusieurs mais généralement assez limité d'auditeurs-répondants;
- écrit: d'abord, l'écrit n'est pas l'imprimé auquel on le confond souvent: l'imprimé reste une branche de l'écrit; la correspondance est justement un exemple intéressant d'une communication écrit avec deux agents, ou quelques-uns.

Faut dire que l'écrit dans Internet modifie profondément ce qu'on pouvait définir précédemment comme le réseau d'échange de l'écrit-diffusé-imprimé. "Avant", pas d'écrit publié sans tout un réseau de production de l'écrit-imprimé: éditeur, périodiques, médias, professionnels de la publication. Dans Internet, aucun autre agent souvent que celui qui écrit, comme dans une lettre, ou dans la parole qui reste spontanée, immédiate. On pourrait distinguer les communications orales "montées", coupées, recomposées pour la tv ou la radio...

Bakthine avait réussi à proposer un modèle de l'échange verbal sans qu'il y ait pour lui vraiment une différence entre l'oral et l'écrit, deux modes d'échanges verbaux, selon lui. Peut-on formaliser sa théorie, en automatiser la reconnaissance: l'alternance des sujets parlants, la bivocalité, le polylinguisme et le plurilinguisme.
À partir d'un inventaire systématique du vocabulaire, des champs sémantiques de chaque terme, pourrait-on établir un parcours des contenus le long de la chaîne de communication. Suivre les marques du dialogisme, mais avec l'aide d'outils intelligents d'analyse linguistique?
On pourrait l'expérimenter sur un petit corpus "à la main", tenter de saisir la démarche de lecture "naturelle", puis tenter de la transcrire dans un langage conceptuel abstrait.
Est-ce même possible de distinguer automatiquement la dénotation de la connotation? Les différents sens ou nuances sémantiques d'un mot, d'une expression? Sans parler de l'ironie, des doubles sens, etc.

L'énormité du corpus numérique, ou plutôt le potentiel de recherche qu'il semble offrir, reste mystérieux. Comment l'aborder avec un projet aussi énorme et ambitieux que ce que représente le nombre de documents et de pages qu'il offre.

"Bakthine chez Google" (ou Wikipedia), un titre pour communication savante ou d'autres variantes: Les mots et les choses revu par Google,

jeudi 12 mars 2009

FictionsBook..

Idée un peu facile mais peut-être fructueuse:

- créer une sorte de clone de Facebook pour les personnages fictifs de la culture mondiale!
- besoin d'un profil biographique pour les êtres de fictions

où les auteurs/créateurs deviennent les "parents"; les autres personnages de la même oeuvre ou d'autres oeuvres des "relations"

- le groupe des lecteurs se divisent en "amis" (ceux qui aiment le personnage) et en "ennemis" (ceux qui ne l'aiment pas)

- faudrait trouver aussi quelque chose de semblable pour la critique, et les auteurs qui ont repris le même personnage ou créé un avatar (Hamlet a des milliers d'avatars)

- module de généalogie fictive pour 1) tracer l'arbre d'un personnage dans une oeuvre singulière, dans les oeuvres du même auteur (chez Balzac ou Faulkner, par exemple) 2) généalogie historique dans la fiction: tracer l'arbre généalogique de Prométhée, du Chaperon rouge, du Christ, etc. dans le monde des fictions (littéraires, picturales, théâtrales, cinématographique...)

Il y a donc une généalogie "réelle", fondée sur des faits de fictions, et une généalogie du deuxième degré, appelons ça comme ça, qui naît de la critique ou tout simplement du discours sur les personnages fictifs et qui les transforment en personnages mythiques, archétypaux... Par exemple, il y a le personnage de Prométhée et les autres personnages nommé Prométhée (donc une descendance directe, réelle) puis les autres personnages qu'on a caractérisé comme prométhéen (donc une descendance indirecte, produit par le discours et les lecteurs). Donc, une généalogie de l'auteur et une/des généalogies de lecteurs (terme générique pour englober: spectateurs, participants, auditeurs, internautes, etc.).

Les lecteurs pourraient donc créer leur propre généalogie (qui n'est qu'un type de réseaux possibles entre les personnages fictifs comme pour les personnes réelles) en liant des personnages entre eux.

Le World Theater, la grande scène de la fiction...

Reste à trouver un titre...

lundi 9 mars 2009

Gestionnaire d'identités et de participations personnelles

Surnoms, avatars, noms d'usager, comptes de courriel, abonnements gratuits ou payants, participation à des forums et des blogues, participation à des jeux en ligne, profils d'usager, contributions en photos, textes, fichiers audios, etc., chaque internaute accumule de multiples identités et contribue à de nombreux sites en ajoutant ses propres informations ou fichiers.
Il y a aussi les collections ou albums personnels que l'on peut créer dans des bases de données, comme sur le site du musée McCord (avec "Mon McCord", on peut crérer autant d'albums de photos annotés que l'on veut), Bilan du siècle, AbeBooks, Ebay, Amazon, etc. C'est maintenant une pratique généralisée. Comment savoir où, quand, comment on a participé à l'ensemble de ces sites collaboratifs? En ce moment, il faut avoir une bonne mémoire ou un sens de l'ordre assez exceptionnel.

Pour les contributions personnelles sur les sites de discussion qui se présentent sous des formes multiples, on envoie notre contribution sans en conserver une copie, parfois on nous demande si on veut avoir une copie du courriel que l'on envoie. Ce n'est pas systématique du tout et où conserver ce courriel? Plus important encore, même si l'usager conservait des informations sur les lieux de sa participation, personne ne sait pendant combien de temps cela restera en ligne disponible: les sites peuvent fermer des blogues, les supprimer, des sites peuvent complètement disparaître. L'usager n'aura plus aucune archive de sa participation. On pourrait penser que la valeur de ces participations est plutôt mince: spontanée, peu structuré et profonde. Peu importe la valeur, l'usager devrait savoir où, quand et comment il a laissé des traces dans Internet.

D'ailleurs, des compagnies spécialisées proposent de retrouver toutes les traces d'un usager et de les "effacer", parce que l'usager ne sait plus et n'a aucune trace systématique de son activité. On en entend de plus en plus parler dans le cas de personnes qui deviennent "publiques" et sont prises avec leurs propos de jeunesses, frivoles, qu'ils ont laissé un peu partout dans Internet, sans même sans souvenir souvent. Phénomène pas entièrement nouveau cependant. Dans le temps des bonnes vieilles lettres sur papier, on devait garder une copie de sa lettre pour se souvenir de ce qu'on avait écrit. Tous les logiciels de courriels ont une fonction qui permet de conserver une copie des courriels qu'on envoie. Dans Internet, on "envoie" des choses, mais il ne semble pas exister une application qui archive ce qu'on envoie, à qui, et quand. Situation rendue plus difficile par le fait qu'on y participe sous de nombreuses identités.

Comment connaître et se souvenir de ces multiples identités?
Comment c0nserver une copie des textes et des fichiers envoyés?
Le web 2.0 multiplie presqu'à l'infini ces identités? Un enfant de 6 ans aujourd'hui aura accumulé combien d'identités et de participation lorsqu'il aura 20, 30, 40 ans? 20, 30, 40, 100 identités? Dans des sites scolaires, culturels, personnels, forums et blogues publics? Maintenant, chaque site fondé sur la participation des usagers gardent en mémoire les participations de chaque usager: un usager Facebook, Wikipedia, Librarything, Voir, Radio-Canada, a accès aux archives de sa participation sur ce site. Mais un membre participant à 3-4 de ce genre de site, et bien plus parfois, comment fait-il pour connaître dans une application unique l'ensemble de ses participations.
Une telle application pourrait permettre de connaître ses identités et ses participations et de les gérer en donnant des informations de base. L'usager pourrait savoir ainsi:
- nom-surnom employé, mot de passe
- informations utilisées dans le profil d'usager (on ne met toujours les mêmes informations, il y aussi plusieurs identités fictives, imaginaires, jeux de rôles, etc.)
- nombre de sites où il participe (blogues, forums, sites de réseautage, etc.)
- date d'inscription, de la première et de la dernière particitation
- copies des textes envoyés, répertoire des fichiers envoyés
- écrans de saisie de lieux de sa partipation, des ses profils personnels entre autres
Fondamental aussi, serait la possibilité de ne pas conserver de traces sur son ordinateur de certaines contributions, activités ou identités, pour toutes sortes de raisons qu'on a pas à justifier. Au moment d'une nouvelle participation, il y aurait tout simplement un message qui demande si on veut "oui/non" ajouter cette nouvelle identité/participation à notre gestionnaire d'identités et de participations individuelles.

L'usager obtiendrait ainsi un profil global de ses identités et de ses participations. Il pourrait alors:
- aller supprimer un profil inactif depuis longtemps ou auquel il ne veut plus participer;
- changer ou modifier son profil sur un site selon ses goûts, ou mettre à jour ses informations personnels;
- archiver ses identités et ses participations devenues inactives ou débranchées.
L'usager aurait l'initiative de garder des souvenirs, comme dans un album de photos où on montre ce qu'on a fait "quand j'étais jeune", là, ce sera ce qu'on a fait dans Internet quand on était petit

Qu'avez vous fait dans Internet quand vous étiez petit? Je m'en souviens plus!

Le problème général est: l'usager ne conserve pas d'information sur ce qu'il envoie dans Internet, ou d'une manière extrêmement incomplète...

Il y a peut-être des logiciels qui font ça. Ils ne semblent pas être connus. Mais "gestionnaire d'identités" dans Google renvoie plutôt ou système de gestion des identités qu'une entreprise doit avoir pour gérer les identités de ses employés, identités liés à la sécurité et la manière dont elles donnent accès à des degrés divers aux différentes applications ou informations de la compagnie.
Autre élément, c'est que les statistiques sur la participation et le nombre d'usager donnés par les sites eux-mêmes, invérifiables, sont toujours gonflés par les profils de leurs membres inactifs depuis des mois, des années. Ces sites ne suppriment jamais les usagers d'eux-mêmes, ça leur sert à gonfler leur popularité. Combien d'usagers s'ouvrent un profil seulement pour voir de quoi ça l'air et ne retourne jamais ou seulement pendant quelques jours sur un site participatif?
Un gestionnaire d'identités qui permettrait d'aller se désabonner ou de supprimer un profil inactif ou sans intérêt, pourrait dégonfler ses chiffres et donner une image plus juste de la participation dans Internet.
Et puis, combien d'usagers ont quelques profils/comptes dans un même site, uniquement parce qu'ils se souvenaient plus de leur premier surnom, de leur mot de passe, ou qu'ils ont changé d'adresse courriel. Ils ont donc créer un nouveau profil pour rien. On pourrait appeler ça un doublon d'idendité...

samedi 21 février 2009

Une nouvelle histoire des couleurs

Pourquoi pas un inventaire des couleurs mondiales par des statistiques sur les couleurs les plus fréquentes dans les cents milles milliards de pixels des fichiers images de tout format.

On pourrait ainsi créer les palettes de l'histoire de l'art, des cultures, des courants artistiques, de la pub, des lithos sur les jouets en métal!

Ça pose bien sûr la question de standardisation de la numérisation, des marges d'erreurs, etc.

Les palettes des grands peintres en fonction de leurs couleurs préférées, mesurées en relation avec la grandeur de la toile, de la résolution du fichier, etc. Il n'y a certainement pas de vert fluo dans aucune toile de Rembrant...

On pourrait tracer une sorte d'histoire de la bourse des couleurs: le brun des années 60, le jaune et rouge dans la culture populaire des années 1920-30, etc. Il y a aussi, pour l'époque de l'impression couleur, les catalogues, les échantillons de couleur, de peinture, de tissu, etc., mis en relation avec le marché international des pigments...

Ou suivre l'évolution des couleurs chez un peintre, chez Picasso, la période bleue, comme exemple qui n'a pas besoin du numérique, ou les bruns-beiges de cubistes.
On pourrait trouver des peintres aux antipodes stylistiquement, mais aux palettes de couleurs des plus semblables.

Dans ce genre d'étude généraliste, la difficulté est de trouver quelque chose qui ne soit pas évident, c'est-à-dire quelque chose qu'on ne voit spontanément sans aucun soutien technologique. Tellement de recherches "scientifiques" nous apprennent ce qu'on sait déjà et ne réussissent qu'à quantifier la chose ou le phénomène étudié.

dimanche 1 février 2009

Wikipédia et Facebook

Comment croiser ces deux grosses patentes, 2 des "Top Five" des sites les plus consultés au monde? Faire en sorte que les qualités de l'une serve à l'autre, et que les défauts-limites de l'autre ne nuise pas à la première?


1) Wikipédia:
- membres-rédacteurs participent directement autant qu'ils le veulent
- curieusement, à l'ère du web 2.0, aucun module n'est offert aux lecteurs pour donner les opinions-commentaires sur le contenu des articles: ils doivent le faire ailleurs, sur leurs blogues, leurs forums.
- un problème de fond: comment maintenir l'objectivité et l'exactitude des informations (même si Wiki est souvent -exagérément - critiqué à ce chapitre) et permettre-favoriser la liberté de parole? Il pourrait y avoir un WikiTalk dont le rôle serait de regrouper les discussions et commentaires des lecteurs sur les articles. Si Wikipedia s'engageait à développer un un réseau de modérateurs responsables de la bonne tenue minimum des débats, elle n'en sortira pas vivante! Un des principes essentielles des bibliothèques et des ouvrages de références, c'est de donner l'information aux personnes qui les cherchent, à condition qu'ils exercent leur droit de parole ailleurs que dans la bibliothèque ou Wikipedia. Tout le monde peut penser, dire ou écrire tout ce qu'il veut des livres et des articles qu'il consulte: mais il doit "sortir" de la bibliothèque ou de Wikipedia pour le faire.
Une solution pourrait être une application qui permet à tous les usagers de Wikipedia d'ouvrir une fenêtre de formulaire pour écrire son commentaire sur le contenu de l'article, MAIS son commentaire serait publié ailleurs, où il le veut: son compte Facebook, un blogue, même Twitter si cela a moins de 140 caractères... Le "Partage" se fait ailleurs, à l'extérieur de Wikipedia qui ne peut devenir un lieu débat sans être menacer dans son existence même. Une bibliothèque, ce n'est pas pas une place publique.

- le contenu de Wikipedia est présenté dans des interfaces plutôt ternes, avec la nouvelle infographie propulsée par le Ipad et les autres tablettes, Wikipedia devra rendre son contenu exportable-consultable aussi pour ses plate-formes.

2) Facebook
- millions de profils créés par des contemporains pour d'autres aussi contemporains qu'eux
- contenu subjectifs centrés sur le développement de réseau de sociabilité

Wikipédia: une rédaction et des réseaux collaborateurs uniques dans l'histoire qui écrivent sur d'autres choses qu'eux- mêmes, des textes lus par des millions de lecteurs qui viennent aussi pour lire sur d'autres sujets qu'eux-mêmes, mais dans un emballage qui ressemble à une encyclopédie traditionnelle;

Facebook: un réseau de personnes vivantes qui parlent d'elles-mêmes à d'autres facebookiens venus pour les connaître et parler d'eux à leur tour, cependant dans un interface interactif drôlement plus évolutif que Wikipédia.

Lequel des deux sites aux fréquentations multi-millionnaires représente-t-il le mieux la culture d'Internet? Parlez de soi ou d'autres choses? "Frivole" ou sérieux?
C'est en particulier sur la manière dont sont présentées les informations sur un individu (réel, historique, fictif) que les différences sont les plus manifestes.

Dans Wiki, c'est du plus conventionnel: on est dans un dictionnaire des noms propres traditionnels. Les hyperliens fonctionnent comme lorsqu'on cherche un autre mot dans un dictionnaire: cliquer, c'est plus rapide que de tourner les pages, mais ça mène au même résultat.

Dans Facebook, c'est tout autre chose. Les infos sont distribuées dans un formulaire complexe, subdivisées en plusieurs rubrique, les différents modules qu'un abonné ajoute à son profil s'intègrent à son profil principal décrit dans la base de données centrale. Surtout, les liens avec les autres usagers multiplient les informations sur l'usager: 1) on connaît ses amis, et connaître les amis de quelqu'un, c'est mieux le connaître, et connaître les amis des amis de l'ami qui connaît les amis des amis d'un son meilleur ami permet de mieux le connaître.

Dans le domaine "biographique", la fusion de Facebook et Wiki mènerait à la création d'un FaceWiki ou d'un WikiFace où les informations encyclopédique sur les personnes, historiques ou fictives, seraient présentées dans l'interface des profils individuels de Facebook, dévelopée par une équipe de collaborateurs. Les réseaux de socialité que permettent de construire Facebook ne seraient donc plus réservés aux jeunes contemporains, mais étendus aux personnages historiques et fictifs. Dans ce domaine, Facebook offre une application beaucoup plus souple et sophistiquée que Wikipédia pour situer un personnage dans un et des réseaux sociaux. Écrire un article dans Wiki exige un apprentissage, une certaine pratique. On pourrait créer des profils mixtes pour profiter des qualités des deux sites.

Pour voir ce que ça pourrait donner, l'imaginer pour un groupe limité. Un exemple serait de transposer le Dictionnaire biographique du Canada dans le modèle de Facebook. Les articles du DBC sont encyclopédiques, rigoureux et font autorité. Un DBCbook offrirait exactement la même qualité d'infos mais affichées différemment, avec l'article intégral complet toujours disponible. Il s'agirait de prévoir des espaces de rédaction où les lecteurs pourraient ajouter des infos (sans modifier celles du DBC), donner leurs commentaires, etc. Mais ils pourraient y avoir une application où ils peuvent ajouter des liens vers d'autres "amis" pour un profil déterminé, des liens vers Internet...
L'optique est de penser de moyens technologiques pour transférer des connaissances présentées sous forme traditionnelle (le DBC) vers les modes de publication du web 2.0 sans altérer la qualité de l'information.