OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 La petite révolution de l’intelligence collective http://owni.fr/2012/05/04/la-petite-revolution-de-lintelligence-collective/ http://owni.fr/2012/05/04/la-petite-revolution-de-lintelligence-collective/#comments Fri, 04 May 2012 13:29:36 +0000 Anaïs Richardin http://owni.fr/?p=108934

Le jeu est un élément important de notre société et nombreux sont ceux qui voient l’évolution vers l’homo ludens (homme qui joue) comme sa caractéristique majeure. Partant de ce constat, de nombreux chercheurs organisent la première conférence internationale dédiée à l’exploitation de l’intelligence collective à travers le jeu. Intitulé “Harnessing collective intelligence with games“, ce premier workshop se tiendra en septembre 2012 en Allemagne. Il vise à approfondir la question émergente de l’utilisation de larges groupes de participants pour réaliser certaines tâches par le biais du jeu, véritable catalyseur d’intelligence collective.

Il sera question de crowdsourcing et de crowdsolving, d’human computation et de bien d’autres phénomènes aux noms barbares difficiles à traduire en français. Pourtant ils décrivent tous une tendance que l’on tend de plus en plus à adopter : la combinaison des capacités de l’intelligence humaine et des puissances de calcul numériques  Puisque l’être humain a encore l’apanage de certaines facultés comme le jugement esthétique, la prise de décisions basées sur l’intuition, le raisonnement critique etc, autant les mettre à profit. Mais à l’inverse des ordinateurs qui ne nécessitent que d’un peu d’électricité pour fonctionner, les humains ont besoin d’être en permanence motivés pour leur contribution. Une motivation qu’ils pourraient trouver dans le jeu et ses mécaniques.

Pour Markus Krause, doctorant de l’université de Brème travaillant sur l’intelligence collective et son utilité publique, humains et machines doivent travailler main dans la main :

La combinaison des aptitudes intellectuelles humaines et de la puissance des ordinateurs pour stocker et diffuser les données peut être un modèle très efficace pour venir en aide à l’humanité

Le crowdsourcing (utilisation de nombreuses personnes pour réaliser une tâche) a vu le jour dans un article de Jeff Howe pour le magazine Wired en 2006. Si le mot était une nouveauté, ce qu’il décrivait en revanche existait depuis longtemps.

Tout a commencé avec les CAPTCHAs créés par Luis Von Ahn de l’université Carnegie Mellon au début des années 2000. Si vous avez déjà ouvert une boîte mail ou rempli un formulaire en ligne, alors il y a de fortes chances que vous connaissiez les CAPTCHAs. Ce sont des petits tests qui permettent de différencier un utilisateur humain d’un ordinateur, empêchant les robots malveillants d’envoyer des réponses automatisées dans le cas de sondage, le phishing et toute autre activité de spam ou d’extraction de données. Ce test est basé sur la capacité d’analyse de l’humain. Deux suites de lettres sont présentées, parfois distordues pour rendre leur analyse possible aux humains mais difficile aux robots. Lors d’une conférence TED, Luis von Ahn a expliqué s’être demandé comment utiliser le temps passé à déchiffrer les CAPTCHAs dans un but précis et utile à tous. Une réflexion qui l’a conduit à créer reCAPTCHA, aujourd’hui universellement utilisé :

200 millions de CAPTCHAs sont tapés chaque jour à travers le monde. Avec une moyenne de dix secondes par CAPTCHA, cela fait 555 000 heures par jour. Pendant ces dix secondes, votre cerveau fait quelque chose d’extraordinaire, il réalise quelque chose dont sont incapables les ordinateurs. Je me suis alors demandé si on pouvait faire quelque chose d’utile de ces dix secondes. Il y a des problèmes que les ordinateurs ne peuvent résoudre mais que, d’une certaine manière, nous pouvons diviser en morceaux de dix secondes et chaque fois que quelqu’un tape un CAPTCHA, il résout une partie du problème. Désormairs, quand vous tapez un CAPTCHA, non seulement vous vous identifiez comme humain mais en plus vous nous aidez à numériser des livres.

C’est ainsi que ReCAPTCHA est né. Racheté par Google en 2009, ce système permet en effet d’analyser les parties de livres numérisés par Google Books que la reconnaissance optique (OCR) ne parvient pas à déchiffrer (environ 20% d’un texte). Sur les deux suites de lettres proposées, il y a un CAPTCHA déjà vérifié par l’OCR qui permet de vous identifier comme humain et l’autre, dont la signification est incertaine et que vous allez déchiffrer. Pour Luis von Ahn, le logiciel est un vrai succés :

Nous sommes en moyenne à 100 millions de mots numérisés par jour, ce qui nous donne 2,5 millions de livres par jour. Près de 10% de la population mondiale soit 750 000 000 personnes ont aidé à la numérisation des livres jusqu’à présent.

Et son ambition l’a mené bien plus loin qu’à la numérisation de livres. Lors d’un entretien avec un journaliste de Wired, Luis von Ahn a confié :

En fait, je voudrais rendre l’humanité plus efficace en mettant à profit le temps gâché

Le temps gâché ou ces moments d’oisiveté auxquels nous nous adonnons tous seraient donc sa cible, pour notre plus grand bien. En 2008, il crée les Games with a Purpose (GWAP), des petits jeux en ligne qui servent un objectif autre que la distraction. En jouant aux GWAP, les utilisateurs pallient l’incompétence des ordinateurs dans la réalisation de certaines tâches. Chaque joueur est aléatoirement associé à un autre et l’équipe constituée a un temps limité pour gagner le maximum de points. Le jeu ESP par exemple, vise à légender des images. Une même image est présentée aux deux joueurs qui doivent proposer des mots-clés précis. Lorsque les deux joueurs proposent la même légende, celle-ci est enregistrée et l’image suivante apparaît. Il y  a une interaction entre les joueurs qui les poussent à revenir vers ces jeux simples qui permettent de déchiffrer le web et le rendre plus complet.

De nombreuses entreprises et institutions publiques ont suivi cet exemple et ont préféré mettre à profit la capacité de traitement d’information de cerveaux humains plutôt que d’ordinateurs. La NASA a ainsi décidé de faire appel aux humains pour l’aider à gérer le flot d’informations et de données qu’elle reçoit et créer une base de données. Avec le jeu ZOOniverse, les utilisateurs sont notamment invités à analyser la taille et la profondeur des cratères de la Lune, permettant à la NASA de les répertorier. Une sous-traitance non négligeable, gratuite et efficace là où même les algorithmes les plus puissants échouent.

Mais le crowdsourcing ne s’arrête pas à la simple analyse d’image, comme l’expliquait Adrien Treuille, créateur de Fold.it, lors d’une conférence Solve for X :

Lorsque l’on pense crowdsourcing, on pense à la réalisation de tâches simples comme la reconnaissance d’images et de motifs mais avec un groupe important de personnes qui travaillent avec des données et de l’intelligence artificielle, il est possible de résoudre des problèmes qui se trouvent à la limite de la connaissance humaine

C’est ce qui s’est passé avec Fold.it (Plie-le), un jeu développé par des universitaires américains qui a permis de découvrir la structure d’une enzyme qui joue un rôle clé dans la propagation du VIH. Ce qui avait bloqué les scientifiques pendant 10 ans fut résolu en 10 jours par 40 000 personnes qui ont joué à ce jeu en ligne. Les résultats obtenus par les joueurs pourraient constituer une percée majeure dans le traitement du virus. Un cas d’école de la force de l’intelligence collective catalysée par le jeu et chaque participant s’est vu crédité aux cotés des scientifiques pour cette avancée significative.

En 2006, Thomas W.Malone, directeur du Centre pour l’intelligence collective du prestigieux MIT se demandait :

Comment peut-on connecter des personnes et des ordinateurs pour que, collectivement, ils agissent avec plus d’efficacité que n’importe quel individu, groupe, ou ordinateur ne l’a jamais fait ?

Pour Luis von Ahn, le secret est simple : transformer des problèmes complexes en jeux, simples et addictifs. Une recette qui a certainement permis le succès des GWAP.

Ce type de jeu repose aussi sur des experts qui, jusque là s’ignoraient, comme l’a expliqué Adrien Treuille lors de la conférence Solve for X:

Foldit a permis de filtrer des centaines de milliers d’internautes et de trouver ceux qui ont une véritable expertise dans la réalisation de certaines tâches. Je peux imaginer que dans le futur, alors que des défis se présenteront à nous, nous pourrons inventer des jeux et des puzzles qui reposent sur les aptitudes requises, et trouver les personnes qui seront des experts pour ce type de problèmes.

Cliquer ici pour voir la vidéo.


Dans cette même veine de jeux scientifiques, l’université McGill au Canada a crée un jeu, Phylo, qui fait appel aux capacités humaines pour arranger les séquences ADN et ainsi participer à la recherche génétique. Les séquences ADN, transformées en formes géométriques colorées doivent être alignées et les formes similaires doivent être associées les unes aux autres tout en évitant les trous qui symbolisent les mutations. Pour les concepteurs du projet, la combinaison humains/ordinateur permet d’obtenir de meilleurs résultats :

Les solutions générées par les utilisateurs peuvent être utilisées pour améliorer la qualité des alignements calculés par les algorithmes classiques. Ces résultats ne montrent pas que l’homme est meilleur que la machine mais plutôt que nous avons une symbiose entre l’humain et l’ordinateur

Dans ces jeux où l’on fait appel à l’intelligence collective, les leviers de l’engagement sont nombreux. La reconnaissance sociale par les pairs, la réputation et l’interaction humain-ordinateur jouent un rôle important dans les jeux qui participent d’une avancée scientifique. Cependant la gratification ou les mécaniques du jeu telles que la géolocalisation, la collaboration ou encore les missions sont des ressorts de bien d’autres jeux qui font appel au crowdsourcing.

Le projet Noah par exemple est une application qui permet à ses utilisateurs de contribuer à l’élaboration d’une documentation sur la vie sauvage de leur lieu de vie. Des missions incitent une communauté de citoyens à photographier, taguer, identifier et en apprendre plus sur la faune et la flore locale. Toutes ces données agrégées sont une précieuse aide apportée aux chercheurs et permettent d’établir une base de données qui peut être mise à jour en temps réel et qui est accessible par tous.

La motivation est importante dans ce type de jeux qui oeuvrent pour le bien commun. Une motivation qui prend parfois la forme de gratifications qui collent au plus prés des attentes des participants. Le Japon par exemple a eu une idée pour redorer son image, sinistrée après le passage du tsunami, et ainsi relancer le tourisme, en crise depuis la catastrophe.

Cliquer ici pour voir la vidéo.


Puisque les premières images sur  Google des terres dévastées pouvaient jouer en leur défaveur, des étudiants de la Berghs School of communication en Suède ont donné un coup de pouce à l’office du tourisme japonais. Il leur est apparu essentiel de redonner au pays une image attrayante. Quels meilleurs ambassadeurs pour le Japon si ce n’est les touristes qui y sont en visite ? Ils ont donc crée une application, « Post from Japan », à partir de laquelle les touristes peuvent télécharger leurs clichés du pays. Le but ? Encourager le partage de ces photos souvenir sur les réseaux sociaux en offrant du temps de connexion gratuit sur le réseau Wi-Fi du gouvernement. Et pour chaque like, l’utilisateur se voit offrir 3 minutes de connexion supplémentaire. Ingénieux quand on connait le tarif d’une connexion internet sur mobile à l’étranger. Une application qui permet de repousser chaque jour un peu plus les photos du désastre des premières pages de Google Image.

Par le truchement du jeu et de motivations extrinsèques, l’homme est donc capable, sans même aucune connaissance en la matière, de contribuer à des avancées dans de nombreux domaines, qu’ils soient scientifiques, sociaux, environnementaux ou autres. À l’avenir, des nouveaux systèmes pourront même permettre de tirer réellement profit d’une expérience, tout en contribuant massivement à améliorer la qualité de navigation sur le web. Avec Duolingo.com par exemple, disponible en version bêta, les utilisateurs peuvent apprendre une langue étrangère, gratuitement et par niveaux, tout en aidant à la traduction de pages web.


Illustrations et photos sous licences Creative Commons par Elirook et Wi_2Photography via Flickr

]]>
http://owni.fr/2012/05/04/la-petite-revolution-de-lintelligence-collective/feed/ 0
[entretien] Google, “une des plus grandes puissances géopolitiques du monde” http://owni.fr/2011/03/20/google-democratie-entretien-google-une-des-plus-grandes-puissances-geopolitiques-du-monde/ http://owni.fr/2011/03/20/google-democratie-entretien-google-une-des-plus-grandes-puissances-geopolitiques-du-monde/#comments Sun, 20 Mar 2011 20:06:38 +0000 Guillaume Ledit http://owni.fr/?p=52403 A la lecture de la présentation hallucinée faite par JC Féraud de Google Démocratie, on a voulu aller plus loin. Et quoi de mieux qu’une rencontre avec les auteurs pour prolonger le plaisir de la lecture de ce “techno-thriller” et approfondir certaines des questions évoquées dans l’ouvrage. Rencontre avec Laurent Alexandre,  généticien, énarque et fondateur de Doctissimo et David Angevin, journaliste et écrivain, auteur notamment de Dans la peau de Nicolas.

Du fait que Sergey Brin (renommé Brain dans le livre) soit porteur du gène de la maladie de Parkinson aux fulgurants développements des technologies NBIC (nano-bio-info-cogno), entretien à bâtons rompus.

On n’a pas l’habitude d’un roman écrit à quatre mains. Comment vous êtes-vous rencontrés?

David Angevin: On s’est rencontré il y a trois ans. On est devenu copains, Laurent avait lu mes livres, je connaissais Doctissimo. En discutant, on s’est dit que c’était…

Laurent Alexandre: … rigolo de faire un truc entre transhumanité, intelligence artificielle (IA) et puis génétique. De faire la NBIC, la totale, en un seul roman. Et de faire le lien entre la passion des gens de Google pour l’intelligence artificielle et le fait que Serguey Brin va faire un Parkinson; il a le gène LRRK2 muté, comme annoncé sur son blog en 2008.

David Angevin: Ca a d’ailleurs fait la couverture de Wired

Laurent Alexandre: Il s’est fait fait tester par la filiale de Google qui fait de la génétique qui est 23andMe, et qui est dirigée par sa femme.

Il y a un vrai pont entre la génomique et Google, ce n’est pas un hasard. Il y a le pont par la maladie et par la diversification sur le plan économique avec la création de 23andMe. 23, parce qu’on a 23 paires de  chromosomes. Et moi. Confier son ADN à Google laisse présager de choses assez sympathiques.

D’où vient l’acronyme NBIC?

Laurent Alexandre: Nano-Bio-Info-Cogno, ce n’est pas de nous. C’est vraiment un terme utilisé dans le cercle des gens qui bossent sur ces questions. En plus, c’est un acronyme facile à retenir. Les gens ont un peu de mal sur la cogno [les sciences cognitives] parce qu’en fait la cognitique, c’est à dire les sciences du cerveau et de l’IA, c’est un truc que les gens connaissent en fait très peu: au mieux les gens connaissent l’informatique bien sûr, et les nanos, qu’on commence à connaître. On a fait ce pont là. Et on s’est intéressés à l’émergence des groupes transhumanistes aux Etats-Unis: Kurzweil, ses opposants, les réactionnaires comme Kass.

David Angevin: On s’est échangé des milliers d’e-mails, d’articles… Tous les matins j’ouvrais ma boîte mail et Laurent m’avait envoyé cinquante liens. Je n’y connaissais pas grand chose à l’origine et en tant que romancier ça a fini par faire tilt, je me suis dit que c’était quand même plus intéressant que de raconter des histoires de bobos parisiens et journalistes, comme j’ai pu le faire avant. C’est un champ énorme qui s’est ouvert.

D’autant que le spectre est assez large: de la géopolitique aux évolutions technologiques en passant par l’anticipation…

David Angevin: Oui. On s’est dit que tant qu’à faire, autant dresser un paysage complet.

Laurent Alexandre: Il se passe quelque chose avec Google, et c’est forcément un peu vaste. On n’est pas une des plus grandes puissances géopolitiques du monde, ce qu’est Google de notre point de vue aujourd’hui, sans que ça remue beaucoup d’éléments.

Vous situez l’action du roman en 2018, pourquoi?

Laurent Alexandre: Parce que ça sensibilise plus les gens que 2174. Et que ça situe l’action dans un contexte géopolitique, économique, social, que les gens vivent.

David Angevin: Notre idée est de faire une série de livres sur le sujet. C’est intéressant parce que ce n’est ni de la science-fiction (SF), ni de l’anticipation: 2018 c’est demain matin. Alors évidemment, on exagère un peu: ce qu’on raconte adviendra peut-être en 2025. La date n’est pas importante finalement. La SF, ça ne nous intéresse pas. JC Feraud parlait de technoythriller: un divertissement qui tente de poser des questions.

Laurent Alexandre: La bataille pour le contrôle de Google me paraît envisageable à cette échéance. On peut imaginer que des acteurs veuillent prendre le contrôle de Google et que les Etats se posent des questions. Si Google continue à vouloir être un cerveau planétaire et à vendre une forme d’IA, la propriété de Google sera un problème d’envergure internationale.

“On est des déclinistes, on ne croit pas que l’Europe va se réveiller demain matin”

A cet égard, votre vision de la géopolotique me paraît un peu pessimiste. Ce que vous décrivez autour de la crispation de l’Europe sur les questions bioéthiques et le tableau sombre que vous dressez de l’état économique de la zone euro est quasiment apocalyptique. Google est pourtant censé ne pas faire de mal et apporter des solutions. Qu’est-ce qui vous arrive?

Laurent Alexandre: Toutes ces histoires se construisent loin de chez nous. On peut pas dire que la Silicon Valley et la génomique se construisent sur les bords de la Seine ou sur les bords du Tage. On est quand même assez largement en dehors de cette histoire qui se construit entre Shenzhen, San Diego et la Silicon Valley, qui est l’épicentre des technologies NBIC.

Et pour vous, on va le rester?

Laurent Alexandre: Le “Google franco-allemand”, Quaero, ne me paraît pas très sérieux ni très crédible. On est des déclinistes, on ne croit pas que l’Europe va se réveiller demain matin.

David Angevin: Laurent me disait que l’Iran investit plus que nous dans les nanotechnologies.

Laurent Alexandre: Quand on voit la liste des pays qui auront plus de 150 millions d’habitants en 2050, c’est à dire demain matin, on a le Congo et l’Ethiopie (170 millions)… Ce ne sont pas de grandes puissances industrielles et technologiques, nous sommes d’accord. Mais les équilibres géostratégiques bougent beaucoup, et rapidement. L’Iran, le Viet-Nam et l’Egypte ont dépassé les 125 millions d’habitants. Quand j’étais en 6ème, l’Egypte était au programme, il y avait 27 millions d’habitants. Le basculement est très rapide.

David Angevin: On parlait de pessimisme sur l’aspect économique. C’est une possibilité. C’est un roman, donc on peut s’amuser mais c’est tout de même fondé sur un terreau qui tend à nous faire penser qu’on peut aller par là.

Vous vous faites effectivement plaisir et ça se ressent à la lecture, notamment dans l’inspiration qui semble provenir des Etats-Unis. Comment vous êtes-vous répartis la tâche en terme de rédaction?

David Angevin: On a travaillé, on a mis deux ans à écrire ce livre. Je ne trouve pas particulièrement de plaisir à lire des polars français ou, encore pire, les polars nordiques que je trouve insupportables mais qui se vendent commes des petits pains. On est plutôt fans de littérature américaine effectivement. Ce qui m’a donné le rythme en revanche, n’a rien à voir: je me suis retapé les six saisons des Sopranos !

Concernant les évolutions de la génétique et de la thérapie génique que vous décrivez, 2018 vous paraît être un horizon crédible?

Laurent Alexandre: C’est en train d’exploser. Le coût du séquençage ADN baisse de 50% tous les cinq mois.


David Angevin: Le premier a eu lieu en 2003.

Laurent Alexandre: En 2003, une personne a pu séquencer son ADN, Craig Venter. 2007 c’était Watson, inventeur de l’ADN. En 2009, on arrive à 100, et en 2010, 4500. On parle de 2 millions de personnes en 2013. Le coût d’un séquençage baisse drastiquement en parallèle. 3 milliards de dollars pour Craig Venter. En 2013, on sera à 1000 dollars et à 100 dollars en 2018. Après, il y a la thérapie génique. Cela obéit à une loi de Moore au cube. La loi de Moore, ça baisse de 50% tous les 18 mois, là, on en est à une baisse de 50% tous les cinq mois. Il y a un véritable génotsunami en cours. Donc, pour répondre à votre question, la partie génétique paraît probable. La partie intelligence artificielle interviendra sans doute un peu plus tard, mais il est claire que la thérapigénique va exploser assez rapidement.

“Nous ne sommes qu’au milliardième de ce qu’on aura dans trente ans”

Donc l’enjeu se situe au point de rencontre entre thérapie génique et noosphère?

Laurent Alexandre: Il avait décrit Google en fait,en évoquant la mise en commun de tous les cerveaux de la planète, mais sous une forme religieuse. Il ne pensait pas évidemment aux microprocesseurs. Mais Google est quand même une forme de noosphère.

David Angevin: D’ailleurs, le test de Türing en 2018, ce n’est pas complètement impossible…

Laurent Alexandre: La preuve par Waston. Moi je pensais qu’il allait perdre. Pour ce jeu télévisé [voir vidéo en anglais] qui est quelque chose de compliqué se rapprochant d’un test de Türing, j’étais persuadé qu’on était 5 ans trop tôt pour qu’un ordinateur l’emporte.

David Angevin: En plus, il n’a pas gagné contre des nazes. J’ai pas répondu à une question.

Laurent Alexandre: Il a fait une ou deux erreurs logiques, mais c’était impressionnant. On peut penser que le test de Türing sera gagné avant 2020, mais ce n’est pas le test de l’intelligence.

Cliquer ici pour voir la vidéo.

Au delà de l’intelligence artificielle, le mouvement transhumain (en particulier Kurzweil) met en avant la volonté d’aller vers une forme d’immortalité.

Laurent Alexandre: L’immortalité, c’est plutôt le post-humain. Parce que le transhumain ne télécharge pas son cerveau. Le vrai immortel, c’est plutôt le post-humain. Ce genre d’idéologie va attirer pas mal de gens étranges: des gourous NBIC autant que des kamikazes bioluddites. On peut imaginer toutes les dérives dans cet univers, comme dans toutes mutations technologiques.

Vous partez d’ailleurs du principe que les religions vont rentrer en résistance par rapport à cette mutation.

David Angevin: Ca va aller tellement vite qu’ils vont flipper. Ils sont déjà relativement crispés sur ces questions. On peut imaginer que des extrêmistes religieux se mobiliseront contre ces évolutions. D’ailleurs, dans notre livre, Larry Page se fait descendre par un kamikaze bioluddite.

Laurent Alexandre: Si le pouvoir de l’homme croît exponentiellement, si l’espérance de vie augmente et si on manipule à l’envi notre ADN et notre cerveau, on pose bien sûr question aux religions. Et surtout si on créé de la vie tabula rasa. On est dans une phase de création de la vie en éprouvette, déjà. On a créé une cellule artificielle en juillet dernier, ce qui n’est pas anodin vis à vis des religions. Dans le puzzle NBIC, c’est une pièce importante, comme d’autres se mettent en place depuis quelques années. Et elles s’assemblent: le séquencage ADN, la thérapie génique à notre porte, la vie artificielle qui se créée, des progrès extraordinaires dans la compréhension du cerveau et en IA.

Ce qui est fascinant, c’est que quand on prend la loi de Moore, l’évolution est proprement ahurissante. En réalité, nous ne sommes qu’au milliardième de ce qu’on aura dans trente ans.

“On n’a jamais renoncé à un progrès scientifique”

Vous parlez des bioluddites, ces gens refusant le progrès et luttant contre ses applications. On vous sent un peu amers par rapport aux écologistes et aux décroissants.

David Angevin: On n’a jamais, dans toutes l’histoire de l’humanité, renoncé à une découverte, à un progrès scientifique. J’ai plutôt de la tendresse pour ces gens. J’ai un profond respect pour les gens qui se retirent de la société. Mais il y a aussi un côté un peu pathétique, parce que ce n’est pas ce vers quoi le monde va. Je suis assez frappé qu’on arrive avec ce bouquin et qu’il n’y ait pas déjà eu un million de livres sur le sujet! C’est grave. Le manque de curiosité des journalistes ou des responsables politiques sur ces sujets, c’est dément!

Vous pensez que ces questions devraient être beaucoup plus présentes dans le débat public?

David Angevin: Bien sûr.

Laurent Alexandre: Les politiques ne veulent pas en entendre parler. Je suis énarque, j’en connais des politiques. La technologie leur fait peur. En réalité, la biopolitique et les NBIC ne rentrent pas dans le clivage droite/gauche.

Madelin est ultra proNBIC, il y a des gens pro NBIC à gauche, les écologistes sont antiNBIC, comme les cathos versaillais de droite. La biopolitique, ce n’est pas gauche/droite, et donc c’est un peu compliqué.
David Angevin: Il y a aussi des associations contre-nature dans le livre, comme entre extrêmistes islamistes et cathos de droite.

La théorie du livre c’est que la clivage droite/gauche va disparaître au profit du clivage bioconservateurs/transhumanistes.

“Le cyborg est une figure qui nécessite quelques décennies pour s’épanouir”

Votre livre a-t-il pour objet de vulgariser ces thématiques?

David Angevin: Au départ, on voulait faire ça sous forme d’essai, mais on s’est vite rendu compte que c’était trop froid: c’était plus malin d’en faire une “politique-fiction”: un bon moment à passer qui pose les bonnes questions.

Laurent Alexandre: Et puis Sergey Brin est un personnage de roman: si puissant, et si jeune. Et ils ont des comportements de gamins avec leur ballons et leurs bureaux à la con. Ce sont de grands enfants. En plus, Brin matérialise deux des facettes NBIC: la génétique et l’IA.

C’est le rapprochement entre ces deux champs qui apparaît central dans le livre. Pouvez-vous en donner des exemples?

Laurent Alexandre: L’analyse d’un génome nécessite beaucoup d’algorithmes. L’affinement des technologies d’analyse du génome passera par des algoritmes qui vont de plus en plus tendre vers l’IA. Quand on traite des milliards et des milliards de données, on est déjà dans de l’IA, aves des moteurs de recherche, des moteurs d’inférence… C’est une tendance. Ce qu’on fait en biologie va également être de plus en plus irrigué par de l’IA. Mais il n’y aura pas de seuil. On ne va pas du jour au lendemain découvrir l’IA: ce n’est pas un bouton on/off. C’est comme un enfant qui grandit, c’est un processus vivant qui se créé. L’an 0 de l’IA, c’est la victoire contre Kasparov aux échecs en 1997, ce que tout le monde considérait comme impossible. Pourtant, il y a encore des champs dans lesquels l’ordinateur ne peut battre l’homme: le jeu de Go par exemple.

En revanche, vous n’êtes pas très “androïdes”. Vous parlez de post-humains mais il n’apparaît pas tel quel dans votre livre.

David Angevin: C’est 2018, encore une fois. Il va y avoir une suite.

Laurent Alexandre: Le cyborg est une figure qui nécessite quelques décennies pour s’épanouir…

Et, pour revenir à Google, vous pensez que ses dirigeants sont dans cette logique…

David Angevin: Oui, et ils ne s’en cachent pas!

Laurent Alexandre: Sur l’IA, ils ont fait plusieurs déclarations dans lesquelles ils présentaient leur objectif: que Google soit un moteur d’IA.

David Angevin: On n’a pas inventé grand chose.

Dans votre livre, deux milliards d’individus se connectent à Google chaque jour. Google amasse déjà énormément de données, et on peut décemment se poser la question de savoir ce qu’ils vont en faire.

David Angevin: Dans le bouquin, Google se contente de s’en servir pour tenir tout le monde par les couilles, ils s’en servent comme d’une arme.

Laurent Alexandre: Notre conviction, c’est que si on avait de vrais moteurs d’IA, on s’en servirait à des fins médicales. Parce que finalement la seule obsession partagée par tout le monde sur Terre est de vivre plus longtemps. Ce serait l’utilisation première.

Pourtant, dans Google Démocratie ça tire dans tous les sens. Il y a des rapports de force, des flingues, des mafieux, des agents plus ou moins secrets…

David Angevin: On est en 2018, encore une fois. Et c’est tôt, ils n’ont pas encore fait le boulot, ni gagné la partie. Il y a forcément des barbouzes qui gravitent autour. Et puis, c’était pour le côté fun.

Laurent Alexandre: Tout cela reste très humain.


Illustrations CC FlickR: MJ/TR, Tangi BertinJoamm Tall

Images de Une par Marion Boucharlat pour OWNI

Retrouvez tous nos articles sur Google et le transhumanisme.

]]>
http://owni.fr/2011/03/20/google-democratie-entretien-google-une-des-plus-grandes-puissances-geopolitiques-du-monde/feed/ 20
La société de l’interaction et de la complexité http://owni.fr/2011/02/19/la-societe-de-l%e2%80%99interaction-et-de-la-complexite/ http://owni.fr/2011/02/19/la-societe-de-l%e2%80%99interaction-et-de-la-complexite/#comments Sat, 19 Feb 2011 13:00:52 +0000 Serge Soudoplatoff http://owni.fr/?p=46736 Internet n’est pas la première technologie de l’histoire de notre humanité qui accompagne des bouleversements fondamentaux. J’ai coutume de dire que l’invention de l’alphabet est la révolution la plus proche de l’Internet, et son usage n’a probablement pas été facile à ses débuts. Il n’est pas neutre de passer d’un dessin à une série de symboles abstraits.

Mais la construction de l’Internet est aussi une manière de résoudre des problèmes. La lecture du livre L’homme et la matière d’André Leroi-Gourhan nous montre bien que l’idée de co-construction entre l’humain et l’outil est un des fondamentaux de l’humanité: « la main forge l’outil, et l’outil change l’homme. » Ce constat permet d’éviter deux écueils : la technologie Dieu, et la technologie Diable. Non, Internet n’est pas l’outil qui va rendre le monde meilleur. Mais Internet n’est pas non plus l’instrument qui pousse les enfants dans les griffes des pédophiles. Internet, comme l’écriture, est un média neutre. L’alphabet a permis de coder à la fois La Divine Comédie et Mein Kampf, des recettes de cuisines délicieuses et des livres pornographiques, Molière et Émile Henriot. Internet, de par la neutralité de son architecture, véhicule tous les paquets de manière indifférenciée.

Toutes les grandes révolutions technologiques qui ont marqué l’Humanité ont toujours été présentes parce qu’elles permettaient de franchir des étapes importantes. L’invention de l’alphabet permet aux sociétés paysannes de s’installer. L’imprimerie est un outil indispensable de la révolution industrielle, qui a besoin d’une manière simple de dupliquer à bas coût les savoirs aux quatre coins de la planètes.

Quelle est donc la société qu’Internet nous aide à créer ? On parle souvent de la société de la connaissance. Je suis dubitatif, l’humanité a passé son temps à créer, gérer, partager et utiliser des connaissances, et je ne vois pas en quoi notre monde est différent. Le partage des connaissances est, certes, rapide avec Internet ; mais en -15 000, les connaissances technologiques étaient non seulement de très haut niveau, mais elles se diffusaient en Europe de manière très rapide, comme le montre bien le livre de Sophie de Beaune Les hommes au temps de Lascaux. On parle parfois de société des médias, mais le concept de spectacle est très ancien, et de tous temps les individus se déplaçaient pour assister à des fêtes ou à des spectacles, comme le montre cet autre livre extraordinaire, Voyager dans l’antiquité, dans lequel on apprend qu’à l’Antiquité, il était très coutumier de voyager pour participer à des cérémonies « planétaires », au sens du bassin Méditerranéen en tout cas. Que la fête vienne chez soi via la télévision est une évolution, mais pas forcément une révolution, puisque l’idée de partage s’en trouve affaiblie.

Il est toujours bon de retourner aux fondamentaux. Il est souvent coutume de dire que le monde d’avant n’est pas le même que celui de maintenant, qu’il était meilleur, etc. en oubliant bien sûr tous les défauts horribles du passé. On voit toujours son paradis dans l’enfer des autres, surtout ceux d’antan.

Nous côtoyons plus de personnes, nous lisons des journaux, des emails…

À l’inverse, il est intéressant de chercher les invariants de l’humanité. Parmi ceux-ci, il y en a un qui est très amusant : le temps moyen que passe un urbain dans les transports. Il est le même à Londres, Tokyo, New-York, Los Angeles, Paris, San Francisco, il est d’une heure et demie (voir le livre Le territoire des hommes de Jean Poulit) . Donc, le RER ou les transports régionaux ne servent pas du tout à raccourcir les temps de trajet, contrairement à ce que beaucoup de décideurs déclament, ils servent à agrandir la ville. Plus intéressant : ce chiffre est le même depuis 40 ans, et les historiens disent qu’il est le même depuis le moyen-âge. En revanche, ce qui a fondamentalement changé, c’est la quantité d’interactions qui a lieu pendant cette heure et demie. Nous côtoyons plus de personnes, nous lisons des journaux, nous écoutons de la musique, nous recevons des textos et bientôt des tweets, nous lisons nos emails, etc.

Voici une véritable rupture : depuis 60 ans, la population mondiale est passée de 2 à 6,5 milliards d’individus. À l’échelle de l’humanité, la progression est vertigineuse.

Les êtres humains étant, pour la plupart, des animaux sociaux, ne vivent que parce qu’ils interagissent. Et voici donc le problème qui se pose : comme gérer une multitude d’interactions ? C’est la propriété d’un système complexe, que d’avoir de multiples interactions, parce qu’à chaque instant, le champs des possibles est immense.

Nous sommes donc rentrés dans une nouvelle société, que je propose d’appeler « la société de l’interaction et de la complexité » .

Pour gérer cette société, nous avons besoin d’un outil qui nous permet de rester efficace, et de ne pas nous laisser déborder par la complexité du monde. Ce n’est pas pas hasard si Internet s’installe. À ceux qui me disent qu’ils croulent sous la complexité, je répond qu’Internet est la solution, à condition de l’utiliser correctement, c’est-à-dire de changer nos comportements, nos structures, pour nous adapter. Chaque fois qu’un PDG me dit « comment je fais pour gérer toute l’information qui m’écrase ? », je répond que ce n’est plus à lui de gérer cette information, mais qu’il doit transformer son entreprise pour la mettre dans un mode d’intelligence collective, seule forme d’organisation capable de gérer la complexité.

Nous sommes encore en situation d’apprenant de l’Internet. Gardons-nous bien de détourner, ou de détruire, ce merveilleux outil. Il est la condition d’un monde vivable pour nous, et pour les générations à venir, qui seront encore plus dans l’interaction et la complexité.

Article initialement publié sur le blog de Serge Soudoplatoff

Photo Flickr CC Domenico Nardone

]]>
http://owni.fr/2011/02/19/la-societe-de-l%e2%80%99interaction-et-de-la-complexite/feed/ 0
L’intelligence collective n’est pas l’apanage du web http://owni.fr/2011/02/12/lintelligence-collective-nest-pas-lapanage-du-web/ http://owni.fr/2011/02/12/lintelligence-collective-nest-pas-lapanage-du-web/#comments Sat, 12 Feb 2011 11:30:23 +0000 Rémi Sussan http://owni.fr/?p=46244 Qu’entend-on généralement par “intelligence collective” ? Pour le monde du web, la messe est dite : c’est le produit émergent de l’interaction entre plusieurs milliers, voire millions d’individus, certains ne partageant avec les autres qu’une quantité minimale de leur réflexion (c’est la théorie du surplus cognitif chère à Clay Shirky, comme il l’a développe dans on livre éponyme ou chez TED). Et bien entendu, c’est le web lui-même qui est le média de choix de cette intelligence collective.

Cette définition repose sur certains postulats, pas toujours explicites :

  • Plus on est de fous, plus on rit. Autrement dit, l’intelligence collective n’apparait qu’avec un très grand nombre d’interactions entre des multitudes d’agents. Le modèle, c’est la ruche, ou la fourmilière.
  • Cette intelligence est désincarnée : elle s’exprime via une bande passante extrêmement faible, sous la forme de texte, parfois même d’un simple vote, entre personnes qui ne se voient pas, et souvent ne se connaissent même pas.

Pourtant, il existe une autre approche de l’intelligence collective, bien plus ancienne que le net ou le web : la “fusion” entre quelques esprits, le plus souvent seulement deux, pouvant aboutir à une explosion inattendue de créativité.

Ces derniers temps, une multitude de blogs et d’articles ont traité de cette “petite” (par la taille) intelligence collective : une série d’articles dans Slate, s’intéresse de près au couple créatif en art ; la revue du MIT, plus prosaïque, s’est penchée sur le succès de l’intelligence collective “en petits groupes”. Enfin, deux recherches en neurosciences, dont une française, contribuent à nous faire comprendre comment une interaction entre partenaires se manifeste au niveau des structures cérébrales…

La dynamique d’un couple créatif

Dans une série d’articles pour Slate sur la créativité en couple, l’écrivain Joshua Wolf Shenk s’essaie à comprendre la multitude de couples “créatifs” qui se sont succédé dans l’histoire des sciences et des arts : Watson et Crick, Engels et Marx, etc. et bien sûr Lennon et McCartney auxquels il consacre la plus grande part de sa série d’articles. Il montre dans ces papiers à quel point il est difficile de faire la part entre l’apport de l’un ou de l’autre au sein d’une de ces paires, voire de déterminer lequel des deux membres est le plus influent.

John Lennon...

Ainsi, alors que la légende des Beatles fait souvent de John l’élément avant-gardiste de la paire, Paul étant avant tout l’artisan de mélodies délicates comme Yesterday, on découvre que c’est McCartney qui s’est plongé le premier dans les expériences d’avant-garde, avec les bandes magnétiques notamment, et à recevoir l’influence de musiciens contemporains comme Stockhausen. Et pourtant, c’est bien Lennon qui voudra intégrer le très étrange Revolution number 9 à leur album Blanc.

La nature du leadership au sein de ces couples est également difficile à déterminer. Pour Mick Jagger, le secret de sa collaboration relativement aisée avec Keith Richards tient en quelques mots : il faut qu’il y ait un leader (sous-entendu : lui). Pourtant note Shenk, c’est sous l’impulsion de Keith Richards, et selon ses choix musicaux essentiellement, que fut enregistré Exile on Main Street, considéré par de nombreux critiques comme le chef-d’oeuvre du groupe.

Entre Lennon et McCartney, la situation est encore plus ambiguë. Il semblerait, nous explique Shenk, que Lennon se soit toujours considéré comme le leader du groupe, mais un leader, qui de sa propre volonté, se limiterait pour laisser du pouvoir à son alter ego. inalement, peut-être Shenk met-il le doigt sur la nature de leur collaboration en supposant que McCartney représentait avant tout pour Lennon “une perte de contrôle”.

... Jamais sans Paul McCartney?

Lorsqu’on les interrogea (après leur séparation, et donc leur brouille) sur la nature de leur travail en commun, il est intéressant de noter que les deux membres de la paire avaient du mal à décrire leur processus de travail. Et Shenk de citer un merveilleux contresens de John Lennon, lequel affirma simultanément dans une interview que les deux associés avaient toujours écrit séparément, avant de continuer en parlant de leur écriture commune. Shenk l’explique ainsi:

L’affirmation de John apparait comme un non-sens. Nous écrivions séparément, mais nous écrivions ensemble. Impossible de prendre cela au sens littéral. Sauf si cela exprime assez bien la nature de leur collaboration.

Mais la confrontation entre deux génies à l’ego démesuré ne constitue que la face visible de l’intelligence en couple. Le plus souvent, explique Shenk, les collaborations se composent d’un acteur public et d’un autre, plus discret : éditeur pour un écrivain, producteur pour un musicien, etc. Le rôle de ce dernier est souvent ignoré. Pourtant si l’on se penchait un peu plus sur l’histoire des grandes oeuvres, le rôle des collaborations apparaitrait bien plus important qu’on ne l’imagine. Shenk rappelle ainsi que le psychanalyste et théoricien Erik Erikson a reconnu être incapable de distinguer dans son travail sa propre contribution de celle de sa femme Joan. “Il est l’un des plus célèbres sociologues de l’histoire. Elle n’a même pas son entrée dans la Wikipedia”, conclut Shenk. Parfois, le “partenaire” est même condamné par l’histoire, et voué aux gémonies. Ainsi Malcolm Cowley qui travailla dur à mettre en forme et publier l’oeuvre de Jack Kerouac Sur la route, avant que ce dernier et ses amis ne le dépeignent comme le “traitre” qui avait osé défigurer l’oeuvre en brisant la continuité du “tapuscrit” original (qui, rappelons-le, avait été frénétiquement tapé à la machine sur un unique rouleau de papier, ce qui avait inspiré à Truman Capote la fameuse formule “ce n’est pas de l’écriture, c’est de la frappe”).

L’intelligence émotionnelle, clé du succès des groupes ?

Mais l’intelligence de groupe n’est pas réservée aux génies créateurs. Toute équipe doit un jour se demander si la pensée collective qu’elle produit est de qualité supérieure ou inférieure à la somme des individus qui la composent.

Une équipe de chercheurs de diverses universités menée par Thomas Malone du Centre pour l’intelligence collective du MIT a étudié les conditions d’apparition d’une intelligence collective en petit groupe, nous explique la revue du MIT. Ils ont pour cela effectué deux études impliquant 699 sujets, réunissant des petits groupes de deux à cinq personnes et leur demandant de s’attaquer à une batterie de tests, puzzles et autres jeux. Ils ont effectivement découvert que la réflexion collective pouvait, dans certains cas, se montrer supérieure à celle des individus. Mais cela n’est pas automatique ; les performances des groupes peuvent connaître jusqu’à 30 à 40% de variations.

Pour réussir une intelligence collective, il faut prendre en compte plusieurs facteurs. Première surprise, la “bonne ambiance” importe peu. La motivation des participants n’est pas non plus fondamentale, ni le niveau intellectuel des individus impliqué. Les trois facteurs qui auraient effectivement joué sont d’abord la “sensibilité sociale” des participants, sensibilité sociale qui a été calculée en soumettant chaque sujet au test de “lecture de l’esprit dans les yeux”. Autrement dit, la facilité qu’à un sujet à déduire l’état émotionnel d’autrui en observant son regard (vous pouvez faire le test ici). Autre paramètre important : dans les groupes les plus efficaces, les participants tendaient à se partager plus ou moins équitablement le temps de paroles. On n’y trouvait pas une monopolisation de la parole par une minorité des membres. Enfin, troisième facteur, et non le moindre : le succès d’un groupe était corrélé au nombre de femmes y participant.

C’est donc bel et bien l’intelligence émotionnelle de ses membres qui apparait comme l’ingrédient fondamental au succès d’un groupe. Cette recherche nous montre à quel point la nature de la collaboration est avant tout physique, incarnée dans le corps.

L’intelligence collective est fonction du corps

Comment cette intelligence collective s’exprime-t-elle au plus bas niveau, celui du cerveau ? Deux récentes recherches nous apportent, sinon une véritable réponse, du moins une succession de faits troublants. L’une portait sur la conversation entre deux personnes et utilisait la résonance magnétique fonctionnelle. L’autre, menée par une équipe de jeunes chercheurs français, s’est intéressée à la communication non verbale et a recouru à l’électro-encéphalographie (EEG) comme procédure de test. Deux recherches à la fois très proches par le sujet abordé, mais très différentes tant par la procédure expérimentale que par les outils de mesure, donc.

Dans la première recherche, une des participantes de l’équipe a placé sa tête dans un appareil d’IRM tout en racontant devant un magnétophone une histoire remontant à ses années de lycée. Pendant ce temps, la machine enregistrait ses états cérébraux. On a ensuite soumis 11 volontaires à l’IRM, en leur faisant écouter l’enregistrement de l’histoire. Il s’est avéré que dans un grand nombre de cas, le sujet “allumait” les mêmes zones cérébrales, au même moment, que celles activées par la conteuse lorsqu’elle avait déroulé son récit. Souvent, il existait un délai de deux ou trois secondes, mais dans certains cas la zone s’éveillait chez le volontaire juste avant le moment où elle s’était activée chez la conteuse ; cet effet étonnant serait dû, selon les chercheurs, à l’anticipation du récit par l’auditeur. Dernier test, on a demandé aux sujets de raconter l’histoire qu’ils avaient entendue. Les passages dont ils se souvenaient le mieux étaient en fait ceux au cours desquels les zones cérébrales avaient été le mieux “synchronisées”.

Le groupe français a utilisé quant à lui des couples de participants qui échangeaient des gestes de la main sans signification particulière, chacun étant libre d’imiter l’autre ou non. Dans le même temps, on examinait leurs ondes cérébrales. Il s’est avéré qu’une synchronisation entre certaines parties des deux cerveaux émergeait lors de cette communication gestuelle, spécialement certaines qui jouent un rôle important dans les relations sociales. Par rapport à l’expérience américaine, l’usage de l’EEG permet non seulement une précision à la milliseconde (l’IRM est beaucoup plus lent) mais autorise surtout l’enregistrement de l’interaction en temps réel, les cerveaux des deux partenaires étant mesurés simultanément, au contraire de expérimentation avec l’IRM, où les sujets se trouvaient isolés et testés chacun à leur tour.

On savait déjà à quel point l’intelligence individuelle était fonction du corps et ne pouvait être séparée de celui-ci. Tout récemment encore, une étude aurait montré que la compréhension des émotions lors de la lecture de certains textes pouvait se trouver ralentie lorsque des injections de Botox avaient été effectuées sur les parties du visage censées exprimer cette émotion (la bouche pour les émotions positives, le front pour les négatives).

L’intelligence collective, de même, devrait beaucoup au corps. Elle ne saurait se réduire à une pure communion platonicienne des esprits…

Cet article a initialement été publié sur InternetActu

__

Crédits photo: Flickr CC Fabian Bromman, drinksmachine, buildingadesert

]]>
http://owni.fr/2011/02/12/lintelligence-collective-nest-pas-lapanage-du-web/feed/ 7
Les forums: ou la fin des études de marché? http://owni.fr/2010/10/18/les-forums-ou-la-fin-des-etudes-de-marche/ http://owni.fr/2010/10/18/les-forums-ou-la-fin-des-etudes-de-marche/#comments Mon, 18 Oct 2010 10:11:13 +0000 Serge Soudoplatoff http://owni.fr/?p=31572 Nous avons baigné dans un environnement scolaire français qui nous a appris que, lorsqu’un problème se présente, il faut le résoudre, et le résoudre tout seul, sans aide. Ce n’est qu’en arrivant dans un milieu professionnel que nous pouvons enfin appliquer la recette la plus rapide pour résoudre un problème : trouver quelqu’un qui est déjà passé par le même chemin, et l’a résolu. Le copiage est une excellente méthode, la bonne question devenant alors : «qui a déjà résolu ce problème ? Qui sait quoi sur tel sujet ?».

De tous les lieux où s’expriment une véritable intelligence collective, le forum de discussion est probablement le plus puissant. C’est le lieu idéal du pair à pair où l’on trouve à la fois de l’empathie, de l’entraide, et de l’intelligence. Il permet de répondre à la question pré-citée.

Une définition simple s’impose : le forum de discussion est une plateforme où tout internaute peut poser une question à une communauté, question qui peut rester sans réponse, ou bien à l’inverse engendrer jusqu’à plusieurs mois de discussions passionnantes. Dans le forum des passionnés de la marque Renault, un fil de discussion a commencé le 14 mars 2005 pour se terminer le 7 juillet 2008, avec plus de mille messages, à propos d’un problème de régulateur de vitesse…

Un peu d’histoire…

Un détour par l’histoire s’impose. Les forums ont été, avec l’e-mail, les premiers services à être proposés sur Internet. Cela s’appelait la hiérarchie Usenet, elle fut inventée en 1981. On les appelait aussi les newsgroups. Comme le web n’existait pas à cette époque, l’interface était simple. C’était l’époque où il n’y avait pas de dangers dans Internet, donc pas besoin de s’enregistrer ; l’e-mail suffisait comme identifiant ; e-mail qui, à cette époque, était généralement prénom.nom@fai.qqchose. Cette hiérarchie Usenet a donné lieu à des centaines de millions de messages. Son mode de gouvernance était simple : un nouveau groupe était créé suite à un vote, ensuite, il n’y avait pas de contraintes.

Deux éléments ont changé la donne : l’augmentation du nombre d’abonnés Internet, et l’arrivée du web.

Internet, comme toute vraie innovation, est passé d’un cercle de gens ouverts et curieux à un public plus large. Ceci est souhaitable, mais le prix à payer est la dilution d’une philosophie initiale, fondée sur l’entraide en mode pair à pair. Sont donc arrivés dans ces forums des personnes plus inclines à s’exposer, généralement au travers de messages provocants, que d’aider la communauté. Elles portent un nom délicieux : les trolls. La vie est ainsi faite que la coopération est un équilibre instable, dans le sens où elle réclame que toutes les parties soient d’accord, alors que l’affrontement est un équilibre stable, dans le sens où un seul suffit pour déclarer la guerre. Ces forums se sont vites trouvés pollués par des individus qu’il était difficile de border, la technologie ne proposant pas de couche d’administration sophistiquée.

Explosion des forums

Puis arrive le web, qui, comme je l’ai signalé, est une régression, dans le sens où l’on revient à une recherche de contenus plus que de connaissance. Les forums de discussion n’étaient pas dans la logique informatique du web, ils avaient besoin de logiciels client, dits lecteurs de news. Dans le début des années 2000, sont nés des logiciels permettant de gérer des forums de discussion, dont le célèbre phpbb, qui gère 80% des forums.

Deux bonnes nouvelles sont alors arrivées, la première était l’accessibilité au travers du navigateur web, ce qui simplifiait la tache pour l’internaute, la deuxième était la possibilité d’administrer plus finement le forum, d’abord en forçant un processus d’authentification, puis en définissant des rôles (lecteur, contributeur, modérateur, administrateur), et surtout en proposant au créateur du forum de pouvoir le structurer dans une hiérarchie à deux ou trois niveaux. C’est ainsi que sont nés et ont littéralement explosé les forums de discussion.

Ces forums présentent un avantage, c’est de pouvoir montrer le nombre d’inscrits, et le nombre de messages publiés depuis le début du forum. Le rapport des deux donne une indication de sa dynamique.

Ces forums sont nombreux, et parfois surprenants. Ainsi, face au géant Doctissimo,  qui est le premier forum francophone, il y a le forum vivre sans thyroïde, créé par une femme qui avait des problèmes de santé de ce type, et a réussi à créer une communauté très active de plus de 10.000 membres. Le forum des enseignants du primaire, qui unit plus de 90.000 enseignants qui s’échangent des bonnes pratiques, forum d’une très grande intelligence, a été créé par un enseignant de l’île de la Réunion, sans nécessiter l’intervention de l’Éducation nationale. Que penser du surprenant forum des passionnés de gros tracteurs, où plus de 10.000 agriculteurs se sont échangés près de 600.000 messages sur les tracteurs et leur adéquation aux technique agricoles !

Voici une petite collection de forums francophones, représentatifs de plusieurs thématiques. Les chiffres datent du 30 septembre 2010.

Forum Thématique Membres Messages ratio
Doctissimodoctissimo santé 2402085 201355878 83,8
Forum thyroïdeforum thyroide santé 10307 248323 24,1
Hardware.frHardware.fr hightech 813250 78154292 96,1
Le repairele repaire hightech 112542 1063594 9,5
Home cinémahomecinéma hightech 128258 7193978 56,1
Forum VoyageForum voyages voyages 582236 3072893 5,3
Forum météoInfoclimat sciences 8992 1288776 143,3
Futura scienceFutura science sciences 418211 3149488 7,5
Jeux on lineJeux On Line jeux 189299 21369683 112,9
SkiSki sport 58087 2128536 36,6
Vélo vertVélo vert sport 100771 3751028 37,2
Caradisiaccaradisiac auto/moto 863848 45858793 53,1
MotoCrazy moto auto/moto 94325 9252957 98,1
Cyber bricoleurCyber bricoleur brico/jardin 110875 3226753 29,1
forum jardinaujardin brico/jardin 56543 1729799 30,6
forum contruireconstruire brico/jardin 58687 1429860 24,4
Les gros tracteursLes gros tracteurs agriculture 10128 592056 58,5
Enseignants du primaireenseignants du primaire enseignement 99192 4692024 47,3
Classes prépaclasses prépas enseignement 19752 306198 15,5
Forum mathsforum maths enseignement 68908 685801 10,0

Le plus grand forum de discussion est Gaia, qui réunit plus de 24 millions de personnes ayant échangé plus de 1,8 milliards de messages.

C’est quoi un bon forum ?

Pour qu’un forum de discussion soit actif, il faut qu’il s’y passent de vrais échanges. Un forum où s’échangent de bonnes pratiques, des trucs ou astuces, ou bien de l’empathie, est un forum de qualité. À l’inverse, les forums liés à la politique, parfois liés aux journaux, sont des lieux rarement intéressants, car sans utilité pratique.

Lorsqu’un forum de discussion est actif, alors c’est un endroit important pour le monde de l’entreprise, car les clients s’échangent beaucoup d’informations. Moore le disait explicitement, dans son livre Crossing the chasm : « il vaut mieux trois clients qui se parlent que dix clients qui ne se parlent pas.» La justification première était de réduire le coût des ventes. Mais l’intérêt est surtout d’apprendre comment les clients s’approprient les produits et services des entreprises.

La méthode traditionnelle pour faire des études de marché est de définir des questions à poser, puis de trouver un échantillon représentatif (de 1000 personnes, ce qui est faible…), et de recueillir les avis. Toute personne qui a été du côté des sondés sait très bien que la réalité est plus complexe que les questions qui sont posées ; qu’on ne sait pas répondre par «oui ou non» car la réalité est souvent «oui» dans un contexte et «non» dans un autre ; que les messages qui semblent importants au sondé sont, comme par hasard, absents du sondage, etc. Le sondeur a perdu du temps et de l’argent, le sondé a perdu du temps et gagné de l’énervement.

Un outil plus fin et efficace

En revanche, les forums de discussion permettent deux choses que les sondages ne permettent pas : un, de faire émerger les questions des utilisateurs, et deux de les faire réagir entre eux. La connaissance que l’on peut avoir est largement supérieure à tout sondage.

Les spécialistes de l’informatique théorique ont l’habitude de structurer la connaissance en trois niveaux : la connaissance individuelle (quelqu’un sait), la connaissance collective (tout le monde sait), et la connaissance globale (tout le monde sait que les autres savent). Le fameux quatrième pouvoir des médias consiste à savoir faire passer du niveau un au niveau deux ; tout le monde (ou presque) ayant lu les journaux, écouté la radio, vu la télévision. La grande puissance d’Internet est de faire passer du niveau deux au niveau trois.

La méthode, par rapport à une question posée, consiste à trouver les bons forums, puis à en extraire les tendances lourdes, les signaux faibles, et d’agrémenter tout cela d’une bonne dose de verbatim.

Il n’est pas facile de trouver les bons forums, car il n’existe pas de moteur de recherche. La partie «forum» de Google est en fait l’indexation de la hiérarchie Usenet, que Google a acquis au travers de dejanews.com qui avait repris tous les fichiers de cette hiérarchie.

Ensuite, il faut, au travers des moteurs de recherche internes, trouver les messages intéressants, et ramasser les pépites. Lors de l’observation d’un forum automobile, un fil de discussion était lancé sur le sujet de la qualité du concessionnaire. La plupart étant des passionnés de haut niveau, la note moyenne n’était pas excellente… Sauf un passionné qui a avoué que son concessionnaire était un membre actif du forum qui ne s’était jamais déclaré, qu’ils s’étaient un jour aperçus que l’un était le client de l’autre, et que le concessionnaire lui avait demandé de le contacter à chaque fois qu’il irait dans une concession afin de lui mettre à disposition un technicien pointu. Voici un concessionnaire qui, au lieu d’attendre que le client vienne chez lui, allait là où ils se trouvaient, à savoir dans un forum, savait détecter un client pas comme les autres, et établir une relation particulière.

Seul le forum de discussion permet de mettre en valeur une telle démarche intelligente, qui passera inaperçue à toute étude de marché. Il est plus difficile de poser la bonne question que de trouver la bonne réponse. Le forum permet souvent de trouver  les bonnes questions.

L’entreprise doit favoriser les discussions

Un forum est essentiellement un lieu d’observation. Toute tentative que pourrait avoir une entreprise d’y intervenir directement pour tout autre objet que d’aider la communauté est vouée à l’échec. Ce sont des lieux où le faux devient vite évident, la communauté étant très forte pour les détecter, et les rejeter. En revanche, le rôle principal d’une entreprise est de délivrer de l’information dont l’objectif principal est de faire discuter les clients entre eux. Et surtout, l’entreprise ne doit pas empêcher ces discussions, elle doit les favoriser. Citons comme exemple de ce qu’il ne faut pas pas faire un grand distributeur qui n’avait pas aimé ce qu’on disait de lui dans un forum de passionnés de Canon Eos Numériques, avec comme conséquence la transformation dans les message de son nom d’enseigne en f**c…

Allons même plus loin : beaucoup de passionnés mettent comme signature automatique leur configuration, que ce soit leur voiture, leur chaîne hifi, ou bien les softs sur leur téléphone portable. Combien d’entreprises dépensent de l’argent pour savoir de quoi sont équipés leurs clients, alors qu’ils le disent spontanément dans les forums.

Les conversations dans les réseau sociaux atteignent rarement le degré d’intérêt qui existe dans les forums. La simplicité du bouton «j’aime» de Facebook ne pousse pas à écrire des commentaires réfléchis. Le forum de discussion reste encore, en 2010, un lieu intéressant pour y gagner de la connaissance au travers des échanges de bonnes pratiques et d’opinion entre les internautes.

Billet initialement publié sur Almatropie, le blog de Serge Soudoplatoff

Images CC Flickr betsythedevine, sea turtle

]]>
http://owni.fr/2010/10/18/les-forums-ou-la-fin-des-etudes-de-marche/feed/ 46
Droit d’auteur: variété végétale ou culturelle, même combat http://owni.fr/2010/06/07/droit-d%e2%80%99auteur-variete-vegetale-variete-culturelle-meme-combat/ http://owni.fr/2010/06/07/droit-d%e2%80%99auteur-variete-vegetale-variete-culturelle-meme-combat/#comments Mon, 07 Jun 2010 07:22:18 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=17777

Connaissez-vous le C.O.V. ou Certificat d’Obtention Végétale ?

Il s’agit d’un mécanisme, prévu par le Code de la Propriété Intellectuelle, qui vise à protéger les créations des producteurs de nouvelle variétés végétales. Il constitue une branche à part entière (c’est le cas de le dire !) de la propriété intellectuelle, mais se distingue du droit d’auteur ou du brevet par des originalités marquées (voyez ce schéma).

J’avais entendu parler du COV, il y a un certain temps déjà, mais c’est en creusant un peu la question que je me suis rendu compte qu’il y avait là un système très inspirant, dont le droit d’auteur devrait peut-être… prendre de la graine !

Équilibre entre la protection et l’usage

En effet, au cœur du COV, on trouve l’idée d’un équilibre à instaurer entre la récompense de l’innovation d’un côté et la nécessité de maintenir un libre accès aux ressources de l’autre. Cet équilibre entre la protection et l’usage, on sait qu’il est de plus en plus précaire dans les autres domaine de la propriété intellectuelle, comme le droit d’auteur ou le brevet, avec des conséquences néfastes pour l’accès à la connaissance (j’avais essayé d’en parler ici).

L’intérêt du COV par rapport à d’autres mécanismes de protection, c’est qu’au lieu de partir d’une approche « Tous droits réservés », il prévoit d’emblée que certains d’usages des variétés protégées doivent demeurer libres.

Pour obtenir le bénéfice d’un COV, le créateur d’une variété doit en faire la demande auprès du Comité pour la Protection des Obtentions Végétales, qui pourra le lui délivrer à  la condition que la variété présente un certain nombre de caractéristiques, dont la nouveauté (un peu comme en matière de brevet). Si c’est le cas, le certificat lui garantit pour une période limitée de 25 à 30 ans selon les espèces :

un droit exclusif à produire, à introduire sur le territoire où la loi est applicable, à vendre ou offrir à la vente tout ou partie de la plante, ou tous éléments de reproduction ou de multiplication végétative de la variété considérée et des variétés qui en sont issues lorsque leur reproduction exige l’emploi répété de la variété initiale (voyez ici).

Cette protection permet de rétribuer le travail de l’obtenteur en lui assurant que toute personne reproduisant sa plante pour la commercialiser s’acquitte d’une redevance, qui sera généralement intégrée dans le prix de vente.

Mais ce droit exclusif n’est pas absolu et il n’empêche pas une large variété d’usages.

  • Les acquéreurs de semences ou de plantes conservent la possibilité de les utiliser librement et de les multiplier à des fins non commerciales, ou dans un cadre privé ou familial (jardiniers amateurs)
  • N’importe qui peut utiliser librement et gratuitement une variété protégée pour en créer une autre ;
  • Il est possible d’utiliser librement la variété protégée dans le cadre de recherches, à des fins expérimentales, sans production ;
  • Enfin, les agriculteurs conservent la possibilité de conserver une partie des semences produites lors d’une récolte pour les replanter l’année suivante (semences de ferme), moyennant le paiement d’une redevance annuelle.

Ces libertés permettent de concilier les intérêts entre plusieurs acteurs : le producteur de variétés qui souhaitent tirer un bénéfice de son innovation ;  ses concurrents qui pourront à leur tour innover en s’appuyant sur cette création ;  les agriculteurs, les chercheurs, mais aussi les simples amateurs de jardinage.

De manière plus profonde, le COV reconnaît le fait que même si un apport intellectuel a été nécessaire pour créer, cette nouveauté s’enracine (sans jeu de mots !) dans un patrimoine (le capital génétique des espèces) qui ne doit pas pouvoir faire l’objet d’une appropriation exclusive trop forte, pour la raison qu’il constitue un bien commun dont l’accès doit demeurer ouvert.

Dans d’autres pays, notamment aux États-Unis, le système est différent et  c’est par le biais du brevet que l’on protège les obtentions végétales. Il en résulte de fortes conséquences en matière d’accès à la connaissance, dans la mesure où le brevet ne reconnaît aucune des libertés consacrées par le COV (voyez le tableau en bas de cette page qui compare les deux systèmes). COV et brevet peuvent aussi cohabiter dans la mesure où les gènes introduit dans les plantes par manipulation génétique peuvent être brevetés. On sait aussi que la firme Monsanto par exemple, avec son gène Terminator qui rend stérile les plantes génétiquement modifiées qu’elle produit, vise directement à remettre en cause la liberté de réutiliser les semences, pourtant garantie par le COV (une sorte de DRM génétique).

Rêvons un peu…

Malgré ces fragilités, il me semble que le COV pourrait servir avantageusement de source d’inspiration pour le droit d’auteur. Rêvons un peu et imaginons qu’un législateur malicieux (ou inspiré ?) décide un jour d’étendre l’application du COV aux œuvres de l’esprit. Que se produirait-il ?

1) La protection du droit d’auteur ne serait plus automatique acquise dès la création des œuvres, mais elle nécessiterait une procédure d’enregistrement, à la charge du créateur. J’ai déjà eu l’occasion de dire que ce système d’enregistrement me paraîtrait hautement préférable à la protection automatique qui s’applique actuellement. Il est légitime que le bénéfice d’un droit soit la contrepartie de l’accomplissement de devoirs. Actuellement, toute la charge procédurale pèse sur les utilisateurs qui doivent s’acquitter de démarches complexes, parfois inextricables, pour recueillir le consentement des titulaires de droits. Cette charge devrait être mieux répartie et peser également sur ceux qui retirent bénéfice du système. Lawrence Lessig, le père des licences Creative Commons, avait également défendue l’idée de créer un Registre mondial auprès duquel les créateurs pourraient enregistrer leurs œuvres, de façon à lutter contre le problème des œuvres orphelines. Il est certain qu’aucune obtention végétale ne peut être orpheline et que l’on sait aisément retrouver les titulaires de certificats, grâce à la procédure volontaire de demande.

2) La protection du droit d’auteur ne durerait que pour une période raisonnable, de 25 à 30 ans. Il est inutile de rappeler à quel point l’extension continuelle de la durée des droits menace l’équilibre du système de la propriété littéraire et artistique. Jetez par exemple un œil sur ce schéma qui montre ce que les lois ont infligé comme dommages au fil du temps au domaine public. Le patrimoine génétique reste un bien commun parce que son appropriation est réellement temporaire. Avec le patrimoine culturel, l’appropriation dure si longtemps que nous serons tous morts depuis longtemps lorsque les créations d’aujourd’hui deviendront des biens communs.

3) Le COV, comme le droit d’auteur, reconnaît l’existence d’un droit à l’usage privé du matériel protégé, mais il va plus loin. Il est possible de reproduire des semences pour son jardin tout comme il est possible de réaliser des copies privées des œuvres que l’on s’est légalement procurées. Mais le COV consacre plus largement ce droit, dans la mesure où il permet aussi aux agriculteurs de réutiliser une partie des semences d’une année pour replanter leurs champs. C’est accepter qu’une sorte de « copie privée » puisse exister malgré l’usage commercial. On n’est pas loin alors du fair use (usage équitable) américain, qui, contrairement à nos exceptions françaises, peut s’appliquer valablement dans certains cas, même lorsqu’il y  a usage commercial d’une œuvre protégée.

4) Si le COV s’appliquait aux œuvres de l’esprit, il existerait enfin dans notre système une vraie exception au profit de la recherche. Depuis la loi DADVSI de 2006, il existe en France une exception pédagogique et de recherche, mais celle-ci est très limitée et effroyablement complexe à appliquer (voyez plutôt). Le COV consacre de son côté un véritable droit à étudier les espèces protégées . Au nom du droit fondamental d’accès à la connaissance, il devrait en être de même pour les oeuvres de l’esprit. Notons également que le COV permet l’usage à des fins de recherche gratuitement, au nom de l’intérêt général, alors que le machin pédagogique de la loi DADVSI coûte chaque année plusieurs millions d’euros à l’État (et donc à nous tous !)

5) Last but not least, en appliquant le COV aux œuvres de l’esprit, on consacrerait enfin un droit à la réutilisation créative, qui fait si cruellement défaut dans le système actuel. Malgré le droit exclusif reconnu au créateur d’une nouvelle variété, il reste possible pour quiconque d’utiliser la plante pour en produire une nouvelle. Le bénéficiaire du certificat peut s’opposer à ce qu’on commercialise son invention sans le rémunérer, mais il ne peut empêcher qu’un autre s’appuie sur sa création pour innover à son tour et produire du neuf. Le droit d ‘auteur français ne permet pas cela, ou alors seulement dans les limites étriquées de la courte citation. Pourtant, le besoin est très fort de donner une assise légale à la réutilisation créative des contenus, au remix, au mashup et à toutes les pratiques amateurs qui fleurissent en ligne. Le droit d’auteur devrait apprendre à distinguer le plagiat de la réutilisation créative et reconnaître que la seconde relève d’un droit fondamental de créer qui ne peut être anéanti par aucune exclusivité. Cela éviterait de voir se produire des absurdités comme celle-ci ou celle-là, véritables attentats à la créativité. C’est tout l’enjeu du statut juridique des User Generated Content qui se cache derrière cette question. Ici encore, le COV se rapproche du fair use américain, qui accorde lui aussi droit de cité à « l’usage transformatif ».

“Pouvez-vous me dire l’épi qui est sorti le premier de terre

Vous me direz qu’il existe déjà des licences libres qui favorisent justement ce type de réutilisations. Certes, mais ce que montre le COV, c’est que l’idée d’un équilibre entre les droits d’un créateur et ceux de l’utilisateur, dotés d’une égale dignité, existe déjà dans notre code et qu’elle pourrait se propager çà d’autres domaines de la propriété intellectuelle.

On lit souvent que le COV a été mis en place pour tenir compte de la spécificité du vivant, mais son esprit pourrait s’appliquer tout autant aux biens culturels. Tout comme les créations végétales, les œuvres de l’esprit naissent en effet à partir d’un fonds commun préexistant d’idées et de concepts, qui constituent un bien commun dont l’appropriation exclusive devrait être étroitement bornée. Le créateur d’une nouvelle espèce végétale ne bénéficie que d’une protection limitée, car il n’est pas le seul à avoir œuvré. La nature aussi a concouru à la création. Il en est de même pour les œuvres de l’esprit : l’inventivité de l’auteur joue un rôle fondamental, mais elle ne doit pas faire oublier que l’intelligence collective est aussi toujours à l’œuvre, et c’est particulièrement vrai lorsque la création s’effectue sur Internet.

Pour s’en convaincre, je vous invite à relire ce magnifique passage des Majorats littéraires de P.J. Proudhon :

Voilà un champ de blé : pouvez-vous me dire l’épi qui est sorti le premier de terre, et prétendez-vous que les autres qui sont venus à la suite ne doivent leur naissance qu’à son initiative ? Tel est à peu près le rôle de ces créateurs, comme on les nomme, dont on voudrait faire le genre humain redevancier.(…) En fait de littérature et d’art, on peut dire que l’effort du génie est de rendre l’idéal conçu par la masse. Produire, même dans ce sens restreint est chose méritoire assurément, et quand la production est réussie, elle est digne de récompense. Mais ne déshéritons pas pour cela l’Humanité de son domaine : ce serait faire de la Science, de la Littérature et de l’Art un guet-apens à la Raison et à la Liberté.

Rêvons un peu que l’esprit d’équilibre du COV puisse s’appliquer un jour à toutes les créations !


PS : si vous avez aimé ces rêveries végétales, vous apprécierez peut-être celles-ci : Un droit d’auteur pour les animaux, pas si bête ? Il me restera ensuite à parler des minéraux !

Billet initialement publié chez :: S.I.Lex :: sous le titre “Obtention végétale : le droit d’auteur pourrait en prendre de la graine !” ; images CC Flickr monteregina fauxto_digit Martin LaBar Osbern

]]>
http://owni.fr/2010/06/07/droit-d%e2%80%99auteur-variete-vegetale-variete-culturelle-meme-combat/feed/ 3
Une science de l’intelligence collective ? http://owni.fr/2010/02/05/une-science-de-l%e2%80%99intelligence-collective/ http://owni.fr/2010/02/05/une-science-de-l%e2%80%99intelligence-collective/#comments Fri, 05 Feb 2010 09:43:26 +0000 Olivier Le Deuff http://owni.fr/?p=7614 L’intelligence collective peut-elle constituer un projet scientifique et si oui lequel. C’est l’entreprise qui occupe Pierre Lévy depuis plusieurs années.

Son dernier article mérite donc un examen particulier au-delà des clichés dont il est souvent victime. Il est vrai que certains ouvrages présentaient des prospectives discutables, notamment le world philosophy qui représentait surtout à mon goût une vision trop positive de l’avenir, oubliant justement les éléments malveillants (ce que remarquait fort justement Yann Leroux sur twitter). Mais c’est vraisemblablement propre à Pierre Lévy d’avoir une vision utopique de l’humanité et il faut bien avouer que ça nous change des prophètes technophobes et cela en nous oblige à penser de l’avant.

Voici donc mes quelques réflexions sur ce texte dont le but n’est pas d’en proposer un résumé mais plutôt une tentative de mise en avant de certains points qui m’ont paru importants. Cela reste donc une lecture subjective.

L’article pourra être lu de différentes manières. Je ne crois pas que Pierre Lévy parviendra à convaincre ses habituels détracteurs qui y projetteront (sans doute à tort) soit le voile cybernétique (que projette souvent Céline Lafontaine au point d’évoquer un empire cybernétique), soit le voile mystique qui fait sauter au plafond les scientistes les plus rigoureux (voir aussi la position de Dominique Rabeuf). Il est vrai que l’expression de noosphère qu’il prise peut être un peu agaçante. Je pense que cette expression rend mal compte du projet scientifique en marche et surtout commet une erreur qui est celle de donner l’impression d’une séparation trop nette des corps et de l’esprit ce qui n’est nullement l’objectif.

L’entreprise de Pierre Lévy est ambitieuse (trop ?) car le projet est celui d’une nouvelle lingua franca au travers du modèle IEML qui « permettrait non seulement d’élucider les mécanismes de la cognition symbolique mais encore de perfectionner notre gestion collective des connaissances et donc en fin de compte de soutenir le développement humain. »

Le texte permet de bien comprendre les objectifs d’IEML qui étaient restés parfois obscurs même si le désir d’une nouvelle langue ou idéographie est présente depuis longtemps chez Lévy.

La sortie des fausses idées sur l’intelligence collective :

Pour ma part, j’ai souvent été prudent avec l’intelligence collective du fait de son côté un peu idéaliste. Pierre Lévy apporte ici quelques réponses intéressantes notamment pour contrecarrer les discours qui voient les foules comme essentiellement porteuses de stupidité. Il est clair qu’une telle pensée se révèle fausse sans quoi nos sociétés ne seraient guère évoluées et l’homme serait demeuré « un loup pour l’homme ». Lévy retraduit bien les évolutions permises par des techniques utilisées collectivement (ce qui rejoint la fameuse culture technique de Simondon) :

« Il faut remarquer que les capacités cognitives individuelles reposent presque toutes sur l’utilisation d’outils symboliques (langues, écritures, institutions sociales diverses) ou matériels (instruments de mesure, d’observation, de calcul, véhicules et réseaux de transports, etc.) que l’individu n’a pas inventé lui-même mais qui lui ont été transmis ou enseignés par la culture ambiante. La plupart des connaissances mises en oeuvre par ceux qui prétendent que l’intelligence est purement individuelle leur viennent des autres, via des institutions sociales comme la famille, l’école ou les médias, et ces connaissances n’auraient pu s’accumuler et se perfectionner sans de longues chaînes de transmission intergénérationnelles »

En cela, l’intelligence collective est essentiellement culturelle et inscrite dans une tradition. :

« Ainsi, l’ironie facile sur la bêtise collective (qui est évidemment toujours la bêtise des « autres ») échoue à reconnaître tout ce que nos lumières personnelles doivent à la tradition et ce que nos institutions les plus puissantes doivent à notre capacité à penser et décider ensemble. Est-il besoin d’ajouter que l’adoption de l’intelligence collective comme valeur essentielle n’implique aucune abdication de la pensée critique ou de l’originalité individuelle ? »

Je remarque que l’intelligence collective ici est finalement assez proche de la culture de l’information à la fois comme tradition et comme potentialité d’individuation critique et d’innovation.

Ecriture et proto-écriture

Le projet évoque l’idée d’une écriture avant l’écriture (proto-écriture ou grammaire universelle), déjà présente dans le cortex en quelque sorte. Lévy se réfère à la grammatologie de Derrida et évoque le rôle éminemment culturel de cette capacité de codage et de manipulation symbolique. Le projet de Derrida n’a guère été suivi ce que dénonçait notamment Sylvain Auroux.

L’économie de l’information

C’est l’autre notion clef du texte de Lévy qui fait de cette dernière le pendant de l’intelligence collective. Certains n’y manqueront pas à nouveau d’y voir un monisme informationnel. Or, la notion est beaucoup plus riche que son acception actuelle voire celle qui est parfois dispensée dans des cours sur cette thématique. :

« La notion d’économie de l’information est voisine de celle de société du savoir. Il en existe plusieurs définitions possibles. Dans son acception la plus large (celle que je préfère), l’économie de l’information intègre toutes les opérations de production, d’échange, d’enregistrement, d’utilisation et d’évaluation des informations. En ce sens très général l’économie de l’information est aussi ancienne que l’espèce humaine, ou peut-être, bien au-delà, aussi ancienne que la biosphère. Dans la société humaine, l’économie de l’information est supportée et régulée par des systèmes symboliques. Or cette économie symbolique est elle-même dépendante de la médiasphère : par exemple, notre espèce a connu plusieurs réorganisations majeures de son économie de l’information, dont notamment celles qui se sont articulées successivement sur l’écriture manuscrite, sur l’usage intensif de l’imprimerie ou sur les médias électroniques. Mais les transformations de la médiasphère ne nous importent en fin de compte que parce qu’elles ont permis des réorganisations de l’économie de l’information, c’est-à-dire de l’intelligence collective. »

Cette vision est d’ailleurs tout autant celle d’une écologie de l’information, c’est-à-dire du fonctionnement d’un milieu socio-technique et pas seulement « biologique » n’opposant nullement de manière trop stricte « nature et culture ». Nous noterons d’ailleurs au passage que cela demeure souvent un des problèmes d’analyse du discours de l’écologie politique actuelle (à de rares exceptions) de ne pas avoir compris cette complexité.

Des besoins scientifiques

Seulement voilà, cette complexité est difficile à analyser et Pierre Lévy déplore notre incapacité à comprendre et analyser la formation de l’intelligence collective. Ill y a un déficit de mesure scientifique en la matière :

« Il n’échappe à personne, en effet, que l’on ne dispose aujourd’hui d’aucune unité de mesure sérieuse ni de méthodes scientifiques rigoureuses pour évaluer la puissance d’une intelligence collective. Les quelques efforts qui ont été tentés dans cette direction se contentent généralement de choisir une batterie d’indicateurs et de mesurer des quantités (un « quotient d’intelligence collective »), alors qu’il faudrait pouvoir décrire des dynamiques de systèmes, des patterns d’évolution, des modèles de transformations de quantités et de valeurs dans l’univers des significations. Et au cas où l’on s’imaginerait disposer d’une telle méthode scientifique, la distinction classique entre l’objet étudié et le sujet de l’étude serait bien difficile à maintenir. Il ne peut jamais être garanti – par exemple – que le prétendu « objet » étudié (un groupe humain) n’a pas développé une dimension cognitive qui échappe radicalement à ceux qui se prétendent les spécialistes de sa mesure ou de son évaluation. La science de l’intelligence collective à laquelle j’aspire ne pourra être que radicalement ouverte, dialogique et symétrique (ou réciproque : l’objet et le sujet échangeant régulièrement leurs rôles). »

Pierre Lévy ne s’inscrit donc pas ici dans une lignée totalement computationnelle et marque ici sa distance avec l’idée d’indicateurs uniquement chiffrés. Il plaide pour une mise en évidence de phénomènes et de formations souvent invisibles et peu évidentes à mesurer. Cela pose aussi la question de savoir s’il faut mieux considérer la science de l’intelligence collective comme une science dure ou une science humaine. La réponse est en fait assez évidente, l’objectif de Lévy est clairement de ne pas opposer les deux.

Il reste que nous avons un peu de mal à être d’accord (pour les raisons exposés plus haut) avec l’affirmation suivante :

« L’économie de l’information est à la noosphère ce que l’écologie est à la biosphère. »

Plus intéressant est en revanche, la défense des biens communs comme support d’une économie de l’information et comme garantie du développement humain et de la réussite de l’intelligence collective. Lévy souhaite donc la préservation des deux types de biens communs, les biologiques et les intellectuels.

Dès lors, l’exercice d’un travail pour le développement d’un capital devient possible :

« En quoi consiste le « travail » d’entretien et de développement des connaissances ? Les communautés de savoir et de pratique accomplissent des opérations réglées et socialement coordonnées sur des symboles. Il dépend des circonstances que ces opérations consistent à poser ou à résoudre des problèmes, à exécuter strictement des instructions ou à modifier des manières de faire, à inventer de nouvelles règles ou à répéter quelques coups joués déjà mille fois. Il importe peu, par ailleurs, que ces opérations s’inscrivent principalement dans des environnements de messages, de relations sociales, de rapports techniques ou – le plus souvent – d’un mixte des trois. Ce qui compte, c’est que l’interaction entre ces opérations de manipulation de signifiants accomplies par des personnes, en des lieux et des moments déterminés, compose quelque chose comme l’activité d’une intelligence

collective. Le travail qui donne vie au capital des connaissances communes est un processus de cognition sociale qui s’étend forcément dans une aire spatio-temporelle plus vaste que celle des opérations individuelles. »

Il faut probablement ici prendre le travail dans une acception qui ne soit pas celui du travail salarié mais autant du travail sur soi. De même, en ce qui concerne le capital de connaissances qui n’est pas nécessairement « marchandable ».

Internet comme medium unificateur

« Or si l’internet constitue à l’évidence aujourd’hui le médium unificateur sur le plan des techniques de communication matérielle des messages, nous ne disposons toujours pas de médium symbolique ou de langage commun qui nous permette de partager les savoirs sur un mode computable (pour exploiter la puissance de calcul du cyberespace) et transparent et de faire vivre ainsi une économie de l’information à l’échelle mondiale, avec tous les bénéfices que l’on peut en attendre sur le plan du développement humain. Or on ne pourra parler en toute rigueur de la connaissance comme d’un bien commun, effectivement exploitable par tous et chacun et selon les finalités et les points de vue

respectifs de toutes les communautés, qu’à la condition de disposer d’un tel medium symbolique. »

Internet peut-il donc héberger une nouvelle « lingua franca » ? On s’interrogera d’ailleurs avec le possible développement d’un internet chinois qui va dans la tendance opposée, celle du séparatisme.

IEML (Information Economy Metalangage) comme métalangage et les potentialités d’augmentation

Pierre Lévy évoque Douglas Englebart et ses travaux sur l’augmentation des facultés cognitives. Le projet IEML s’inscrit clairement dans cette lignée. Il reste toujours selon moi un problème avec l’augmentation qui peut devenir parfois une prolétarisation par processus de délégation technique. Toutefois, il faut rappeler ici que le projet n’a rien à voir avec les théories transhumanistes ou post-humanistes. Il n’est donc pas question de cyborg. D’ailleurs, Pierre Lévy raconte une anecdote particulièrement intéressante démontrant que l’intelligence collective constitue une voie différente voire opposée à celle de l’intelligence artificielle :

« Lors d’un colloque sur le thème Philosophy and computing dont il était l’invité spécial, j’ai eu le privilège de discuter du thème de l’intelligence collective avec ce pionnier. Un professeur de philosophie qui écoutait notre conversation laissa échapper l’objection habituelle sur « la bêtise collective ». Je lui répondis que l’intelligence collective était un programme de recherche scientifique et technique et non pas une approbation béate de n’importe quelle expression collective. Ainsi comprise comme un programme de recherche, le contraire de l’intelligence collective n’était pas la bêtise collective mais bel et bien l’intelligence artificielle (IA). »

Pierre Lévy montre ainsi une voie nouvelle, davantage culturelle, celle d’une culture de la convergence et s’inscrit dans la lignée des travaux d’Henry Jenkins.

L’IEML n’est donc pas qu’un langage informatique (même s’il est évident qu’aucun langage informatique ne peut être considéré comme uniquement du code) :

« En première approximation, IEML est un système de codage du sens (ou des concepts) à vocation universelle dont la principale propriété est de permettre une automatisation des opérations sur le sens. Et je souligne que ces opérations ne se limitent pas à l’automatisation des raisonnements logiques qui est la marque de fabrique de l’intelligence artificielle. Ce métalangage est censé être développé et utilisé de manière collaborative en vue d’une exploitation optimales des possibilités du cyberespace pour l’augmentation de l’intelligence collective humaine. La finalité immédiate d’IEML est de résoudre le problème de l’interopérabilité sémantique - le « chaos numérique » – qui vient de la multitude des langues naturelles, des systèmes de classifications et des ontologies. IEML fonctionne comme un « langage pivot », un système d’adressage des concepts capable de connecter différents systèmes de catégorisation et d’organisation des données qui resteraient sans cela incompatibles. »

Pierre Lévy souhaite son projet comme étant ouvert culturellement et en potentialités. Il ne s’agit donc pas d’un totalitarisme intellectuel même s’il est évident que la mise en place d’une telle grammaire ne peut qu’interroger sur d’évenutuels effets de grammatisation bien montrée notamment par Sylvain Auroux en ce qui concerne la grammaire latine.

L’IEML est donc un langage transculturel et translinguistique. Nous sommes évidemment tentés de le raccrocher avec les réflexions autour d’une translittératie.

Le projet IEML est alors décrit par Pierre Lévy de manière théorique et sans doute quelque peu idéale :

« Chaque point, carrefour ou noeud de la noosphère IEML est au centre d’une multitude de chemins de transformation calculables. Le long de ces chemins de transformation, chaque « pas » d’un carrefour à l’autre est la variable d’une fonction discrète. Pas à pas et de proche en proche, ces chemins relient chaque point à l’ensemble immense des autres points. Dans la direction centrifuge, un point-carrefour est donc l’origine singulière d’une étoile de transformation qui génère la totalité de la sphère. Dans la direction centripète, un point-carrefour fonctionne comme un point de fuite universel de la noosphère, puisqu’il existe un chemin de transformation calculable qui mène vers lui à partir de n’importe quel autre point. En somme, la noosphère IEML est une sphère dont le centre est partout, la circonférence nulle part et dont chaque singularité organise de manière originale un immense circuit sémantique. »

Les symbolistes n’y manqueront pas d’y voir une proximité avec les sefirots qui m’avaient un temps également inspirées avec l’idée du projet SEFIRA.

IEML reste donc surtout un chantier en construction :

« La noosphère IEML n’est en 2010 qu’une idée philosophique : une simple construction théorique de type mathématico-linguistique. Mais son implantation informatique « libre » et son usage collaboratif pourrait nous permettre de relever deux défis liés à l’intelligence collective : celui de la modélisation de la cognition symbolique et celui d’un perfectionnement de la gestion des connaissances dans le cyberespace. »

Unité de la nature et de la culture

Le travail est celui d’une quête scientifique de l’unité de la nature :

« La « matière » et « l’esprit », le monde des corps sensibles et celui des idées intelligibles, les objets des sciences exactes et ceux des sciences humaines interagissent de manière évidente et font certainement partie de la même et

unique réalité. Le fait de l’unité de la nature peut faire assez facilement l’objet d’un consensus. Mais la véritable difficulté vient de l’absence d’un modèle scientifique commun de cette unité. »

Pierre Lévy remarque l’absence de réelle métrie de l’Internet et les difficultés qu’il y a à cartographier des relations un peu plus complexes :

« Aucun moteur de recherche, aucun medium social ne nous propose actuellement de représentation dynamique et explorable de la distribution relative et de l’interrelation des concepts dans les recherches, les messages échangés ou

les documents affichés dans le réseau. Or le minimum que l’on puisse demander à une représentation scientifique utile de l’intelligence collective qui s’investit dans le cyberespace est de cartographier des relations entre significations. »

Conclusion :

J’ai retrouvé dans le texte des éléments enthousiasmants qui m’ont rappelé la découverte des premiers textes de Pierre Lévy. Même si certains points demeurent discutables, il est évident que le projet de Pierre Lévy est aussi celui de susciter débats et nouvelles idées car le projet est clairement d’essence collective. On saluera aussi un texte qui contraste avec les velléités conservatrices actuelles, notamment politiques qui visent à instaurer péages, censures et autres barrières. L’enjeu de l’intelligence collective est aussi celle d’une reconstruction politique et institutionnelle.

Plusieurs fois, j’ai songé pour ma part, que l’apport de la pensée de Gilbert Simondon pourrait être utile à la démarche au même titre que celle de Bernard Stiegler notamment en ce qui concerne la notion de « milieu associé ».

C’est d’ailleurs en cela, que l’étude de communautés de pratiques est intéressante et notamment celle qui permettent l’innovation et l’individuation. Les communautés « hackers » et celles de loisirs créatifs ont beaucoup à nous apprendre.

Car, c’est un point sur lequel Lévy n’insiste pas assez, la réussite du projet collectif passe par des réussites également individuelles. Les réflexions autour du PKM constituent des pistes à creuser. Il en va de même pour les pistes didactiques et la culture technique nécessaire à cette réussite.

De même, il faut saluer la volonté de Pierre Lévy pour que la science se saisisse d’objets et de domaines qu’elle a tendance à abandonner fautes de moyens ou de réflexions théoriques suffisantes. Le web et l’Internet mérite bien une analyse plus ambitieuse, en effet sans quoi les sphères marchandes ne tarderont pas à y imposer également leurs manières de voir vers une économie de la déformation. Le projet de Pierre Lévy est donc celui aussi de mettre un peu d’autorité scientifique face à la montée en puissance des mécanismes de popularité.

Il est aussi vraisemblable que l’intelligence a toujours eu une portée collective en constituant ce nous entre-lie mais surtout ce qui nous entre-lit (cf. stiegler)

Sur IEML, pour approfondir :

Le site du projet

L’article de wikipédia sur IEML

La proposition d’Olivier Auber

Le débat autour d’IEML avec Dominique Rabeuf en farouche opposant notamment ici.

» Article initialement publié sur Le Guide des égarés

» Illustration de page d’accueil par A Different Perspective sur Flickr

]]>
http://owni.fr/2010/02/05/une-science-de-l%e2%80%99intelligence-collective/feed/ 0
Un grand pas vers le nouveau monde http://owni.fr/2009/10/23/un-grand-pas-vers-le-nouveau-monde/ http://owni.fr/2009/10/23/un-grand-pas-vers-le-nouveau-monde/#comments Fri, 23 Oct 2009 01:19:47 +0000 zoupic http://owni.fr/?p=4878 Pour savoir où nous allons, il faut savoir qui nous sommes, d’où nous venons. On sait que la ligne du temps n’est pas linéaire, mais comprendre ce qui bloque nous permet de trouver les solutions pour nous surpasser et accéder au niveau suivant. Voici donc en anglais une présentation complexe mais incroyablement riche qui nous fait un bon bilan de la situation, de ce qui cloche et de là où nous sommes. Elle a été réalisée par Artbrock sous prezi.

New Economics, New Wealth

Bizarrement, alors que sur mon blog j’ai réussi à l’intégrer, on dirait qu’ici ça bloque. Avant d’aller plus loin, je vous conseille donc vraiment de faire le tour de la présentation et d’essayer de capter le fond de la réflexion.

Réflexion, Action

[disclaimer + conviction personnelle] Je viens de rejoindre l’équipe du Transitioner et travaille désormais avec Arthur Brock et Jean-François Noubel [/disclaimer /conviction personnelle]

Une fois que l’on comprend ceci, il est temps d’agir. La plus belle déclaration, celle d’entrer et d’embrasser ce prochain monde, de faire le premier pas vers ce monde de l’abondance et des richesses, a été faite par le fondateur de TheTransitioner.org : Jean-François Noubel, j’ai nommé le Vœu de richesse

En faisant vœu de richesse,


Je décide d’accueillir et embrasser toute la richesse qui nous est donnée, qu’elle soit matérielle ou immatérielle.

J’accueille la richesse comme ce qui nous rapproche de ce qui est Beau, Bon et Vrai.

J’accueille la richesse comme la vie donnant la vie, la vie faisant évoluer la vie, pour la grande alliance entre la matière et la lumière.

Je m’engage à construire, avec mes frères et sœurs humains ainsi qu’avec tous les êtres vivants, des relations harmonieuses et joyeuses, fondées sur des engagements fertiles et emplis de sens.

Je m’engage à offrir aux autres ce dont ils ont besoin pour l’accomplissement de leur vie.

Je m’engage à accueillir ce que les autres m’offrent pour l’accomplissement de ma vie.

Je m’engage à être nu et vulnérable, à accueillir mes limitations, pour être ouvert à recevoir des autres.

Je m’engage à accueillir la nudité et la vulnérabilité des autres, à accueillir leurs limitations. J’y trouve la joie d’offrir mes présents.

Je ne cautionnerai pas ce qui sépare les êtres vivants de la richesse. Je ne cautionnerai pas les idéologies et les actes qui dégradent l’abondance en rareté artificielle, car cela attise l’avidité et la guerre.

Mais plutôt que de lutter contre les idéologies et les actes, je puiserai dans l’infinie créativité qui nous est donnée à la naissance. Je serai un artiste, je co-créerai avec mes frères et sœurs, et de nouveaux chemins nous seront révélés. Le futur ne naîtra pas de mes réactions, il naîtra de mes créations. Le futur est art pur, il jaillit de ma présence au présent.

J’inventerai et développerai la maîtrise de chaque outil, technologie et pratique qui permettra l’application stricte de ce vœu, dans le contexte de notre époque et culture.

Etant donné notre époque, compte tenu de la personne que je suis, voici quelques unes des actions pratiques que je vais engager pour honorer ce vœu :

  • Je quitte le système monétaire actuel. Je ne vais plus acquérir ni vendre quoi que ce soit avec la monnaie conventionnelle.
  • Je laisse tous les biens que j’ai acquis dans le passé au moyen de ce système. Je ne garderai que ce qui m’a été offert en cadeau.
  • Je m’engage à utiliser les monnaies libres qui partout libèrent et catalysent la richesse, dans chaque communauté, pour chaque être, de manière universelle.
  • Tout ce que j’ai besoin d’échanger avec mes frères et sœurs, le sera au moyen des monnaies libres.

—-

La porte de tous les possibles

La porte de tous les possibles

La porte est ouverte

La voie est ouverte entre l’ancien monde: notre société de la rareté mourante et le nouveau: la société de l’abondance, la civilisation de l’information. Instant de tous les possibles: nous sommes à la croisée des chemins et ceci est la porte qui mène vers le prochain monde. Se libérer, et entrer dans l’abondance, il n’y a plus qu’un pas à faire pour embrasser complètement les richesses. Ce grand pas pour l’Homme, ce grand pas pour l’Humanité.

Ce pas, je le ferai aussi quand le temps sera venu. En inaugurant mon blog avec l’article sur les flux, j’annonçais la couleur des changements à réaliser. Peu importe les autres flux, tant que le sang de mon organisme sera la monnaie conventionnelle et rare, mon corps ne sera pas complètement libre, mes flux ne seront pas propres.

La monnaie conventionnelle définit l’ADN de notre société, c’est le type de lien qui existe entre les hommes, leurs relations, ce qui les motive et les mobilise. Avec un ADN vicié, le résultat est ce que l’on observe aujourd’hui.

Comme nous désirons une neutralité du net, nous devons exiger également une neutralité des monnaies.

Les monnaies libres permettent de recoder notre ADN et de redéfinir, pas à pas, les règles qui nous correspondent et qui correspondent à nos échanges.

Comme le dit si bien Jean-François Noubel dans son écrit sur la révolution invisible “Les grands enjeux de l’humanité ne sont pas la faim, la pauvreté, le développement durable, la paix, la santé, l’éducation, l’économie, les ressources naturelles… mais notre capacité à élaborer de nouvelles organisations capables de les résoudre. Notre enjeu principal est l‘intelligence collective.”

Alors ensemble, faisons preuve d’intelligence pour passer à l’étape suivante.

]]>
http://owni.fr/2009/10/23/un-grand-pas-vers-le-nouveau-monde/feed/ 4
Finkielkraut : Internet, lieu de la liquéfaction http://owni.fr/2009/10/13/finkielkraut-internet-lieu-de-la-liquefaction/ http://owni.fr/2009/10/13/finkielkraut-internet-lieu-de-la-liquefaction/#comments Tue, 13 Oct 2009 21:17:47 +0000 Thierry Crouzet http://owni.fr/?p=4593 « Vous êtes tous pourris, vous avez compris ? Vous êtes en état avancé de décomposition. Vous n’existez même pas. » Voici comment je pourrais résumer la pensée de Finkielkraut au sujet du Net après avoir écouté son entretien avec Pierre Lévy organisé par Michel Alberganti sur France Culture.

Mise en garde. Ma lecture est biaisée. Je suis en train d’écrire un livre sur la fluidification de l’information, de la société et de l’homme. Pour moi, c’est un phénomène en grande partie positif, même s’il engendre pas mal de bouleversements (mais le bouleversement est-il négatif ?).

Quand Finkielkraut s’exclame que « Le net est le lieu de la liquéfaction. », je ne peux qu’être d’accord mais, contrairement à lui, je ne trouve pas ça catastrophique. Deux visions s’opposent. On revient à l’éternel débat entre essentialistes et anti-essentialistes.

De l’auteur

En 2001, Finkielkraut écrit : « Il y avait l’autorité du prêtre, il y avait l’autorité du maître, il y avait l’autorité de l’auteur : tous ces surmois sont engloutis dans le grand pêle-mêle numérique. » Bonne analyse mais c’est pas une catastrophe. Au contraire. L’autorité n’est plus nécessairement concentrée dans une personne, bien qu’elle puisse encore l’être ; elle peut aussi se distribuer dans un groupe qui a la particularité de ne pas être centralisé (s’il l’était on se retrouverait dans l’ancien paradigme).

Arrive l’idée d’intelligence collective de Pierre Lévy. Un groupe de gens qui interagissent, partagent des connaissances, discutent, aboutissent collectivement à une forme d’expertise. D’une certaine façon, nous en sommes là sur ce blog. Les uns viennent rappeler les ignorances des autres, apporter des pistes de lectures… et peut-être que ça nous fait avancer. En tous cas ça me fait avancer autant que de lire des experts ou même des auteurs auréolés de leurs césars.

Je ne dis pas que les experts comme les auteurs n’ont plus d’importance, je dis simplement que des collectifs peuvent aussi produire une expertise et, pourquoi pas, une œuvre. Qui nous dit que les flux de certains blogs ne seront pas plus tard considérés comme des œuvres.

Franchement, si dans cent ans nos descendants relisent nos échanges, je pense qu’il y aura de quoi se marrer et de toucher à quelques unes des particularités de notre temps, plus que dans n’importe quel roman à la noix publié aujourd’hui. Nous n’avons pas l’once d’un outil critique pour juger ce que nous sommes en train de produire. Je crois que nous pouvons voir l’ensemble des contenus postés sur un blog comme une œuvre collective. La recherche du temps perdu du vingt-et-unième siècle est peut-être là.

Bien sûr que nous avons besoin des œuvres pour nous construire mais ces œuvres ne sont plus nécessairement l’œuvre d’un homme en particulier. C’est d’ailleurs un truisme. Une ville est une œuvre, une œuvre collective, tout comme de nombreux bâtiments. La culture humaine est une œuvre collective. La Bible est déjà une œuvre collective.

De la démocratie

Pour Finkielkraut, le concept d’intelligence collective est éminemment démocratique, d’une démocratie qui serait extrémiste et populiste. Il confond égalité et liberté.

Les fourmis développent une forme d’intelligence collective sans que nous ayons besoin de parler pour elles de démocratie. Pour moi, il n’y a aucun lien entre les deux concepts, aucun amalgame possible. Une équipe de foot développe une intelligence collective, un peloton de cyclistes aussi tout comme des oiseaux qui volent en flotte.

Il y a intelligence collective quand des agents coopèrent et produisent ensemble quelque chose que seuls ils ne pouvaient réaliser (l’intelligence ne poursuit pas ce qui est bien – notion trop humaine). Wikipedia est en ce sens le fruit d’une intelligence collective et elle dépasse toutes les encyclopédies créées par des intelligences collectives qui reposaient sur des groupes beaucoup plus réduits. Le web résulte d’une intelligence collective gigantesque qui nous permet de lier entre eux toutes nos connaissances.

La liberté est dans ce cas fondamentale : chacun a le droit de lier entre elles les informations qu’il désire sans rien demander à personne. Donc la démocratie favorise a priori l’intelligence collective, elle lui donne plus d’ampleur et nous pouvons rêver de plus de démocratie pour aboutir à plus d’intelligence collective.

De l’intelligence

Pour Finkielkraut, le monde de l’intelligence ne serait pas égalitaire, la démocratie ne s’y appliquerait pas. Oui mais quel rapport avec le net ? Il explique que dans le domaine de l’intelligence, du génie, du talent… il y a des hiérarchies.

Soyons clair, ces hiérarchies sont toutes relatives. Les auteurs qu’on place au pinacle à quinze ans ne sont pas les mêmes que ceux qu’on choisit plus tard. Quel serait l’âge idéal pour définir la hiérarchie idéale ? On voit tout de suite dans quel embarras on se trouve.

Finkielkraut semble surtout ignorer que le web est hiérarchisé : popularité, autorité, tagué… Sans ces hiérarchies, il n’y aurait pas de Google. Mais ces hiérarchies sont relatives soit à des algorithmes, soit à des classements manuels. Ces hiérarchies cohabitent, se concurrencent.

Le web n’est pas un monde égalitaire mais un monde de liberté. Je ne vois pas de rapport entre égalité et liberté. C’est la démocratie qui tente de lier les deux concepts mais le web n’est pas démocratique. Il est fraternel peut-être, libertaire à coup sûr, mais pas égalitaire. Deux hiérarchies ne se valent pas, ça n’a tout simplement aucun sens de les comparer.

Du fleuve

Finkielkraut a peur de la surproduction engendrée par le web, de cette vague gigantesque qui noie tout. N’a-t-il pas peur d’être noyé lui-même ? Bien sûr qu’il est plus difficile que jamais d’émerger, bien sûr que le populisme favorise les œuvres les plus faciles (celles de Finkielkraut justement)… mais est-ce différent d’avant ? Flaubert ne cesse de se plaindre des imposteurs de son temps. Déjà il y avait assez de médiocres pour ensevelir les génies. Rien de neuf. On a juste changé d’échelle tout en inventant des outils de filtrage pour naviguer dans cet océan.

C’est ça qui énerve le plus les apparatchiks. On n’a plus besoin qu’ils servent de phare pour retrouver notre chemin. On peut établir nos hiérarchies, on peut explorer la longue traîne. Et si des œuvres géniales existent, nous finiront par les pêcher.

Finkielkraut ne supporte pas cette idée qu’il peut exister des propulseurs, des manipulateurs d’œuvres, des remixeurs… il rêve encore d’un temps où l’œuvre avait une réalité quasi idéale. « Tout devient manipulable, mais ça fait peur, dit-il en gros. Que le gouvernement ait ce pouvoir, c’est une chose. Mais que tout le monde l’ait aussi, c’est terrible. » Je trouve pas ça terrible. Nous jouons enfin à armes égales. Nous ne sommes pas égaux, loin de là, mais nous avons accès au même arsenal.

Dans mon prochain livre je cite Bruce Chatwin. « Les nomades n’ont pas de domicile fixe en tant que tel. Ils compensent cette absence en suivant des sentiers de migration immuable. » Ce qui se passe sur le web est de cet ordre là. Nous avons tout simplement changé de représentation du monde. L’espace web existe comme les sentiers de migration. On peut se repérer par rapport à lui comme le navigateur par rapport aux côtes. On parle de flot et de flux mais aussi de fleuve. Or le fleuve, c’est l’eau qui s’écoule en même temps que la berge. Nous construisons notre berge en traçant des liens qui dans notre monde ont une réalité incontestable. Le solide existe, il a simplement changé de nature. Faut regarder au bon endroit.

De la régression collective

Pour finir Lévy, qui dans ce débat parle peu mais parle juste, résume la position de Finkielkraut. « Tout ce que vous dites contre Internet d’autres l’ont dit avant vous contre l’écriture, contre l’imprimerie, contre les calculatrices de poche… » Finkielkraut s’exprime comme un disque rayé. Il prend un texte de la renaissance, par exemple De laude scriptorum manualium de Johannes Trithemius en 1492, et il remplace imprimerie par internet et le tour est joué.

L’homme parle bien, il tient le crachoir. Favorisé par Alberganti, il ne fait que nous dispenser son conservatisme affligeant. Faisant l’éloge de la difficulté, l’opposant à l’instantanéité. Si ce n’est pas un reliquat de ce vieux réflexe franchouillard : il faut en chier pour réussir ? Comment penser un monde réticulaire quand on est incapable de concevoir autre chose qu’une société pyramidale, où l’école n’a d’autre but que d’amener une élite au sommet de la pyramide ?

Finkielkraut se lance ensuite dans un éloge de la pluralité. Or, la pluralité, l’individualisme, l’individuation ne peuvent se développer qu’avec la liberté (démonstration dans le chapitre 4 de mon prochain livre). Justement, Internet nous laisse espérer un accroissement de cette liberté. L’idéal de Finkielkraut ne peut être poursuivit que par l’outil même qu’il dénonce, outil qui s’inscrit dans une longue tradition qui remonte au tout début de l’écriture et même avant… dénoncer la technique est ridicule, le livre est une simple interface de lecture, une technique comme une autre.

Finkielkraut a le toupet de se placer en défenseur de la diversité alors qu’il donne sa définition à toute chose, puis bâtit son raisonnement sur sa définition… même après qu’elle ait été mise en cause par Lévy qui, de temps en temps, ricane. Quelle patience. J’aurais pour ma part explosé et détruit le studio de France Culture. Bel exercice de rhétorique mais qui a dû séduire pas mal d’auditeurs encore une fois.

Finkielkraut inénarrable s’attaque à la notion d’information… prétendant que tout ne peut pas être information. Mais dans quel cadre référentiel se place-t-il ? Pour un religieux bien sûr Dieu n’est pas information, Internet ou pas d’ailleurs. Pour un physicien, certains d’entre eux en tout cas, c’est un peu plus facile d’imaginer que tout est information.

Finkielkraut finit par avouer qu’il ne sait pas surfer, qu’il ne sait pas se servir de l’outil… et que tout son discours ne fait que révéler sa peur et son ignorance. Il aurait pas pu commencer comme ça notre philosophe. « J’ai la trouille, j’y comprends rien, j’ai l’impression que le monde que j’aime fout le camp. » Au lieu justement de nous parler de lui, de ses tripes, de ce qui à la limite n’est pas information, il tente de construire un discours vide car il n’a pas l’expérience de ce dont il parle. Il évoque l’ascèse, l’étude. Mais sait-il vraiment ce qu’est l’ascèse, sait-il ce qu’est une véritable expérience philosophique ? Je laisse le mot de la fin à Lévy.

Ce que j’envisage de construire, et d’autres avec moi, c’est une planète où les traditions peuvent se rencontrer et dialoguer. Ce n’est absolument pas un univers de consommateurs comme vous persistez à le dire.

J’ai envie de courir au Canada embrasser Pierre Lévy.

PS : La position de Finkielkraut est en fait parfaitement logique. Comme il ne maîtrise pas internet, il ne peut pas le défendre. Comme il aime donner son avis sur tout, il ne peut donc que critiquer internet

> Lire l’article original, et la conversation qui suit, sur Le Peuple des connecteurs

]]>
http://owni.fr/2009/10/13/finkielkraut-internet-lieu-de-la-liquefaction/feed/ 5