Economie Geekeries Genetique Informatique Lecture Non classé Sciences

Libertarianisme Scientifique ?

Wired est de très loin ma lecture magazine mensuelle favorite. Un aspect néanmoins agaçant est ce petit côté libertarien qui transparaît parfois, surtout dans les interviews de geeks business angels.

On y parle ainsi plus volontiers de Zuckerberg, Jobs ou d’illustres inconnus comme Marc Andreessen, sortes d’archétypes randistes, que des libristes forcenés plus ou moins chevelus comme Linus Torvald ou Richard Stallman.

Un article dans le Wired du mois a fait surgir une connexion inattendue entre cet aspect libertarien très silicon valley et un autre dada de Wired : l’idée que la science « petabyte », à base de données, aboutira mécaniquement à la fin de la théorie comme nous la connaissons (voir ici ce billet et sur le blog des éconoclastes pour plus de détails). Ainsi, un article présente le « A/B testing », un procédé apparemment très utilisé par les compagnies en ligne. Il s’agit, pour des sites webs, d’afficher pour une fraction de leurs lecteurs des pages webs légèrement modifiées et d’observer leurs réactions. L’idée étant que si, sur un site de donations, une page web alternative amène plus de dons, on l’affichera immédiatement pour tous, augmentant ainsi de façon incrémentale l’efficacité des sites pour draîner de l’argent. Le passage suivant m’a particulièrement frappé :

The difference with live testing is not just that there is no time to learn and apply lessons. It’s more radical than that: There are no clear lessons to learn, no rules to extract.

At the gaming network IGN, for example, executives found that crisp, clear prose was outperforming hyped-up buzzwords (like free and exclusive) on certain parts of the homepage. But in previous years, the opposite had been true. Why? They talked and talked about it, but no one could figure it out. Soon they realized that it simply didn’t matter. A/B would guide them at ground level, so there was no need to worry about why users behaved in one way or another.

C’est pour moi le gros problème de ces approches : on sacrifie en quelque sorte la compréhension à l’efficacité, et, au bout du compte, on s’en moque complètement. Je ne suis pas loin de penser que beaucoup de projets scientifiques très focalisés sur les data pourraient aller rapidement dans cette direction : on commence par dire que des data émergeront naturellement la théorie comme Chris Anderson, et on se noie/grise tellement dans la complexité qu’on finit par affirmer qu’il n’y a au bout du compte pas de théorie. Je vois très clairement cette tendance en « systems biology », où l’on privilégie de gros modèles numériques, les fameuses « hairballs », à des explications plus heuristiques et phénoménologiques – sans pour autant gagner à mon sens en pouvoir prédictif.

La conséquence de cela, c’est qu’on laisse les ordinateurs faire tout à notre place, depuis la collecte des données, jusqu’à leur analyse et leur formalisation. C’est là qu’on rejoint le libertarianisme à mon sens : y a-t-il plus rationnel qu’un ordinateur programmé à faire une tâche d’optimisation simple ? Y a-t-il plus libertarien que cette idée d’agents non biaisés qui vont faire émerger la Science, la Vérité de la masse colossale des données librement accessibles ? Des data biologiques jusqu’au nanotrading, du A/B testing à Google nous y sommes déjà : les algorithmes ont le pouvoir, et Wired cherche à nous convaincre que des petits processus d’optimisation locaux émergera le meilleur des mondes.

Cette idée est peut-être exacte et efficace sur le court terme, dans l’échelle de temps des petites fluctuations statistiques. Mais sur le long terme, la Science, comme l’économie, ne sont pas des processus purement mécaniques. Il y a des Cygnes noirs, des renversements de tables, des changements de paradigmes, qui s’imposent dans le sang et les larmes et pas dans l’accumulation incrémentale.

Disclaimer : billet publié à 23h, typos probables …

About the author

Tom Roud

Nanoblogger scientifique, associate professor incognito (ou presque). Suivi par @mixlamalice

5 Comments

  • Tu sembles mettre beaucoup d’importance à une simple procédure de test marketing automatisé. Je ne vois pas dans l’A/B testing ni la « promesse d’un monde meilleur » ni de posture particulière sur l’économie et encore moins sur la science. Le fait est que les tests apportent souvent des résultats que la théorie met du temps à expliquer (quand elle y arrive, ce qui est rarissime en matière de marketing). Ici il s’agit plutôt d’industrialiser la « serendipity » sans trop se poser des question me semble-t-il…

  • Wired est né des gourous d’Internet du début des années 1990, qui appartiennent eux-mêmes à une mouvance anti-État, anti-interventionnisme, liberté totale et absolue du citoyen. Ça a des bons côtés —la prise de parole accrue par le citoyen— mais ça a donné lieu aussi à une vision tantôt d’une amusante naïveté —tout nouveau joujou était accueilli à grands renforts de superlatifs comme une révolution sociale— tantôt beaucoup plus à droite qu’elle n’en a l’air. Le monde meilleur qu’annonçait Wired en effet, n’était pas seulement un monde où « tout le monde est égal » et où « tout le monde est son propre média » mais aussi un monde où tout le monde peut être un Steve Jobs, pour autant qu’il travaille fort.

    • Je suis un grand lecteur de Wired depuis des années, et je dois dire que ça ne m’avait pas sauté aux yeux avant. Cela dit, il y a un effet d’accumulation récent: avant il y avait pas mal de couvertures sur les avancées scientifiques, etc… or en ce moment, avec leurs 20 ans, ils ont un peu changé de politique et parlent beaucoup plus des « visionnaires » qui terminent souvent en couverture.
      Le côté « tout le monde peut être Steve Jobs » ne m’avait pas sauté aux yeux, ils tournent souvent leurs articles sur le mode « super sérendipité ». Mais bon, je vais faire plus attention maintenant.

  • @Xochipilli : croire que l’approche A/B Testing se limite au marketing, c’est franchement faux, d’autant qu’en partant de l’A/B Testing le propos de l’article était de parler de systèmes d’apprentissages automatiques comme on peut en observer dans beaucoup de système. Si cela s’applique très bien à du marketing en ligne, ça peut aussi être utilisé pour conditionner des choses que l’on jugera beaucoup moins « sales » (je ne comprendrais jamais pourquoi on se borne à voir tout ce qui est relatif au commercial comme étant obscène et sans intérêt, bonjour l’ouverture d’esprit) qui peuvent toucher à toutes sortes de système que l’on peut optimiser en « live » : à condition d’avoir des paramètres ajustables et des moyens de mesurer l’efficacité. Ces méthodes contribuent à diminuer de manière très importante les connaissances théoriques nécessaire à l’atteinte d’un objectif qu’est l’optimisation d’un système.

    @tomroud : je dois reconnaître que j’ai souvent vu ces systèmes qui visent l’atteinte d’un optimum par un simple phénomène darwinien (algo génétique, AB testing, réseau de neurones) comme une source d’une intuition forte quand au fait qu’il était préférable d’avoir plusieurs petites entités confrontés à des contraintes de type « évolutionnistes ». C’est ainsi que je vois l’économie. Même si cette approche me semble sur l’activité économique la meilleure, je pense qu’il est dommageable de considérer que cela peut être un substitue à la théorie.

Leave a Comment