Creative Economies

Smart Curation

The French sociologist Frédéric Martel introduces us to the era of “Smart Curation” in cultural criticism. Its hallmark is a blend of digital technology and human judgment. The original French text was written in the course of a research initiative of Zurich University of the Arts. It has now already been published in ten other languages.

Le critique culturel est mort! Vive la Smart Curation!

L’avenir de la critique culturelle est-il entre les mains des «machines»? Les critiques de cinéma, de musique, de livres ne font plus vendre. Ils ne sont même plus lus! A leur place: les algorithmes de recommandation de Spotify, Netflix, Amazon, YouTube ou Apple Music. Pourtant, si les critiques traditionnels sont voués à disparaître, la prescription des machines reste aléatoire et insuffisante. Il est temps d’imaginer une nouvelle critique avec un «double filtre» qui combine la puissance des algorithmes et le jugement de la recommandation humaine. C’est ce que je propose d’appeler la «smart curation».

Cet article a été publié en intégralité sur ‹Slate› en France début septembre, ainsi qu’en italien par ‹La Reppublica›, en espagnol par ‹Horizontal› au Mexique et, à venir, en allemand et en anglais.

A l’entrée du siège de Gawker à New York : un large écran plat avec les meilleures audiences du site en temps réel. Les articles sont classés par leur nombre de vues et, comme le trafic évolue constamment, ce «Big Board», comme on le nomme ici, clignote un peu dans tous les sens. Les sites du groupe Gawker ont, en moyenne, 100 millions de visiteurs uniques chaque mois. Soit entre 3 et 5 millions chaque jour!

«It’s fucking high» (c’est vachement haut) me lance James Del, lorsque je le rencontre au dernier étage d’un bâtiment industriel, sur Elizabeth Street, dans le quartier de SoHo. Il ne parle pas de l’audience des sites mais de l’escalier vertigineux! De sa verticalité exagérée, même comparée aux standards new-yorkais. Nous sommes seulement au troisième niveau mais, sans ascenseur, les marches particulièrement raides rendent la visite sportive.

A l’intérieur des bureaux, immenses et en open space, l’atmosphère est plus horizontale. Il y a un café pour faire un break et, bien sûr, une table de ping-pong, symbole désormais indispensable de toute start-up américaine. Les employés ont des écouteurs aux oreilles, pour rester dans leur bulle, et chattent avec leurs collègues sur des messageries instantanées, pour jouer collectif. La «no-hierarchy attitude» est de règle, même si les métiers sont soigneusement cloisonnés. Un étage est dédié aux journalistes, ici appelés «editors» ou parfois «curators»; un autre, aux commerciaux; un troisième, aux ingénieurs, comptables, juristes et aux fonctions support. Ainsi, les salariés en charge du «content» – la moitié environ de l’équipe de près de 300 employés –, ceux de la pub ou des datas ne se croisent guère, sauf à gravir les hautes marches et à «badger», avec une carte magnétique, à l’entrée des autres niveaux. James Del, lui, a accès à tous les étages, et il monte et descend constamment les escaliers, ce qui, visiblement, l’agace. Il est arrivé chez Gawker à 20 ans, à sa sortie de New York University et, année après année, a gravi les marches de cette start-up devenue incontournable. A 28 ans, il est désormais le vice-président de Gawker, en charge de la programmation et du marketing. …

«Notre modèle, c’est celui de la ‹curation›. On lit tout ce qu’on trouve sur internet et lorsqu’une histoire nous paraît intéressante, on prend une idée, une information ou un paragraphe, on en fait un article et on le fait buzzer», décrit ingénument Del. Assis dans l’une des «meeting rooms» de Gawker, il a son coffee-mug posé devant lui sur la table. Je suis au siège de l’un des principaux médias «people» des États-Unis, un site marrant et cruel, épinglé régulièrement par ses confrères pour être, disent-ils, «creepy», «trashy», «sketchy» – effrayant, superficiel, pervers ou même dégueulasse! Pourtant, Del s’exprime en professionnel, efficace, sérieux, presque trop sage. Il a cette façon déroutante d’accepter les critiques qui fusent contre Gawker, ses excès, sa futilité, son voyeurisme, ses attaques «borderline» sur la vie privée, son cynisme. Il a tout entendu; il ne s’en émeut plus. La hauteur de vue, la morale éditoriale, la respectabilité, semble-t-il dire … «well, ce n’est pas ça le web»! En revanche, le partage, la participation, la curation, les algorithmes et la recommandation, ça c’est le cœur de métier. Del signale que les lecteurs du site peuvent eux-mêmes participer à sa rédaction, grâce à une plateforme dédiée, un méta-blog baptisé Kinja : «Chacun peut y publier. Cela permet de faire émerger de nouveaux contenus, de nouveaux talents, en faisant voler en éclat la ligne traditionnelle qui sépare les auteurs d’articles et les lecteurs.»

Mi-curateur de contenus produits par d’autres, mi-créateur d’articles originaux, le tout avec beaucoup d’algorithmique, Gawker s’est spécialisé dans le buzz, le cool, le hip, le media-gossip et autres ragots. Sa baseline, fièrement affichée sur le site, résonne: «Today’s Gossip is Tomorrow’s News». Lorsqu’ils ne sont pas des robots, ses rédacteurs sont des «cool-hunters», des «trend-setters» et des «taste-makers»: ils cherchent le cool, arbitrent les modes et valident le goût. «Notre but principal, c’est d’être au service du public», résume James Del.

C’est en 2002 que Nick Denton, un journaliste anglais émigré à New York, lance Gawker, depuis son appartement de SoHo. A la façon du ‹Bright Lights, Big City›, le roman culte de Jay McInerney, Denton est alors fasciné par la vie privée des journalistes du ‹New Yorker› et des autres magazines du groupe Condé Nast – ‹Vanity Fair› et ‹Vogue›. Faute, peut-être, de pouvoir intégrer ces rédactions de «vieux», il crée Gawker pour raconter leurs coulisses. Ses premiers «confidentiels», publiés sur ses têtes de turc préférées – Tina Brown, la patronne de ‹Vanity Fair› devenue celle du ‹New Yorker›, ou Anna Wintour, l’éditrice-star de ‹Vogue› – font mouche. Le ton, déjà, est cynique. En réussissant à infiltrer, avec des stagiaires, la tour Condé Nast, 4 Times Square, alors l’adresse du groupe, il parvient à raconter les manies alimentaires des journalistes, leur dress code, et les décrit portant des lunettes noires dans les ascenseurs. L’accent est mis sur les intrigues qui se déroulent dans la cafétéria du groupe, dessinée par l’architecte Frank Gehry, où Meryl Streep déjeune dans le film ‹Le Diable s’habille en Prada›.

Gawker est dès le départ un site méchant mais il devient très méchant en se mettant à publier des photos compromettantes, prises dans des soirées privées, des vidéos d’ébats sexuels, ou en communicant les montants de contrats mirobolants de l’industrie de l’entertainment. «Nous avons une très bonne équipe juridique», souligne, l’air de rien, James Del.

L’establishment vomit ces pratiques sans éthique mais se précipite pour lire le site. «Je n’en suis pas fier, mais je regarde Gawker chaque matin», a reconnu, dans une interview, Chris Anderson, le fondateur de ‹Wired› (qui appartient également à Condé Nast). Et un jour que j’interrogeais Tina Brown, dans sa maison de l’Upper East Side, elle a prétendu ne pas s’intéresser à ce genre de ragots, tout en moquant ces impostures d’une formule: la «New York fakery» (le côté faux, factice et gossip de New York).

Sur sa page de présentation officielle, Gawker se définit aujourd’hui comme un «one-stop guide to media and pop culture». Le site se propose de révéler au grand public des informations plus ou moins privées, des scoops en «off» et des confidentiels sur les stars, les médias et l’industrie du divertissement. Pourtant Gawker est allé au-delà de cette mission initiale en devenant un groupe média, une chaîne de sites et même une véritable franchise. Le modèle économique est là, à la fois horizontal et vertical: chaque nano-site a son autonomie, son identité, sa verticalité; mais toutes ces audiences de niche sont agrégées horizontalement lorsqu’il s’agit de vendre de la publicité. A partir du site principal (gawker.com), les internautes peuvent atteindre une dizaine de sous-sites et de «sub-blogs», autant de niches spécialisées dans l’information relative aux célébrités d’Hollywood (Defamer), aux confidentiels de la vie politique à Washington (Wonkette), aux coulisses de la Silicon Valley (Valley Wag), aux secrets de l’industrie du sport (Deadspin), de l’automobile (Jalopnik) ou du porno (Fleshbot), de la télévision (Morning After), des jeux vidéos (Kotaku), de l’armée (Fortress America), la science-fiction, les infos geeks et autres gadgets électroniques (io9, Gizmodo et Lifehacker) ou, en projet, un mini-site engagé politiquement contre le mouvement tea-party (la droite extrême américaine). Un sub-blog, baptisé Antiviral, s’est spécialisé dans le fact-checking des rumeurs qui circulent sur le web. Et un autre, Gawker Review of Books, est dédié au monde de l’édition et à la critique de livres – comme si c’était un véritable supplément littéraire du ‹New Yorker›!

L’ambition de Nick Denton, le fondateur de Gawker, serait d’ailleurs, selon une rumeur cocasse, d’avoir douze sites. Autant que le groupe Condé Nast possède de magazines.

The machine will be the critic

«Nous créons en ligne toutes les 48 heures autant de contenus que nous en avons créé depuis la naissance de l’humanité jusqu’en 2003». Ce constat d’Eric Schmidt, le président exécutif de Google, montre que l’abondance est désormais l’une des caractéristiques principales d’internet. Cette profusion se traduit en flux, courants, «streams», au risque de la logorrhée. Lorsque la culture, qui était hier constituée essentiellement de «produits culturels», bascule de l’analogique au digital et devient une somme de «services culturels», le recours à des prescripteurs devient indispensable. Comment se repérer, sinon, dans le catalogue de Spotify qui compte plus de vingt-cinq millions de titres? Comment se retrouver parmi les 300 heures de vidéo uploadées sur YouTube chaque minute? L’offre est à tel point illimitée qu’elle en est vertigineuse. L’expression «all you can eat» que l’on utilise parfois est symptomatique. Comme dans les restaurants chinois où de tels menus existent, on peut manger à volonté jusqu’à satiété – et parfois jusqu’à l’indigestion.

A leur façon, les «curateurs» de Gawker prétendent aider les internautes à se repérer dans cette masse abyssale d’informations. Ces «new-media critics» font le tri, sélectionnent, orientent. Sur le blog officiel du site, un mot revient plusieurs fois à propos de Gawker, et qui résume sa mission: la recommandation. Certes, leur journalisme suit un prisme particulier: les erreurs des médias, les confidentiels, les bruits de la ville, mais il annonce, selon James Del, le futur d’internet et de la prescription digitale.

Gawker s’inscrit dans une nouvelle génération de pure-players qui se proposent de révolutionner le journalisme et sont largement dédiés à l’information virale: Buzzfeed, Vox, Vice, The Daily Beast, Upworthy, Mediaite, Twitchy, Dose, GivesMeHope, OMG Facts, Mashable ou, dans une autre mesure, le Huffington Post ou Slate.

Comme l’a prédit – à raison ou à tort – Eric Schmidt, les médias deviennent des agrégateurs, des «filtres», des «content providers», misant davantage sur la «curation» et la «validation», pour assurer la crédibilité de l’information, que sur le reportage original. Souvent, les journalistes y sont remplacés par des curateurs, des «data analysts», des «datas scientists», ou encore des «Chief Aggregator of Viral Content» et autres «Chief Trend Hunters». Parfois, ce sont tout simplement des algorithmes qui font le travail des humains. Dans certains cas, comme Dose, GivesMeHope ou OMG Facts, trois sites du serial-entrepreneur Emerson Spartz, les principales innovations média ne concernent pas tant les contenus produits, que la manière de les sélectionner chez les autres, de les «curater» en les re-packageant, avant de les promouvoir sur les réseaux sociaux. Cette «cannibalisation» est aussi la clé du succès de Gawker.

Bill Keller, l’ancien patron du ‹New York Times›, a eu cette phrase assassine à propos de ces nouveaux médias en général et du Huffington Post en particulier qui a «découvert qu’en agrégeant des ragots sur les stars, des vidéos de jolis chats, des blogs signés par des journalistes bénévoles et des informations empruntées à d’autres publications, et en y ajoutant une tonalité de gauche, des millions de personnes liraient ce site». Visée, Arianna Huffington, surnommée «la reine de l’agrégation», lui a indirectement répondu dans son propre journal, le ‹‹New York Times›‹: «Je n’ai pas tué les journaux, ‹darling›. Les nouvelles technologies les ont tués.» (Le ‹Huffington Post› a aujourd’hui une valeur de un milliard de dollars, soit quatre fois le prix du ‹Washington Post›.)

Les techniques de curation ou d’agrégation varient, mais elles visent généralement à favoriser la viralité, qui conditionne l’audience, et donc les recettes publicitaires. Les journalistes du ‹New York Times›, en dépit des remarques de Bill Keller, ont déjà intégré ces contraintes du web: ils changent les titre des articles pour qu’ils soient plus lisibles par les robots de Google, intègrent des liens et des mots-clés dans leur texte, afin que le référencement soit meilleur, et ont recours aux services de professionnels de la viralité pour accroître le trafic de leurs messages sur les réseaux sociaux. (Le ‹New York Times› comme le ‹New Yorker› travaillent avec la société SocialFlow pour leur visibilité et leurs «analytics».)

Dans certaines rédactions, on apprend aux journalistes-webs à écrire en phrases courtes en utilisant de plus en plus de points et de moins en moins de virgules: le point virgule et les deux points, a expliqué Emerson Spartz, sont quasiment à proscrire! Les rédacteurs adoptent partout les techniques dites du SEO, pour Search Engine Optimization, afin de faciliter la lecture des contenus par les moteurs de recherche. Un titre comprenant des mots-clés (choisis avec un outil d’optimisation de mots clés comme Google AdWords Keyword Planner, Bing Keyword Research Tool, Übersuggest, Google Trends etc.) est mieux indexé par les robots, de même qu’un article avec de nombreux liens sortants. Un titre rédigé sous la forme d’hyperboles, avec des participes passés et se terminant par des prépositions, est susceptible de devenir plus rapidement viral. Un titre arrangé de façon à raconter une «story» est encore meilleur. Chez Dose, on multiplie les listes et les titres «catchy» ; chez Upworthy, on fait des titres de «teasing» avec des hashtags qui mettent l’eau à la bouche du lecteur; chez Gawker, on incite les internautes à partager les contenus sur les réseaux sociaux; chez Reddit, on met en avant des photos provocatrices. Partout, on essaye d’écrire sur des sujets qui sont parmi les «trending topics» de Google. Toutes ces techniques sont conçues pour plaire aux fils Twitter, à l’algorithme de Google et au newsfeed de Facebook. (L’audience de sites comme Gawker, MuggleNet, OMG Facts ou GivesMeHope dépend largement du trafic généré par Facebook). …

Ces secrets de titrage ou d’indexation s’appuient encore sur le travail humain. Mais il est possible d’aller plus loin en confiant ces tâches à des robots. Sur Mediaite, un algorithme agrège les contenus de 1 500 médias chaque matin et, une fois «curatés», les propose aux lecteurs. Chez Reddit, un algorithme compile automatiquement les likes, les votes et les préférences des internautes et détermine en conséquence la page d’accueil du site. Chez Gawker, m’explique James Del, les commentaires des internautes sont sélectionnés par un nouvel algorithme, joliment baptisé Powwow, qui organise la conversation sans intervention humaine. Parfois, comme chez OMG Facts et Dose, on utilise même un algorithme de «Headline Testing»: lorsqu’un article est créé, il est proposé avec différents titres sur une vingtaine de posts et de plateformes, répartis au hasard. L’algorithme de «Headline Testing» compare alors la viralité des articles, le nombre de clics et la rapidité de leur diffusion. Après quelques heures, tous les titres de l’article sont modifiés automatiquement sur tous les posts en privilégiant le plus viral.

Ces évolutions majeures du journalisme web affectent nécessairement la critique culturelle, qui évolue à son tour vers le «like», le «blurb» et le tweet. Mais peut-on sérieusement donner son opinion sur un livre ou un film en 140 signes ? Quand la recommandation sur Twitter devient une sorte de «blurb», ces petites citations favorables des journalistes qu’on utilise pour faire la promotion d’un best-seller ou d’un blockbuster, c’est le degré zéro de la critique, pensent plusieurs journalistes que j’ai interrogés. «Twitter est effectivement un média concis», note Antonio Martínez Velázquez, blogueur, hacker et cofondateur du site Horizontal à Mexico, avant de nuancer: «On peut twitter des liens web qui renvoient vers des articles longs.»

Reste que sur les réseaux sociaux la critique s’apparente de plus en plus à un slogan publicitaire: «The Best Family Film This Year», «Holiday Classic», «Wow!», … «Absolutely Brilliant!», «Hilarious!», ou le très fréquent «★★★★★». Sur Internet, c’est la victoire du «Two Thumbs Up!», ce système de jugement d’un film, imaginé par les critiques de cinéma Robert Ebert et Gene Siskel dans l’émission ‹At the Movies› sur ABC. Ils évaluent un film avec leur pouce, soit au total seulement trois jugements possibles : deux pouces pointés vers le haut si les deux critiques aiment le film ; deux pouces en bas s’ils ne l’aiment pas; et un pouce en l’air, un pouce en bas, s’ils sont divisés. Ainsi, le lecteur sait si le film est, ou non, un «must-see film» (un film qu’il faut voir), ou un «turkey» (un navet). Après la mort de Siskel et la retraite de Ebert, le show a été repris par deux journalistes confirmés, dont l’un n’est autre que le chef du service cinéma du ‹New York Times›, A. O. Scott. Qui lève ou baisse maintenant son pouce!

Face à l’abondance: le critique traditionnel?

Lorsque je badge à l’entrée du World Trade Center One (WTC 1), par le côté Nord, sur Vesey Street, l’ascenseur m’identifie et me conduit directement, sans autre stop, à l’étage de mon rendez-vous: «Floor 34». C’est là où vient d’emménager au printemps 2015 le ‹New Yorker› et l’ensemble du groupe Condé Nast (qui inclut outre ‹Vogue et Vanity Fair›, ‹GQ›, ‹Wired› et le site Reddit).

Pour accéder au plus célèbre magazine new-yorkais, pas besoin de monter les marches d’un escalier, mais il faut montrer patte blanche. Construit sur les ruines des tours jumelles détruites lors des attentats du 11 septembre, le World Trade Center One n’est pas accessible au public. Les travaux ne sont pas encore achevés. Il faut fournir son identité à l’avance, passer plusieurs contrôles et être pris en photo minutieusement.

«La problème des médias est celui de la ‹discoverability›», lance Henry Finder, assis dans la salle n°1, au 34ème étage, avec une vue spectaculaire sur le monument aux victimes du World Trade Center, le Sud de Manhattan et, au loin, la Statue de la Liberté. Rédacteur en chef du ‹New Yorker›, Finder incarne ce magazine de l’élite qui défend une critique culturelle «avec des principes». Ses journalistes conçoivent leur mission comme celle d’un «gate-keeper», un passeur ou un arbitre. Finder, lui-même, est un intellectuel un peu interdit, à la fois sophistiqué et «low key», sa discrétion étant érigée en art de vie, mais qui peut, soudain, faire preuve d’un humour exhilarant et décalé. En argot américain, on dirait qu’il est «book smart» – intelligent et très très très bien éduqué. Il n’a pas de compte Twitter.

«Comment peut-on faire connaître, aujourd’hui, un bon article? C’est l’enjeu de la ‹discoverability›», répète Finder, employant un mot à la mode. Face à l’abondance des contenus sur le web, l’enjeu de l’accès et de la sélection apparaît essentiel. On peut bien sûr laisser faire le hasard: c’est ce qu’on appelle la sérendipité ou «hasard heureux», le fait de trouver un contenu sans l’avoir cherché. A l’inverse, si on croit que le hasard est rarement heureux, il est possible de se fier aux algorithmes et à leurs recommandations automatiques. On peut, enfin, plus traditionnellement, si on craint les algorithmes arbitraires indexés sur la loi de l’audience, faire confiance aux critiques traditionnels – comme ceux du ‹New Yorker›.

Le ‹New Yorker› de William Shawn, à partir des années 1950, s’était donné pour mission de défendre l’ «Art» et de protéger la «Culture» – en majuscules –, …c’est-à-dire de tenir tête aux «barbares» qui voulaient abolir les hiérarchies culturelles entre la «High» et la «Low» culture et affaiblir, du même coup, la frontière séparant le goût de la médiocrité, l’élite des masses, la culture de l’entertainment. Le ‹New Yorker› de Pauline Kael, sa célèbre critique de cinéma des années 1960 et 1970, a préféré ensuite – selon une recette contre-intuitive qui a fait depuis le succès du journal –, prendre au sérieux la culture populaire et écrire d’une manière populaire sur la «haute culture». Le ‹New Yorker› de Tina Brown, sa directrice dans les années 1990, a été finalement convaincu du caractère suspect de toutes les hiérarchies culturelles européennes et a décidé de brouiller définitivement les cartes. Le mélange des genres est devenu la règle: on a critiqué le Metropolitan Museum et Star Wars, Shakespeare et les Monty Python, les romans de John Updike et, sur vingt pages, la fusion AOL-Time Warner. «J’ai lancé une chronique intitulée ‹les Annales de la communication› pour suivre les évolutions majeures des studios, de la télévision et en particulier les industries de l’entertainment», m’a expliqué Tina Brown. «Le ‹New Yorker› devait parler de ce dont les gens parlaient», a-t-elle ajouté sur le ton de l’évidence.

Pour Henry Finder, qui incarne aujourd’hui le ‹New Yorker› par temps de disruption numérique, les barbares s’appellent désormais le click, le blurb, l’algorithme, les recommandations d’Amazon, Gawker et, peut-être plus encore, la ‹Gawker Review of Books›!

«Les sites avec un large trafic ont de moins en moins de critiques. Les sites qui ont peu d’audience se limitent à des critiques de niches. Voilà pourquoi le ‹New Yorker› garde toute sa pertinence», commente Finder. Il croit à un journalisme durable qui s’apparente à une «long critical tail», une critique de type «longue traîne», hors accélération et hors buzz, une recommandation qui s’inscrit dans la durée. Le modèle du ‹New Yorker› est vertueux, sur le plan éditorial et journalistique, mais il doit affronter sur internet deux problèmes comme les autres médias papier : le premier, c’est que les économies de «longue traîne» – peu de ventes sur le court terme mais des ventes durables et stables sur le long terme – ne rapportent en fin de compte guère d’argent; le second, c’est que le coût de production d’un article du ‹New Yorker› est astronomiquement plus élevé qu’un post de Gawker, alors qu’ils font, au mieux, la même audience sur internet et génèrent des recettes publicitaires équivalentes. (Les «éditeurs» de Gawker sont fréquemment freelance, payés une douzaine de dollars par post, augmentée d’un bonus en fonction de l’audience de leur article.)

«Il y a de moins en moins de critiques, de moins en moins de suppléments littéraires, se désole Finder. Nous devons donc miser davantage sur la critique.» Et il ajoute : «Il nous faut rester ce que nous sommes: c’est ce que nos lecteurs attendent et valorisent. Nos articles les plus lus sont souvent les plus longs. Mais nous devons aussi prendre part à la conversation, ce qui veut dire être présent sur toutes les plateformes digitales. Partout, mais en restant le ‹New Yorker›.»

Les grands éditeurs traditionnels partagent cet état d’esprit. «Je n’ai peur d’aucun algorithme! Je suis prêt à affronter en duel quand vous voulez n’importe quel algorithme!», me lance, avec l’envie d’en découdre, Jonathan Karp, le P-DG de Simon & Schuster, l’une des principales maisons d’édition américaines. Dans son vaste bureau au n°1230 de l’Avenue of the Americas, à New York, Karp fanfaronne et montre ses muscles. Mais il m’avoue, un peu plus tard, avoir donné consigne à ses éditeurs et à ses auteurs d’accroître leur présence sur les réseaux sociaux. «Nous avons constaté que Facebook est un outil très efficace pour le bouche-à-oreilles d’un livre», s’émerveille Karp, comme s’il avait découvert le fil à couper le beurre! Et il me cite des romans de sa propre maison lancés presque exclusivement sur les réseaux sociaux (par exemple ‹We Are Not Ourselves› de Matthew Thomas). Sur le site de Simon & Schuster, les boutons pour partager, «liker» ou «retwitter» les informations des livres sont aussi visibles que sur le site Gawker. Quant à YouTube, Jonathan Karp m’avoue qu’une équipe dédiée de sa maison d’édition s’y consacre déjà. Simon & Schuster est prêt pour le «duel» avec internet.

La crise de la fonction critique

Si le ‹New Yorker›, qui compte actuellement 1,1 million d’abonnés, ne paraît guère menacé à court terme, ni par les blogs et les réseaux sociaux, ni, bien sûr, par des sites comme Gawker, la crise de la fonction critique est réelle.

La prescription traditionnelle n’a pas disparu mais, partout, les journalistes que j’ai interrogés, depuis plusieurs années dans une cinquantaine de pays, reconnaissent que «quelque chose est en train de se passer». Internet induit par nature la fin des hiérarchies, la désintermédiation, la décentralisation, la disparition des légitimités élitistes – autant d’évolutions qui affectent inévitablement la critique. On entre dans une culture qui se caractérise par des «conversations» et non plus par des arguments d’autorité, une culture où la recommandation devient centrale, mais où les prescripteurs se démultiplient aussi, et à l’infini. La légitimité sur internet ne dépend plus seulement du statut social, des diplômes ou des connaissances acquises, comme dans l’univers papier, mais intègre de nouveaux critères comme l’e-reputation, la popularité, la «communauté» à laquelle on appartient, ou celle que l’on a rassemblée autour de soi. Le modèle hiérarchique «top-down» de la critique culturelle traditionnelle s’essouffle partout. C’est la grande «disruption» des hiérarchies.

Une évolution que le blogueur Antonio Martínez Velázquez, interrogé à Mexico, salue : «Les médias traditionnels se sont éloignés de leur mission et de leur rôle social. Ils ont cessé de parler aux citoyens. La critique est devenue cynique, distante et opaque, mortifère presque. Mais l’information veut vraiment être libre! Et l’explosion des réseaux sociaux, l’influence grandissante de la culture hacker et les lanceurs d’alerte changent la donne. Une nouvelle critique est en train d’émerger et elle va mettre en question le système médiatique dans son ensemble.» Patrick Beauduin, le directeur général de Radio Canada, interrogé à Montréal, est moins radical mais il pense, lui aussi, que l’avenir de la critique passera par la recommandation : «Un groupe audiovisuel comme le nôtre ne sera bientôt plus un diffuseur mais un prescripteur. Celui qui conseille et donne un avis. Nous serons des curateurs.» Antonio Martínez Velázquez croit même que «le nouveau prescripteur culturel, c’est le hacker». Le hacker joue désormais, selon lui, le même rôle pour la culture web que celui que tenaient, hier, le «black kid» ou le «gay cool» dans la musique disco ou la pop culture. Il invente une nouvelle cyberculture de rupture, qu’il fabrique lui-même avec du code – bouleversant ensuite les codes. Le hacker devient un influenceur et un prescripteur. En un mot: un «hipster.»

Déjà, les critiques de films ne semblent plus avoir aujourd’hui autant d’influence sur le box-office qu’ils en avaient auparavant et les suppléments littéraires ne font plus nécessairement vendre les livres (différentes études qualitatives sur la lecture de la presse montrent qu’entre 85 % et 90 % des lecteurs n’ouvrent même pas le supplément littéraire d’un quotidien). Aux États-Unis, ces cahiers critiques ont même tendance à disparaître, faute du soutien des éditeurs, qui y font peu de publicité et privilégient plutôt les accords financiers avec Amazon. Si les suppléments littéraires du ‹New York Times› ou du ‹Wall Street Journal› restent prescripteurs, il n’en va pas de même des autres publications. «Book World», le supplément du ‹Washington Post›, créé en 1967, a cessé d’être un supplément autonome du week-end en 2009 (il a été réintégré à la section «Style & Arts» du journal papier); la «Book Review Section» du ‹Los Angeles Times› a également fusionné avec l’édition courante du journal en 2007; quant au supplément du ‹San Francisco Chronicle›, il a été réduit, en 2006, de six à quatre pages.

Sur internet et les réseaux sociaux, «le populisme est le nouveau modèle du cool; les élitistes sont les nouveaux ringards» a prédit, dans un article du ‹New York Times›, la journaliste Alexandra Molotkow. Le problème, pourtant, est plus profond, et d’une certaine manière plus grave. Une série de mutations fondamentales en cours risquent de transformer durablement la fonction critique : la consécration d’une culture visuelle qui atténue la puissance de l’écrit; l’élaboration de mesures d’audience précises qui dévoilent l’invisibilité des critiques ; l’abondance d’internet qui nécessite un «filtre»; le «long click» qui bouleverse la donne ; enfin les abonnements culturels illimités qui sont rendus possibles par la montée en puissance du cloud.

La première mutation, c’est l’atténuation de la distinction entre médias, le brouillage des frontières. L’accélération numérique se traduit par un changement sur la forme, sur les formats et sur la temporalité. Alistair Fairweather, qui dirige le site du magazine sud-africain, ‹Mail & Guardian›, m’a expliqué ce bouleversement d’une phrase, lorsque je l’interrogeais à Johannesburg: «Ce qui est amusant, c’est que nous sommes un hebdomadaire, mais sur internet nous devenons un quotidien». Chacun peut constater également que cette mutation et cette accélération des médias ont des effets multiples et contradictoires: les livres se transforment en courts essais ; les essais, en tribunes libres ; les tribunes, en posts de blogs; et les blogs, en tweets. Dans l’image et le son, la radio devient le podcast et le podcast le streaming ; la télévision évolue vers l’écran connecté, vers la SVOD ou vers Netflix ; quant à MTV, c’est aujourd’hui YouTube!

Alistair Fairweather constate aussi que les sites web des chaînes de télévision, des radios et des journaux se ressemblent sur le web : ils ont du texte, des images et des vidéos. «C’est comme si tous les médias fusionnaient dans leur forme sur internet», résume Fairweather. Sur smartphone, le rapprochement est plus perceptible encore, ce qui est le signe d’une culture «qui devient de plus en plus visuelle». Selon Fairweather, qui fut longtemps critique de cinéma, ces évolutions ont des conséquences majeures pour la critique culturelle. D’abord, l’article «fini» est en train de disparaître : il est constamment mis à jour et corrigé. Ensuite, le support de lecture change la lecture: le smartphone, sur lequel on lira principalement la presse, la 3G et la mobilité, transforment les critiques. Enfin, si les titres et les marques de référence demeurent, les lecteurs s’intéressent à des articles davantage qu’à un journal particulier. «La clé, c’est qu’ils choisissent. Ils font encore confiance aux marques, comme le ‹Mail & Guardian›, mais ils ne cherchent plus à lire un seul journal.» La puissance de l’écrit s’érode sur internet où elle est en concurrence avec d’autres médias, d’autres modes d’expression, d’autres légitimités.

La deuxième mutation majeure, c’est la possibilité, désormais, de connaître l’audience précise des articles. «Le changement le plus considérable qu’internet produise sur les médias, ce n’est pas l’immédiateté, ou la baisse des coûts, c’est la ‹measurability›. Et c’est, en réalité, effrayant si vous êtes un journaliste traditionnel», expliquait Nick Denton, le fondateur de Gawker (dans un long portrait que lui a consacré … le ‹New Yorker‹). Or, la précision des mesures d’audience confirme ce qu’on pressentait déjà, sans pouvoir le prouver, à savoir le peu de lecteurs intéressés par les critiques. Désormais, chaque article ayant ses statistiques de lecture et son nombre de pages vues, on découvre, médusé, dans les rédactions, l’audience infinitésimale des critiques de danse ou d’opéra et, plus généralement, des critiques culturelles qui sont rarement lues. Toute une nouvelle hiérarchisation de l’information se met en place, qui exclut les critiques des pages d’accueil, du fait de leur impopularité, lesquelles deviennent du coup encore plus invisibles. (Sur Gawker et de nombreux autres sites, les lecteurs peuvent voir le nombre de vues d’un article).

La troisième mutation en cours, liée à l’abondance illimitée du web, à la saturation et, parfois, à la frustration qu’elle engendre, c’est la nécessité de «filtres». Dans l’ancien monde critique, les journalistes culturels avaient affaire à des produits culturels relativement rares. On comptait peu d’artistes, peu de nouveautés et il fallait les «trouver». Les sorties de films et de documentaires étaient limitées à quelques dizaines par mois. Or, aujourd’hui, leur nombre est décuplé sur YouTube, sans parler des séries télévisées ou des jeux vidéo, qui sont au cœur de l’innovation créative. Les nouveautés en musique sont littéralement infinies sur iTunes, Spotify, Deezer, Apple Music, YouTube ou Soundcloud, ainsi que sur Taringa (Argentine), Xiami (Chine), MelOn (Corée), Saavn (Inde), Anghami (pays arabes), ou ce qui reste de MySpace (en déclin depuis son rachat par Rupert Murdoch puis par Justin Timberlake). Les programmes télévisés se sont multipliés de manière exponentielle alors que tout le monde peut devenir son propre diffuseur de vidéos en direct et en streaming sur Meerkat ou Periscope (qui appartient à Twitter). Enfin, de nouveaux auteurs apparaîssent, auto-publiés, sur des plateformes comme Scribd ou le Kindle d’Amazon – peut-être les futurs YouTube du livre. Avant même d’exercer sa fonction de recommandation, le critique doit donc faire le tri dans cette offre illimitée.

Il peut choisir, bien sûr, de rester en dehors de la culture digitale, mais la plupart des œuvres actuelles et à venir risquent de lui échapper. En se limitant au «canon» occidental, élitiste ou académique, il se priverait de commenter des pans essentiels de la culture contemporaine. Et, s’il décide de basculer dans le numérique, il aura donc recours à des fonctions de «filtres» avant même de pouvoir exercer sa mission de «recommandation». Sans technologies, pas de possibilité de trouver – et pas de choix possible. Mais recourir aux machines, c’est déjà basculer dans la nouvelle fonction critique.

«The Long Click» ou la fin de la critique comme nous la connaissions

76 897 genres! Lorsque les journalistes du magazine américain The Atlantic ont découvert ce secret de Netflix, ils n’en sont pas revenus. Leur enquête originale, réalisée à partir des URL des films consultés, a permis de décoder l’algorithme de Netflix. Car le géant du cinéma et des séries en streaming a bâti un système très sophistiqué pour proposer à ses abonnés des recommandations «customisées». Grâce à 600 ingénieurs à temps-plein regroupés à Los Gatos, dans la Silicon Valley, Netflix a mis au point un algorithme basé sur des catégories prédéfinies de genres: les fameux 76 897 «personalized genres» ou «micro-genres», jusque là tenus secrets. L’équation générique de chaque contenu correspond, en gros, aux données suivantes qui sont autant de «tags»: Région du contenu + Adjectifs du genre + Nom du Genre + Basé sur … + Qui se situe … + Adapté/basé sur … + Sujet du contenu + Âge type du public cible etc. A partir de ces tags, des catégories sont moulinées par les algorithmes et apposées sur chaque contenu, ce qui donne 76 897 micro-genres aux noms délirants, comme par exemple : «Witty Dysfunctional-Family TV Animated Comedies» ou «Quirky TV Shows Featuring a Strong Female Lead». Ce faisant, l’abonné de Netflix se voit associer automatiquement, en fonction de ses premières consultations sur le site, à une catégorie de films. De nouvelles recommandations lui seront faites par la suite en fonction de ces micro-genres dans lesquels son «désir» aura donc tendance à être cantonné. Cet avantage à la fois quantitatif et qualitatif de Netflix lui permet aussi, désormais, d’essayer de prédire les goûts du public pour ses séries, comme ‹House of Cards›, ‹Orange is the New Black› ou ‹Sense8›, et d’écrire les scénarios en fonction de ces résultats.

Le cas de Netflix n’est pas isolé. La plupart des géants du net ont recours désormais à des algorithmes de recommandation pour le filtrage du web : Amazon (avec Amazon Prime), Facebook (avec son newsfeed piloté par l’algorithme EdgeRank), Apple (avec iTunes Radio et Apple Music), ou Google (avec Google Play et Music Key). L’algorithmie de prescription est également au cœur des modèles de services culturels illimités en streaming, Spotify, Deezer et Pandora pour la musique, Steam et Twitch pour le jeu vidéo ou encore Scribd et Oyster pour le livre. (Il est à noter que ces services illimités en streaming «indépendants» s’appuient sur le cloud et, le plus souvent, sur Amazon Web Services, le principal cloud, celui qui a popularisé l’expression dès 2006 et démocratisé son usage).

Grâce à des algorithmes puissants et constamment affinés par les comportements des utilisateurs – ce que l’on appelle le «collaborative filtering» –, les sites et applications proposent donc à leurs abonnés des suggestions basées sur les ventes générales et les tendances du marché mais aussi sur leurs habitudes personnalisées de consommation (c’est le fameux : «Vous aimerez aussi» d’Amazon).

Face à la mutation annoncée du critique traditionnel, certains pensent que les algorithmes, combinés aux big datas, vont devenir les prescripteurs culturels de demain. Ils pourront même apporter aux internautes, selon les pronostics les plus optimistes, des recommandations que les êtres humains n’étaient pas capables de faire sans software ni puissance de calcul. Les mouvements de l’opinion peuvent être perçus; les artistes qui sont en train de percer sont repérés; les niches particulières sont découvertes.

Cette révolution a été rendue possible par l’invention du «cookie», un mini-programme qui permet de reconnaître un utilisateur: les sites utilisent ce «mouchard» pour garder en mémoire l’historique de ses activités. Cette innovation majeure, que l’on doit, dès 1994, à un ingénieur de Nescape, Lou Montulli, permet aujourd’hui de nourrir la plupart des algorithmes de personnalisation. On parle alors de «Long Click» pour résumer cette mutation: lorsque l’on surfe sur internet, en cliquant simplement sur un contenu, en «likant» un article, ou en «retweetant» un message, on contribue ainsi, sans le savoir, à nourrir différents algorithmes. Lesquels conservent les données de l’internaute et peuvent en déduire ses centres d’intérêts ou ses préférences d’achats en ligne. En retour, les algorithmes permettent une «customization» des réponses (leur personnalisation) et un ciblage publicitaire sur mesure, ce qui a ouvert la voie à toutes les innovations récentes et spectaculaires de la publicité en ligne ou du social marketing.

La critique culturelle selon Amazon et Facebook

Les algorithmes de recommandation ne sont pourtant pas infaillibles. Ils ne sont pas nécessairement «justes» non plus, tant les distorsions de recommandation existent.

Il y a d’abord, le problème de leur manipulation à des fins commerciales. On le sait peu, mais comme l’a révélé une enquête de George Packer dans le ‹New Yorker›, le géant américain Amazon utilise sur son site un système de mise en avant baptisé – bel euphémisme – «Co-Op». Ces fameux «cooperative advertising agreement» se traduisent en «recommandations», présentées comme le résultat de critères objectifs d’un algorithme, alors qu’elles sont en réalité de la publicité financée par les éditeurs. Cette manipulation, non connue des clients, explique peut-être en partie la relative inefficacité des suggestions d’Amazon qui se traduisent moins qu’on ne le dit en actes d’achat. (Amazon ne propose pas ce système de «pay-for-display» sous la forme de publicités mais il négocie âprement avec les éditeurs, en marge des lois anti-concurrentielles, un pourcentage supplémentaire sur les ventes réalisées par ce biais – de 3 à 5 % –, lequel peut atteindre au total, par exemple avec Random House, 53 % du prix d’un livre).

Un deuxième type de distorsion de recommandation provient des limites mêmes de l’algorithmie. Les «machines» excellent dans toutes les formes de mesure, d’agrégation, les statistiques d’usage, le recensement des historiques de consommation, l’évaluation de la satisfaction, le traitement des données de masse, etc., mais peinent à prédire les comportements et les goûts, à choisir, ou, plus encore, à juger les émotions et les sensibilités. Imbattables pour trouver le meilleur prix d’un billet d’avion ou d’une chambre d’hôtel, elles anticipent mal, contrairement à ce que l’on croit parfois, la prescription culturelle.

Qui n’a pas constaté, sur Pandora, Spotify ou Deezer, qu’après avoir écouté longuement un certain type de musique, l’algorithme avait tendance à lui recommander indéfiniment le même genre musical ? L’algorithme n’innove pas, ne s’aventure pas, n’imagine pas, ne fait pas d’associations d’idées, ce qui le conduit inexorablement vers des recommandations de plus en plus étroites. (Ce phénomène d’usure, bien connu des économètres sous le nom d’ «attrition», a tendance à réduire les choix, surtout si l’utilisateur ne fait pas connaître son avis. On parle d’ «algorithmes d’enfermement». Pour retrouver de la diversité, les ingénieurs réintègrent alors artificiellement de temps en temps des propositions musicales aléatoires, décalées, pour susciter la réaction de l’utilisateur et permettre à l’algorithme de se renouveler).

De manière générale, les algorithmes n’arrivent pas à percevoir les attentes des utilisateurs qui ont des goûts éclectiques, dits multi-genres, ou ceux qui évoluent constamment. Ainsi, on peut vouloir écouter telle musique, du hip hop par exemple, le matin au réveil, mais préférer la pop au travail, la salsa au volant d’une voiture et finalement du «smooth jazz» en se couchant – autant de situations, de sensibilités et d’humeurs que l’algorithme ne sait guère anticiper.

Le cas de la musique classique est plus révélateur encore. Spotify et Deezer sont d’abord critiqués pour leur présentation chaotique des titres : il est en effet très difficile d’écouter les morceaux d’un opéra dans le bon ordre, ou les symphonies de Beethoven les unes après les autres. Quant à choisir son interprétation, son soliste ou son chef d’orchestre – Martha Argerich ou Sviatoslav Richter au piano, Furtwängler ou Karajan pour diriger Wagner –, c’est une gageure. La faute aux métadonnées, souvent présentées de manière très insuffisantes, mais également aux algorithmes qui ne savent pas encore bien classer la musique classique ou l’évaluer. «Ces algorithmes ne marchent pas. Ils ne traitent pas assez de données, fonctionnent par échantillon ou avec des formes de sérendipité. Ceux qui les programment ne comprennent pas la singularité du classique. Surtout, ils ne font pas assez de curation», m’explique Klaus Heymann, le fondateur international du portail de musique classique et de jazz Naxos (interrogé à Hong Kong). Pour les niches particulières, Heymann en est convaincu, la curation sera décisive. Et on aura besoin, pour la musique classique, comme pour les autres genres, selon la formule du critique musical du ‹New Yorker›, Alex Ross, d’une véritable «esthétique et éthique du streaming».

On retrouve ces distorsions de recommandations avec Netflix et Amazon. Même quand les critères sont affinés, que la technique s’améliore et que les algorithmes se mettent à «apprendre», les résultats restent plus quantitatifs que qualitatifs, et finalement très impersonnels. Ils produisent ce qu’on appelle dans le jargon du «bruit», c’est-à-dire des données et des contenus non pertinents. Pour une part, cela vient du fait que le «data mining» – ou l’art de la collecte des données – fonctionne sur la base d’échantillons, faute de la puissance de calcul nécessaire pour traiter toutes les données collectées. Les résultats font l’objet de corrections permanentes. Cela rend les recommandations, déjà complexes à proposer, plus précaires encore. Les «filtres» s’améliorent, les mots clés et les métadonnées s’affinent, l’agrégation automatique fait des progrès, mais les résultats restent toujours aussi décevants, finalement peu personnalisés – sans chair ni «aura».

S’ajoute ici, un autre problème, qui est celui des limites des «filtres». Même lorsqu’ils sont délibérément sélectionnés par les usagers, les filtres produisent du «bruit». Ceci explique, pour une part, l’échec des flux RSS comme du Google Reader, et à terme, le probable épuisement des podcasts. Dans ces trois cas, les recommandations se heurtent à la profusion. Faute de temps, on ne peut plus humainement consulter tous les contenus listés par les flux RSS ou proposés par le Google Reader. Les podcasts risquent de connaître le même sort: on peut bien s’y abonner librement et gratuitement, mais on n’a plus le temps de les écouter au fur et à mesure qu’ils s’accumulent dans un iPod ou un smartphone. Au «filtre», initial, il faudrait donc ajouter une nouvelle couche de «recommandation».

«Le problème du Google Reader ou des fils RSS, c’est la masse d’informations, explique Alistair Fairweather. Au début, on trouvait ça bien, mais très vite on a été noyé par la quantité. La pertinence diminuait et l’abondance devenait insupportable. La recommandation permet de régler le problème de l’avalanche de contenus. Et elle redonne paradoxalement aux internautes une fonction active : faire des choix, ne plus être passifs. La recommandation peut nourrir les conversations et aider à faire des choix.»

Reste l’immense champ d’analyse des distorsions de recommandations sur les réseaux sociaux. Le cas de Facebook est ici révélateur. Contrairement à Google, Apple ou Amazon, Facebook est le seul des géants du net à ne pas vouloir vendre directement de contenus culturels. A la place: les abonnés de Facebook peuvent faire des «recommandations» à leurs «amis» et ses partenaires commerciaux des «suggestions» basées sur des accords marketing (Facebook a pour clients privilégiés Netflix pour la vidéo, Spotify pour la musique, Zynga pour les jeux vidéo, les studios Warner, Miramax et Lions Gate pour le cinéma, le Washington Post, BuzzFeed, Vice et Yahoo pour l’information, Ticketmaster pour les concerts, et plusieurs autres marques pour les voyages ou la restauration). S’ils n’ont pas bien vérifié leurs paramètres de confidentialité sur Facebook – complexes, nombreux, variables, élastiques et, hélas, souvent incompréhensibles –, les utilisateurs de Spotify ou de Netflix peuvent alors s’étonner que leurs playlists musicales ou leurs choix cinéphiles se retrouvent postés automatiquement sur leur compte Facebook, quasiment à leur insu. Quant à la nouvelle fonctionnalité «Instant Articles», elle vise à accroître ces partenariats selon le modèle «visibilité contre publicité» (les clients de Facebook lisent ces articles dans leur Timeline mais en restant sur la plateforme elle-même, sans possibilité de cliquer; en échange les médias obtiennent un partage de publicité accru). En fin de compte, les réseaux sociaux peuvent contribuer à recommander des contenus liés à des accords commerciaux, au risque ici d’un certain brouillage entre la prescription et le marketing.

D’autres évolutions récentes de Facebook provoquent des distorsions de recommandation. A l’image de Google et de son algorithme PageRank, Facebook a mis en place depuis 2006, un «newsfeed» géré par l’algorithme EdgeRank. Celui-ci comprenait initialement trois critères : l’affinité de l’utilisateur, l’importance du contenu et un facteur de temps. Depuis, EdgeRank s’est affiné, combinant désormais de multiples critères, jusqu’à 100 000 paramètres constamment mis à jour. Parmi ceux-là, la mobilité et la géolocalisation sont de plus en plus souvent prises en compte, puisque la moitié du milliard d’utilisateurs de Facebook y accède aujourd’hui sur portable (et la moitié de ses revenus provient également de la publicité mobile).

Plus récemment, Facebook a fait le choix d’ «éditorialiser» les contenus de ses usagers, en particulier les publications des comptes «Pages» (ceux gérés par des médias, des marques ou des personnalités, illimités en nombre de fans), mais aussi, dans une certaine mesure, celles des comptes personnels (limités à 5 000 amis). Désormais, lorsqu’un média, une entreprise ou un artiste poste un message sur sa «Page» Facebook, l’algorithme ne lui permet plus d’atteindre qu’un pourcentage infime de ses propres fans (autour de 5 à 7 %). Facebook limite donc délibérément la portée des posts et conditionne, via son algorithme, la diffusion d’un contenu soit à son buzz initial (si le message est liké, partagé ou commenté, l’algorithme en élargit la publication), soit à l’achat d’espaces «sponsorisés». En d’autres termes: pour atteindre les amis de sa propre «Page», un utilisateur de Facebook doit désormais acheter de la publicité. (De leur côté, lorsque les usagers de Facebook «likent» une «Page», ils pensent innocemment s’y abonner alors, qu’en fait, ils nourrissent essentiellement l’algorithme du réseau social et son modèle publicitaire, mais ils ne reçoivent guère dans leur «Timeline» les messages de la «Page» qu’ils ont pourtant aimée.)

Un algorithme similaire existe pour YouTube, Google+ et LinkedIn. En revanche, Twitter conserve le système de publication qui a fait son succès: les tweets sont publiés sans algorithme, de façon linéaire, en ordre chronologique inversé et en temps réel, mais pour combien de temps?

Cette technique commerciale de Facebook met en lumière l’insécurité qui caractérise les réseaux sociaux. A quoi sert-il, par exemple, pour un auteur, un éditeur ou un producteur de film, de construire sa communauté sur Facebook si, sans prévenir, la firme de Menlo Park peut réduire à néant cet investissement et réclamer qu’il se mette à acheter des publicités pour pouvoir atteindre les propres fans de sa «Page»? Le même risque se pose à moyens termes pour la publication de contenus sur Instagram, Pinterest, Path, Tumblr, Snapchat, Meerkat, Periscope ou Vine etc. En fin de compte, les médias, les industries culturelles, les marques et tous ceux qui veulent accroître la visibilité de leurs contenus ou de leurs critiques sur Facebook, sont pris à leur propre piège de la «loi du clic»: en ayant tout miser sur leur visibilité sur les réseaux sociaux, ils doivent maintenant payer pour atteindre leur propre communauté. Du coup, les informations ou les recommandations qui deviennent virales sur les réseaux sociaux ne sont plus nécessairement celles qui sont portées par un véritable buzz, par les meilleures idées ou par une plus grande créativité, ni même celles qui sont le mieux repérées par les algorithmes: parfois, ce sont justes les messages les mieux sponsorisés par des achats d’espace.

Il y a plus. On le sait peu mais les réseaux sociaux, Facebook et Twitter en particulier, utilisent systématiquement les contenus et les recommandations de leurs abonnés, pour leurs études, ensuite commercialisées. On parle par exemple de «F-commerce» pour cette évolution marketing de Facebook. Cela fonctionne en deux temps: d’une part, les algorithmes des réseaux sociaux analysent minutieusement les conversations de leurs abonnés, les photos postées et les vidéos visionnées, et y intègrent de la publicité personnalisée, «contextuelle» et «native». Mêlés aux fils de conversations, sournois même, trompeurs aussi dans leur camouflage 2.0, parfois à la limite du mélange des genres, ces «native ads», «tweets sponsorisés» et autres «promoted trends» paraissent moins intrusifs tout en rapportant beaucoup d’argent (plusieurs centaines de milliers de dollars pour vingt-quatre heures d’exposition sur l’ensemble des comptes Twitter des États-Unis, par exemple). Les réseaux sociaux vendent ensuite les données de recommandation des millions de messages échangés chaque jour par leurs utilisateurs. Les annonceurs, comme les responsables des industries créatives, des médias ou des agences de conseil et de mesure d’audience, sont en quête de données précises, et en temps réel, sur les centres d’intérêt des consommateurs, leurs usages, les mouvements de l’opinion, bien au-delà des seuls «trending topics» rendus publics. En fin de compte, les industries culturelles, les marques et les médias qui publient des contenus sur leur «Page» Facebook doivent désormais acheter de la publicité pour atteindre leur propre communauté, avant d’être invités à payer à nouveau, et au prix fort, pour obtenir les résultats des études qu’ils ont eux-mêmes contribué à générer.

On peut penser, comme je le crois, que les réseaux sociaux joueront à l’avenir un rôle majeur dans la prescription et la dissémination des informations relatives à la culture, mais il faut garder en mémoire toutes ces distorsions de recommandation.

La smart curation.

Si les critiques culturels traditionnels sont une espèce en voie de disparition, si les algorithmes peuvent être biaisés et s’ils peinent, en tout cas, à proposer des recommandations réellement pertinentes, il devient nécessaire d’inventer une nouvelle forme de prescription. C’est ce que j’ai choisi d’appeler ici: la «smart curation».

Face au talon d’Achille d’internet – l’abondance – le retour au modèle traditionnel de la critique n’est plus pertinent. Fait d’êtres de chair et d’os, intrinsèquement lié à la culture analogique ou imprimée classique, ce modèle devient obsolète du fait de son élitisme et de son incapacité à «filtrer» efficacement et rapidement la masse de contenus accessibles. Surtout, il propose une vision unique du «bon goût», prend en compte un nombre réduit de critères et est incapable de fournir des recommandations variées en fonction des parcours, des situations, des niches et – osons le mot – des «communautés» culturelles. Or, aujourd’hui, à l’heure d’internet et de la fragmentation culturelle, il ne peut plus exister une seule critique universelle valable pour tous. Il y a des sphères de goûts; il faut donc une pluralité de recommandations.

Les internets sont décentralisés, décentrés, pluriels: la désintermédiation les caractérise. Et il est peu probable qu’on puisse revenir en arrière et à un modèle élitiste où le jugement est laissé entre les mains d’un petit nombre de critiques, ce qui enrageait déjà Lucien de Rubempré chez Balzac.

Pour autant, la seconde solution, celle des «machines», strictement mathématique, qui consiste à déléguer cette prescription à des algorithmes automatiques, ne paraît pas davantage efficace. Elle est trop imparfaite pour être efficiente.

La «smart curation» offre, elle, une solution alternative: elle est une combinaison des deux modèles, l’algorithme d’une part, la curation de l’autre. C’est un «double filtre» qui permet d’additionner la puissance du «big data» et de l’intervention humaine, l’association des machines et des hommes, des ingénieurs et des «saltimbanques». Cette curation algorithmée sera faite à la fois par ceux qui utilisent les mots et par ceux qui se servent de chiffres.

«L’algorithme peut aider à identifier ce qui est populaire mais il est incapable de dire pourquoi c’est populaire, résume Alistair Fairweather. Il se fie à la masse, à la moyenne ou a l’opposition ‹J’aime/J’aime pas›. Au mieux, la technique tente de prédire que ‹les gens qui ont aimé tel contenu peuvent, dans l’absolu, en aimer tel autre› – une proposition précieuse mais insuffisante». Pour Fairweather, il est donc indispensable «d’avoir en même temps la ‹big picture›, celle des statistiques, et la ‹small picture›, celle d’une personne informée, qui a une certaine expertise, fait des choix, filtre les informations et donne son avis. On ne peut pas se contenter des cinq étoiles d’une bonne recommandation d’Amazon.»

La «smart curation» est une forme d’éditorialisation intelligente, une sélection automatisée puis humanisée, qui permet de trier, de choisir puis de recommander des contenus aux lecteurs. Elle peut prendre des formes variées mais je la définirai essentiellement à partir de trois éléments. Il s’agit d’abord d’une recommandation qui bénéficie à la fois de la puissance d’internet et des algorithmes mais aussi d’un traitement humain et d’une prescription personnalisée par des «curateurs». Cette fonction de «double filtre» est indispensable.

D’ou, et c’est le deuxième point, la nécessité d’avoir recours, pour ce second filtre de curation, le filtre humain, à un intermédiaire, un passeur ou une personne tierce. Ce filtre ne peut pas être le producteur du contenu lui-même, ni le consommateur. Un auteur, par exemple, ne peut pas faire, lui-même, sa propre «curation» (alors qu’un auteur peut faire sa promotion ou qu’un lecteur peut avoir son propre jugement). Le second filtre de «curation» est donc une médiation qui a besoin d’un intermédiaire.

Ici, le terme même de «curation» est intéressant. Ambigu certes, il a encore en Europe, comme aux États-Unis, une connotation élitiste qui la rattache à la muséologie, aux collections des bibliothèques et aux musées d’arts. Au MET, au MoMA ou à la National Gallery, un «curator» est un conservateur qui présente et organise une exposition dans un musée des beaux arts. Le mot s’est étendu, ces dernières années, dans les cinémathèques, les musées d’art contemporain ou les bibliothèques, avant d’être repris par la culture numérique, qui est en train d’en faire l’un de ses «buzz-words».

Enfin, troisième élément, la «smart curation» s’inscrit dans une «conversation». Il ne s’agit pas de recréer un jugement hiérarchique «top-down», prétendument universel, mais le plus souvent arbitraire ou péremptoire. Elle devrait être un dialogue qui rend possible les échanges, les allers-retours, les pluralités de goût et s’élabore en différentes «sphères de jugement».

En définitive, la simple «curation» est le contraire de l’agrégation proposée par les algorithmes. Curation ou agrégation, faut-il choisir? Et si on combinait les deux? Il faut défendre l’exception culturelle mais avec la puissance mathématique.

Si l’expression «smart curation» est nouvelle – et a été imaginée dans ce texte –, il en existe déjà de nombreuses illustrations. Prenons par exemple les «likes» de Facebook, les «retweets» de Twitter, les «pins» de Pinterest, les «little heart» sur le dashboard de Tumblr ou encore les «+1» de Google+ : tous ces outils propres aux réseaux sociaux participent déjà d’une approche de type «smart curation».

Lorsqu’une personne poste une recommandation culturelle sur Facebook et que celle-ci est «likée» par ses amis, l’algorithme prend en compte ces indications et démultiplie la visibilité du post initial (l’algorithme utilisé sur les comptes «Pages», plus encore que sur les comptes personnels, est indexé sur le nombre de «j’aime» et les commentaires). La puissance mathématique intervient mais, au départ, c’est une personne humaine qui a recommandé à ses «amis» un contenu culturel qu’il a aimé. On a donc un mélange de «smart» (l’algorithme) et de «curation» (l’appréciation singulière d’une personne par son «like» ou son commentaire). La «peer recommendation» est décuplée par la puissance mathématique.

Le «social listening» ou les «curated playlists» sont un autre exemple de «smart curation». La technique existe sur Spotify, Deezer ou Pandora. Les algorithmes de ces plateformes de musique par abonnements illimitées sont, on l’a vu, peu pertinents et s’apparentent à un «smart» sans «curation». En revanche, lorsque ces sites font apparaître en ligne les playlists d’autres abonnés, ils font déjà, avec ce «social listening», de la smart curation. (Spotify est allé plus loin lorsqu’il a introduit, fin 2014, la fonction «Top Tracks in Your Network», en affichant les playlists mises à jour des «amis» suivis).

James Iovine, le cofondateur avec le rappeur Dr. Dre des casques Beats, a choisi de refonder iTunes et Beats Music, et de lancer Apple Music, autour d’un modèle de «smart curation» (Apple a racheté Beats Electronics en 2014 et a consulté Iovine pour son nouveau service de musique en streaming). Il était en effet convaincu que la recommandation par des algorithmes, comme sur Pandora ou Spotify, reste insuffisante et qu’il faut combiner les données recueillies par les algorithmes avec les jugements produits par les êtres humains pour obtenir des résultats plus pertinents. D’ou la création d’un réseau social musical en parallèle de l’Apple Music.

Dans le secteur de la radio, National Public Radio (NPR) a également su innover en ce sens. Le network radio américain, indépendant et à but non lucratif (mais non pas public contrairement à ce que son nom pourrait laisser entendre), a misé précocement sur le numérique afin de rajeunir son audience. NPR a aujourd’hui 20 millions de visiteurs uniques sur son site et 27 millions de podcasts téléchargés chaque mois. Résultat: l’âge moyen des auditeurs écoutant NPR en hertzien est de 52 ans; ceux qui s’y connectent par internet ou en podcast ont en moyenne 36 ans – presque vingt ans d’écart! Une application dédiée sur smartphone offre une expérience originale de «smart curation»: la radio se personnalise entièrement, que ce soit via ses programmes, ses stations locales ou ses playlists. De puissants algorithmes, des outils de «conversation» et un système de «geo-targeting» pour l’information locale assurent une grande fluidité des programmes, leur «customization» et leur partage sur les réseaux sociaux. La recommandation y est centrale, clé du succès des émissions diffusées en «syndication» (et jusqu’aux conférences TED disponibles sur l’application). Ce faisant, NPR démontre aussi que le podcast est une technologie de transition et que le streaming mobile, combiné à une application puissante, à des techniques de recommandation, et à des algorithmes pertinents, pourrait être l’avenir de la radio. …

La «Social TV» va dans le même sens. Certaines applications comme SocialGuide, yap.tv, fav.tv, BuddyTV ou l’application géolocalisée GetGlue fournissent déjà, sur smartphone ou tablette, des recommandations de contenus télévisés en temps réel à partir des appréciations des abonnés. C’est un mélange sophistiqué d’études de comportements de masse, de personnalisation «sur mesure», de recommandations des «pairs» et de résultats générés par les algorithmes. Une fois renseignés la localisation et le nom du câblo-opérateur (ou du fournisseur d’accès à internet), ces applications proposent à l’utilisateur des programmes, quel que soit son écran, à regarder en temps réel ou en replay, en fonction des tendances générales des audiences, des avis des internautes et de son propre historique de consommation télé. …

Ces exemples offrent l’avantage de dépasser les recommandations binaires de Facebook où, en «likant», on affirme seulement «aimer» ou ne plus «aimer». Ces «Social TV Apps» sont capables, à partir du moment où on s’est enregistré ( «check-in»), de savoir où l’on s’arrête dans un programme, où l’on reprend, quand on commente et ce que l’on dit. A terme, ce n’est plus l’usager qui regarde la télé, c’est la TV qui se met à le regarder!

Harry Potter et les Booktubers

Lauren Bird aime Harry Potter et les gaufres. Avec son physique d’adolescente et ses drôles de lunettes, elle me rappelle ces personnages féminins des romans de J.K. Rowling ou de Suzanne Collins. Et semble comme juste sortie de l’enfance.

Lauren Bird m’a donné rendez-vous à côté du nouveau siège de Google à New York, à l’angle de la 9e Avenue et de la 16e Rue, à Chelsea. A ses heures perdues, elle squatte, non loin de là, les bureaux de YouTube (qui appartient à Google), où elle peut utiliser des studios de montage pour ses vidéos. Pour y accéder, il faut repérer un ascenseur discret, caché face à un cireur de chaussures, à l’intérieur du Chelsea Market, entre la 9ème et 10ème Avenue, et monter au 5ème étage. Là, lorsque leurs chaînes YouTube connaissent un certain succès d’audience, des blogueurs, comme Lauren Bird, peuvent bénéficier gratuitement d’un écosystème bienveillant. J’y vois des geeks assis dans des canapés de cuir, une petite exposition d’art contemporain et un grand poster de promotion d’un livre publié par un «Booktuber».

Bird est «booktuber»: elle parle d’Harry Potter dans de courtes séquences postées sur YouTube. Ailleurs, sur une autre de ses chaînes, elle s’est spécialisée dans les «Waffle Irons» (les machines à faire des gaufres). Comme d’autres testent les iPhones ou la solidité des skateboards, Lauren Bird teste ces Waffle Irons pour voir si elles sont aussi résistantes que leurs promoteurs le prétendent. Sur sa chaîne, elle essaye donc de faire cuire des œufs, des sushis, des cornichons, des snickers et même une citrouille dans cet appareil à gaufres! Le résultat est parfois surprenant et toujours hilarant.

Plus récemment, Bird, qui est diplômée en films de New York University, a rejoint la Harry Potter Alliance, une association des fans d’Harry Potter qui s’engagent pour l’amélioration des conditions de travail des salariés américains, par exemple chez McDonald’s ou Walmart. Les vidéos qu’elle poste sur ce sujet ont déjà recueilli plusieurs millions de vues sur YouTube.

Emerson Spartz, lui aussi, comme Lauren Bird, a débuté sa carrière en simple fan d’Harry Potter. A 12 ans, il a lancé MuggleNet, son premier site – aujourd’hui l’une des principales plateformes pour les passionnés des romans de J.K. Rowling (mugglenet.com). La célèbre romancière a invité Spartz dans son domaine privé en Ecosse, elle a également soutenu les initiatives de Lauren Bird et de son Harry Potter Alliance.

Le phénomène des «booktubers», apparu initialement en Argentine, en Espagne ou au Royaume Uni, s’inscrit clairement dans la «smart curation»: de jeunes lecteurs ou des étudiants racontent leurs enthousiasmes après la lecture d’un livre, face à la caméra. A l’aide d’un smartphone, d’une caméra GoPro ou plus récemment de Periscope, ils partagent leurs passions avec plus ou moins de mise-en-scène, de simplicité – ou de talent.

Il existe autant de formats et de genres que de booktubers: leurs vidéos peuvent être sérieuses ou déjantées, arty ou plus mainstream, comme l’illustrent par exemple les chaînes YouTube de Christine Riccio, Jesse, Raeleen, Ariel Bissett, Priscilla, Kat O’Keeffe ou Regan.

Parfois, ces «booktubers» se mettent à écrire, rêvant de devenir, à leur tour, des écrivains. Les grands éditeurs, comme me le confirme Jonathan Karp, P-DG de Simon & Schuster, scrutent alors leurs chaînes dans l’espoir de découvrir de nouveaux talents. L’algorithme de YouTube repère, lui aussi, ces vidéos et peut, à l’occasion, les rendre virales sur internet. A défaut d’être consacré «grand écrivain», le «booktuber» peut déjà devenir un «brand content».

D’autres modèles de «smart curation» existent. Il peut s’agir de réseaux sociaux dédiés à la lecture et à la «fan-fiction» : Wattpad, par exemple, est une sorte de Facebook pour la littérature. Basé au Canada, ce réseau social compte déjà plus de 45 millions de membres et près de 100 millions d’histoires uploadées (la jeune romancière Anne Todd y a publié After, une fan-fiction écrite sur smartphone et lue depuis par douze millions de personnes). Au-delà d’une interface de publication pour tous, Wattpad, véritable club de lecture en ligne, est aussi un espace de commentaires, de partages et donc de «curation». L’algorithme permet d’assurer la médiatisation des histoires les plus populaires.

Dans un autre style, un site comme The Conversation, développé en Australie et au Royaume Uni, vise, comme son nom l’indique, à recréer une «conversation» en s’appuyant sur un large réseau d’universitaires et d’intellectuels. Avec comme baseline «Academic rigour, journalistic flair», The Conversation se propose d’éclairer le débat d’idées à partir d’analyses et de points de vues des chercheurs. Ce faisant, il leur permet d’acquérir une nouvelle visibilité et, aidé par les réseaux sociaux, de devenir populaires. (En France, un site comme La vie des idées a un objectif proche).

Enfin, le site GoodReads, qui a été racheté par Amazon en 2013, mêle des recherches par algorithme, des listes automatisées de lecture et des critiques de livres personnalisées. Les internautes peuvent y constituer leur propre bibliothèque, noter leurs livres, et ceux de leurs amis, alors même que GoodReads leur propose des recommandations. C’est une sorte de réseau social dédié aux livres, avec 20 millions de membres qui peuvent le relier à Facebook ou Twitter pour accroître leur «socialité». (Il est intéressant de noter ici ce regain d’intérêt d’Amazon pour la curation, d’autant qu’on l’observe parallèlement avec le rachat de IMDb dans le cinéma et Twitch dans le jeu vidéo, deux sites basés sur des évaluations et des recommandations. Initialement, en 1995-2000, Amazon avait développé ses propres outils en interne. Une équipe d’une vingtaine de journalistes, écrivains et éditeurs salariés, venus du ‹Village Voice› ou de la ‹New York Review of Books›, rédigeaient des notices, faisaient des interviews ou diffusaient leurs recommandations. Mais en 2002, ce département «éditorial» d’Amazon a été fermé, les éditeurs «humains» étant définitivement remplacés par les algorithmes).

Les native book reviews

Au siège de Gawker à New York, James Del, le vice-président en charge de la programmation et du marketing, me parle de la «Gawker Review of Books». Ce site est venu rejoindre la famille des «sub-blogs» lancés à partir du portail principal, avec pour objectif de publier des extraits de nouveaux livres, de faire des interviews d’auteurs ou de proposer des recommandations littéraires. Bien qu’étant, et parfois jusqu’à l’arrogance, un pure-player numérique, Gawker sait donc miser également sur un «vieux média» comme l’édition de livres. Le chiffre d’affaire du secteur – de l’ordre de trente milliards de dollars par an – n’a d’ailleurs pas échappé aux fondateurs du site, que l’industrie des best-sellers fascine. Mais leur Gawker Review of Books traite des «livres» à sa façon! Pour faire du buzz, elle y dévoile certains deals secrets de l’édition, parle des procès en diffamation, revient sur la mort de tel écrivain célèbre. Les posts cherchent à faire de l’audience: «Les 50 meilleures premières phrases de romans»; «Comment Harlequin est devenu l’éditeur le plus fameux pour les romans à l’eau de rose»; ou, récemment, une attaque lancée contre le ‹New York Times› et sa liste de best-sellers jugée trop «caucasienne» (c’est-à-dire, en américain, trop «blanche», sans noir ni latino). D’autres fois, les articles de la Gawker Review of Books, en particulier les longs entretiens avec des auteurs en promotion, peuvent être sérieux, pertinents et de bonne facture. C’est un des secrets de Gawker: recruter les meilleurs étudiants à leur sortie des programmes de «creative writing» ou des écoles de journalisme les plus prestigieuses. Et chaque semaine, le site publie sa «Gawker Review Weekend Reading List» – comme s’il était un quotidien généraliste respectable.

Gawker espère créer une nouvelle «conversation» autour des livres, comme Emerson Spartz a voulu créer une conversation autour d’Harry Potter lorsqu’il a lancé son site MuggleNet ou Lauren Bird avec ses chaînes YouTube. Ils ne sont pas les seuls.

D’autres pure-players généralistes s’intéressent à la critique culturelle en général, et à celle des livres en particulier – une façon aussi de ne pas laisser ce marché de niches à de nouveaux entrants. C’est le cas de Slate qui a inauguré en 2014 un supplément digital de critiques de livres. La version française de Slate a également développé le projet Reader.fr (soutenu par le fonds Google), un outil de «curation de contenus» qui offre un mélange original de «smart» et de «curation». En créant un compte, le lecteur bénéficie des résultats de l’algorithme, adaptés à ses centres d’intérêts personnels. L’utilisation de tags lui permet d’affiner ses lectures. Selon le site: «Des millions de contenus sont publiés sur internet chaque jour. Vous en ouvrez peut-être une dizaine, une quinzaine, une centaine – sans en lire la moitié … [Ce] Reader veut mettre fin à vos angoisses et vous faire découvrir des choses sur lesquelles vous ne seriez peut-être pas tombés. Nous vous proposons donc une sélection de contenus qui vous permet d’être au courant des tendances de l’actualité, d’avoir lu les bons papiers et vu les images importantes du jour. La rédaction ne publie que ce qu’elle estime nécessaire ou indispensable, sans souci d’exhaustivité.» Comment ça marche? «D’abord, notre algorithme sélectionne les contenus partagés sur les réseaux sociaux. Puis nous choisissons à la main ceux qui nous semblent les meilleurs, pour vous les proposer.» C’est une illustration assez précise de ce que j’ai appelé la «smart curation».

De leur côté des sites comme Vice et Politico ont lancé récemment des versions papier, dans lesquelles les livres sont traités. S’agissant de Buzzfeed, connu pour ses formats courts et ses posts viraux, le site a choisi de valoriser les formats longs et les critiques de livres dans une section dédiée. «Le site Buzzfeed publie aussi de très longs articles», insiste Henry Finder, rédacteur en chef du ‹New Yorker›, comme pour se rassurer.

Car la concurrence est vive. Partout, les expérimentations se multiplient et de nouveaux sites sont imaginés. Aux États-Unis, l’intéressant Literary Hub sélectionne chaque jour des nouveautés littéraires et publie les bonnes feuilles de livres. En Allemagne, Perlentaucher mise pour sa part sur la recommandation, tout comme Anobii au Royaume-Uni. En France, des sites comme Booknode, Sens Critique ou NonFiction se sont spécialisés dans la critique en ligne, alors que BdGest/Bedetheque se concentre sur la bande dessinée. Quant au site allemand dédié au théâtre, NachtKritik, il est réalisé collectivement la nuit, pour rendre compte dès le matin des pièces vues la veille.

Les nouvelles revues littéraires «papiers» ne sont pas en reste et tentent d’inventer des modèles bi-média. Aux États-Unis, des formats intéressants ont été imaginées par ‹n+1›, ‹McSweeney’s›, ‹The Believer› ou ‹Tin House›. Paraissant trois ou quatre fois par an, ces revues hybrides ont développé un modèle économique fondé sur la philanthropie, l’édition de livres et la vente de produits dérivés. Pour une large part, ces revues croient au journalisme de qualité et misent, non sur les «clics» mais sur les «Pulitzers» (pour reprendre la formule de la chercheuse Angèle Christin). Ce qui ne les empêche pas d’avoir une présence innovante et originale sur le web.

D’autres exemples existent, au-delà de la sphère culturelle. Un site comme Techmeme [techmeme.com], spécialisé dans l’information technologique, réussit bien à mêler ces approches quantitatives et qualitatives : il identifie automatiquement des contenus et des «hot stories» puis, à l’aide d’éditeurs «humains», les valide, les hiérarchise et les reformate. Pearltrees, un outil online pour une «curation collaborative» vise à gérer ses propres marque-pages et à les partager (même s’il semble qu’on soit revenu de l’idée que chacun puisse devenir son propre «curateur» en donnant accès à son agrégateur de contenus, d’ou l’échec des Netvibes par exemple). D’autres services comme Storyful, Vocativ, Dataminr ou ReCode offrent des modèles mixtes qui mêlent le journalisme de «données» et la recommandation, avec l’intervention, aux côtés des rédacteurs traditionnels, d’analystes de données baptisées «data analysts» ou «Chief Content Officer».

Quant à la start-up spécialisée Outbrain, elle offre à ses clients médias en «B2B» (business d’entreprises à entreprises) des solutions clés en main aux sites pour repérer les meilleurs articles, c’est-à-dire ceux qui sont susceptibles de leur fournir le plus d’audience, mais en y ajoutant une dimension linguistique et géographique.

Enfin, quoique plus anecdotique, on peut citer l’initiative de Mark Zuckerberg, le patron de Facebook, qui a lancé en 2015 une «Page». Il a pris la résolution de lire un livre toutes les deux semaines et de poster son avis sur ce compte Facebook. La Gawker Review of Books, qui a constaté que la page en question était peu actualisée, lui a reproché son dilettantisme dans un post intitulé insidieusement «Mark Zuckerberg Is Not Oprah». Nous entrons dans «l’ère des mini-Oprah» a commenté pour sa part le ‹New Yorker›, évoquant ces petits prescripteurs, par rapport à la grande prêtresse littéraire que fut longtemps Oprah Winfrey aux États-Unis. Une belle formule qui résonne peut-être comme l’esprit du temps.

L’ère des mini-Oprah

La soirée est sur «invitation only». Henry Finder reçoit dans son bel appartement privé de Tribeca pour une «Book party». Quelques uns des plus grands journalistes new-yorkais, des intellectuels et autres éditeurs sont là. Les hipsters, start-upers et autres «barbares» sont peu représentés. On dirait que les petits fours ont été faits par un chef étoilé; que les ouvreuses et serveuses s’apprêtent à concourir pour Miss America ; que le livre qui est lancé à cette occasion, signé par un professeur de l’université de Princeton, est le plus beau de l’année. En levant sa coupe de Mojito, épicé au piment rouge frais, en hommage à l’impétrant, Finder prononce, subtil et pince sans rires, un petit discours pétri de références à Henry James! Une «Book party» prestigieuse mais comme échappée, me semble-t-il, d’une autre époque. Tout sourires, Finder me rassure: ce soir là, le livre en question – un Note Book – est, me dit-il, «une curieuse collection de poèmes et mini-essais initialement postés sur Facebook!»

Editeurs, journalistes, auteurs: ils sont nombreux aux Etats-Unis à n’avoir pas peur d’internet. A n’être pas impressionnés par les algorithmes, ni par les réseaux sociaux. Ils les ont déjà intégrés dans leur vie, même lorsqu’ils font croire le contraire et n’en parlent guère. «On aura, c’est certain, de très nombreuses nouvelles voix sur internet qui parleront des livres, feront des critiques, donneront leur opinion. C’est tout simplement formidable», me dit Ken Auletta, le célèbre critique média du ‹New Yorker›. Qui ajoute: «On avait le bouche à oreille et maintenant on a les ‹likes› et les ‹links›. C’est super!»

Tout retour en arrière est impossible: Ken Auletta comme Henry Finder le savent bien. Ils ne reprennent pas les arguments techno-sceptiques de ces intellectuels qui, hier rebelles, défendent aujourd’hui la tradition – tels le Péruvien Mario Vargas Llosa, le Français Alain Finkielkraut, le linguiste italien Raffaele Simone ou, dans un autre genre, le Biélorusse Evgeny Morozov. Ces antimodernes vivent mal l’atténuation des hiérarchies, la victoire des industries créatives sur la critique marxiste, l’accélération de l’information et la lente disparition de l’élitisme ou du catéchisme culturel dans lequel ils ont grandi. Le futur de la culture ? Un service sur réseau social! Sur le mobile! Sur le cloud! Cette perspective les effraye, ce qui est compréhensible. Que la culture élitiste classique, celle du livre et des bibliothèques, risque de tomber entre les mains des fournisseurs d’accès à internet ou des opérateurs télécoms – et d’ailleurs de moins en moins de ceux-là et de plus en plus de ceux-ci – les affole à juste titre. Ken Auletta, lui, ne partage pas cette inquiétude; il n’a pas peur.

Tout juste, Auletta ajoute-t-il une réserve, lorsque je l’interroge, sur la curation et les algorithmes: «Il n’y a pas de formule magique pour avoir du succès sur internet». Avec ses articles fleuves constitués de dizaines de pages et de vingtaines d’interviews sur l’industrie des médias, de l’entertainment et d’internet, Ken Auletta est l’un des vétérans du journalisme américain. Il sait qu’il n’a plus rien à prouver. Alors, les algorithmes! Lui aussi est prêt à prendre les paris et à affronter en duel la modernité. Lorsque, en quittant son grand appartement de l’Upper East Side, je lui demande par provocation s’il pense qu’un «algorithme Auletta» puisse voir le jour, il me répond du tac au tac : «Non!» Avant de concéder qu’à long terme, il ne sait pas … et qu’il sera de toute façon mort.

New Yorker v. Gawker: tel pourrait être un résumé du combat de titans qui se déroule sous nos yeux. La critique culturelle, indexée sur l’avenir de la presse et du livre papier, se prépare à de nouvelles batailles. «La révolution numérique des médias est une guerre de cent ans. Nous sommes juste au tout début», pronostique James Del de Gawker. Il croit que les intersections entre les médias et leurs audiences, entre les auteurs et leurs lecteurs, vont changer radicalement dans les années à venir. Les conversations, l’ «engagement», les curateurs seront essentiels. Et l’algorithme deviendra la pierre angulaire de ce futur. (Pour ne pas insulter l’avenir et acquérir une sorte de respectabilité compatible avec les annonceurs, la direction de Gawker a mis en veilleuse certains de ses sites : le média politique Wonkette a été revendu, comme le site porno Fleshbot; le sub-site Oddjack sur les jeux et les paris en ligne a été déconnecté).

Je partage le point de vue du responsable de Gawker sur les algorithmes. Contrairement à la vision qu’en ont les techno-sceptiques, je ne crois pas que les machines uniformisent ou appauvrissent le web. Une erreur fréquente de l’analyse superficielle des mutations d’internet consiste à voir dans le «big data» et dans l’algorithmie des phénomènes d’uniformisation et d’homogénéisation. Les machines mèneraient toujours les internautes vers les blockbusters, les bestsellers et les hits, vers la culture de masse et l’entertainment. La victoire de la «mainstreamisation»?

Cela peut-être vrai mais ce n’est pas systématique. Les algorithmes sont des outils qui dépendent de leur programmation. Ils peuvent mener au mainstream; ils peuvent être liés à des contrats publicitaires; ils peuvent à l’inverse conduire vers des niches, vers la world music, le cinéma du monde, la littérature d’avant-garde ou l’art le plus contemporain. Tout dépend des critères et des paramètres qu’on leur fixe.

Surtout, à mesure des progrès de l’algorithmie, les machines vont pouvoir améliorer leurs performances, se spécialiser et s’adapter aux centres d’intérêts les plus complexes des consommateurs. Elles prendront mieux en compte les niches, les nuances. Le véritable risque n’est donc pas tant le mainstream, que le cloisonnement en segments hermétiques sans intersections ni interactions. Au lieu d’imposer le goût des masses, les machines ont tendance à enfermer l’utilisateur dans sa «bulle», de lui fournir seulement ce qu’il consomme déjà et de le communautariser. Ce n’est donc pas tant un processus d’uniformisation mais au contraire de distinction et de différenciation. Ce qui peut conduire, au pire, à l’atomisation et à la multiplication des niches fermées ; au mieux à la fragmentation heureuse ou à la diversité. L’algorithme n’est pas l’ennemi de l’exception culturelle – il peut même en être un outil.

Avec les jeunes de Gawker, les Booktubers et d’innombrables nouvelles «mini-Oprah», je ne crois donc pas qu’on puisse échapper aux algorithmes, revenir en arrière et se replier sur le monde de la critique à l’ancienne.

Pourtant, comme Henry Finder, Ken Auletta ou Jonathan Karp, je ne crois pas non plus qu’on puisse se satisfaire d’un monde où tous les contenus culturels dépendraient des algorithmes. Les robots ne prendront pas le pouvoir sur les journalistes. La machine ne sera pas le futur de la critique.

La «smart curation» peut permettre de réconcilier ces deux mondes. Elle peut même devenir l’une des nouvelles batailles d’internet et un moyen de «disrupter les disrupteurs». De nombreux médias nouveaux ou traditionnels s’y intéressent déjà, expérimentant des outils algorithmés stupéfiants ou invraisemblables qui combinent la puissance mathématique avec le jugement humain. Du côté académique, des programmes de recherche d’ensemble sur la «smart curation» rassemblent déjà des chercheurs en sciences sociales, des ingénieurs en algorithmie et des critiques culturels universitaires. Enfin, d’innombrables start-ups travaillent aussi sur ces «doubles filtres», réunissant des investissements et recrutant à tour de bras.

L’une d’entre elles s’installera bientôt sur la 5ème Avenue, l’une des adresses les plus prestigieuses de New York. Son nom: Gawker. «On va bouger cet été: Fifth Avenue! Yeah!» s’exclame, heureux de la puissance du symbole, James Del. C’est David, qui est en train de vaincre Goliath. C’est l’outsider qui jubile de rejoindre l’establishment. Et pour preuve de l’ambition et de la success story de sa start-up devenue adulte, il ajoute: «Et, cette fois, on aura un ascenseur.»

Frédéric Martel

Cet article s’inscrit dans un programme de recherche sur la «Smart Curation» à l’université des arts de Zurich (ZHdK) et d’une mission d’expertise du Centre National du Livre (ministère de la Culture, Paris). Il est repris dans la réédition en poche du livre de F. Martel, ‹Smart, Ces internets qui nous rendent intelligents› (Champs Flammarion, 9 septembre 2015 et dans ses traductions en une dizaine de langues).

More Articles by
Frédéric Martel