En dialogue avec Caroline Marcoux-Gendron, le professeur en communication internationale Destiny Tchéhouali, titulaire de la Chaire UNESCO en communication et technologies pour le développement (CUCTD) et cotitulaire de la Chaire de recherche du Québec sur l’intelligence artificielle et le numérique francophone (IANF), partage ses plus récentes réflexions relatives aux enjeux et défis que pose le numérique pour la diversité et la découvrabilité des scènes culturelles dans la F/francophonie. Chercheur spécialiste de la gouvernance en contexte numérique, de l’intelligence artificielle et de l’impact des technologies numériques sur la mondialisation culturelle, Destiny Tchéhouali compte également plus d’une décennie de travail comme consultant, contribuant à des groupes d’études et de conseil pour des organisations internationales et des institutions intergouvernementales ou supranationales telles l’Organisation internationale de la Francophonie (OIF), la Commission européenne et l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO). Il est ainsi engagé dans des démarches visant notamment l’amélioration des mécanismes de gouvernance en contexte numérique, pour favoriser des approches plus inclusives et éthiques relativement à la diversité culturelle et linguistique en ligne.
Nous l’avons rejoint en avril 2025 pour un entretien par visioconférence entre Montréal et Genève où il terminait un séjour sabbatique à titre d’expert en résidence au sein de la Délégation permanente de l’OIF auprès de l’Organisation des Nations unies (ONU). Nous voulions alors engager une discussion au carrefour des préoccupations qui animent ce numéro thématique de la Revue internationale des francophonies, en l’interrogeant sur l’interrelation qu’il explore lui-même dans ses recherches entre environnement numérique, mutations algorithmiques et découvrabilité d’une part, enjeux de diversité des expressions culturelles – que nous croisons ici avec l’idée de vitalité des scènes – dans l’espace francophone d’autre part. Plus encore, nous souhaitions entendre ce chercheur spécialiste des technologies numériques sur les complémentarités et tensions qui se jouent entre les considérations sociotechniques au cœur de ses travaux et celles, socioculturelles, qui demeurent incontournables pour saisir les logiques qui sous-tendent les pratiques de découvrabilité.
Avant toute chose, merci d’avoir accepté notre invitation durant votre séjour de recherche en Europe. Nous aimerions lancer cette discussion par une réflexion sur la définition de la découvrabilité, un terme polysémique qui recouvre de nombreux mécanismes et usages. L’insistance souvent forte sur ses dimensions technologiques, en cette époque d’omniprésence du numérique, nous semble parfois faire ombrage à ses composantes socioculturelles et aux humains derrière les contenus qu’il s’agit de rendre découvrables. Vous qui utilisez des termes forts tels qu’« algocratie » et « nécolonialisme numérique », comment articulez-vous la tension entre les pôles sociotechnique et socioculturel de la découvrabilité ?
C’est une excellente question qui met la table sur l’enjeu de la polysémie de la notion de découvrabilité, laquelle a justement différentes facettes et différentes dimensions, ou pôles sociotechnique et socioculturel. Mais avant de répondre au sujet des tensions en elles-mêmes, je vais revenir très brièvement sur la dimension polysémique de la notion et sur comment elle soulève des enjeux relativement à cette algocratie et au néocolonialisme numérique sous-jacent.
En fait, on l’a lu, on l’a entendu à plusieurs reprises, la découvrabilité réfère avant tout à la mise à disposition des contenus culturels (et donc de l’offre culturelle) en ligne et qu’on rend accessibles à un public, au plus grand nombre. Et il y a cette idée de pouvoir repérer, trouver le contenu, que ce soit par des moteurs de recherche, des outils de référencement et d’indexation. D’ailleurs, on fait une nuance en considérant que l’aspect de trouvabilité (ou findability), pour faire référence aux travaux de Peter Morville, ne constitue qu’une des multiples facettes de la découvrabilité, à savoir de rechercher un contenu de manière consciente et de pouvoir – à travers le titre d’un livre, d’un film, d’un morceau de musique ou le nom d’une ou d’un artiste – le retrouver ou ne pas le retrouver. La dimension de recommandation intègre plutôt des stratégies de mise en valeur, de promotion et de visibilité, notamment sous l’effet des algorithmes ou d’autres dispositifs sociotechniques de mise en avant du contenu. Derrière le fonctionnement des systèmes de recommandation se pose alors toute la question de la découverte par sérendipité, par pur hasard, sachant que les algorithmes ne sont pas si neutres qu’on peut parfois le penser, puisqu’ils jouent un rôle de sélection, de hiérarchisation et de mise en avant de certains contenus au détriment d’autres qui sont invisibilisés ou exclus des stratégies promotionnelles. La tension entre les dimensions sociotechnique et socioculturelle de la découvrabilité s’articule autour des sources d’exposition des contenus et des processus qui déterminent les trajectoires de découverte de contenus. Alors que la dimension sociotechnique obéit à des logiques algorithmiques qui concourent à la standardisation des goûts à travers la préconfiguration des usages et une découvrabilité programmée (ou automatisée), la dimension socioculturelle permet quant à elle d’envisager la découvrabilité comme une question de « survie culturelle » et obéit à des logiques de curation humaine ou d’exploration aléatoire qui favorisent la découvrabilité en s’affranchissant des biais technologiques et en intégrant une diversité de choix sur le plan des contenus mis en valeur, découverts et consommés. Face à l’offre culturelle prolifique, il y a par ailleurs une surabondance de contenus sur les plateformes de diffusion culturelle qui entraîne une paralysie de choix ; ce qui nous met, en tant qu’usagères ou usagers de ces plateformes, dans une situation de paresse métacognitive en matière d’appropriation même des interfaces et des algorithmes des plateformes, qui finissent par déterminer et se réapproprier nos goûts culturels. Et finalement, on se laisse guider par ce qui nous est suggéré, ce qui nous est recommandé. On subit donc un peu les influences des recommandations algorithmiques qui sont basées à la fois sur nos propres habitudes historiques de consommation (les recommandations personnalisées), mais aussi sur les préférences et les tendances de consommation culturelle du plus grand nombre (les recommandations basées sur des classements des meilleures écoutes, des palmarès, de ce qui est le plus populaire, de ce qui est le plus aimé ou le mieux évalué). Nous pouvons faire référence ici aux travaux de Kevin Mellet, un sociologue spécialiste des usages marchands des technologies numériques qui analyse remarquablement tous ces phénomènes en mettant en exergue les stratégies et mécanismes mimétiques de captation, d’orientation ou de détournement de l’attention collective à partir de la mise en visibilité des préférences des autres consommateurs et consommatrices, qui viennent influencer notre propre parcours de découvrabilité.
L’algocratie, ce filtre algorithmique qui est supposé être un dispositif d’aide à la décision, de ce qu’on choisit de consommer ou pas, s’appuie sur la rationalité algorithmique pour déterminer ce qui devrait nous satisfaire et donc, nous être recommandé culturellement. Ce faisant, ce pouvoir dont seraient dotés les algorithmes pour préempter de manière automatisée nos choix culturels nous enferme finalement dans ces fameuses bulles de filtres liées à nos propres univers de goût ou à la similarité des goûts que nous partageons avec d’autres usagers et usagères. Donc, sous l’effet des dispositifs sociotechniques, on subit les règles du jeu, les critères de recommandation opaques et les impératifs économiques imposés par les géants du numérique et qui influencent ce que nous découvrons et consommons comme culture, tout en alimentant par nos données d’usages les mêmes dispositifs et systèmes. Les tendances à la centralisation des choix culturels et aux catégorisations réductrices, sur le plan de la manière dont les contenus francophones sont classés, indexés et décrits par des métadonnées et mots-clés, amplifient les biais de découvrabilité au détriment des contenus culturels francophones nationaux qui sont de facto invisibilisés en raison de la domination et de la surexposition dont jouissent les productions étrangères ou internationales (notamment anglophones), qui sont majoritairement plus accessibles et plus découvrables sur les catalogues des grandes plateformes numériques.
En établissant un lien entre algocratie et néocolonialisme numérique, notre hypothèse est que l’hégémonie des géants technologiques anglophones instaure un impérialisme culturel numérique qui hiérarchise les cultures et reproduit des rapports de pouvoir déséquilibrés. Cela se traduit entre autres par le monopole des infrastructures de diffusion/distribution à l’échelle mondiale, l’extractivisme de nos données culturelles, l’assujettissement des contenus nationaux aux lois des concepteurs/développeurs d’algorithmes et des propriétaires de plateformes. En effet, autant les discours de ces plateformes nous suggèrent qu’il y a des recommandations qui sont très personnalisées, qui tiennent compte de nos goûts et de nos préférences individuelles, autant dans la réalité des faits, on assiste à une forme de standardisation liée aux cultures dominantes qui deviennent un peu comme la norme, ce qui est le plus recommandé. Et cela suscite évidemment, même sur le plan de nos comportements d’usagers et usagères, des stratégies différentes. Il arrive qu’on soit partagé entre, par exemple, faire des recherches très intentionnelles et précises via les moteurs de recherche ou se laisser suggérer par les algorithmes ce qu’on estime être le plus pertinent ou le mieux pour nous. Par ailleurs, on cherche aussi à être dans l’exploration de ce qu’on pourrait véritablement découvrir de nouveau. Dans ce cas, on va beaucoup s’appuyer, notamment, sur des dispositifs plus socioculturels, en lien avec nos réseaux sociaux informels, les recommandations émises par les proches (famille, amis), etc.
Donc voilà comment ces tensions se manifestent, avec la nécessité d’atteindre un point d’équilibre pour amenuiser les effets de la double asymétrie, à la fois technologique (c’est-à-dire la dépendance aux plateformes étrangères et à leurs algorithmes) et culturelle (soit l’uniformisation des contenus et la standardisation des goûts).
Vous faites bien le pont vers la prochaine question qui traite précisément du rapport entre les différentes formes de recommandations. On sait que les plateformes qui recomposent la chaîne de valeur en culture allient recommandation algorithmique et recommandation éditoriale, rappelant cette tension entre sociotechnique et socioculturel. Comment ces deux formes de recommandation interagissent-elles ? Quel rôle et quel pouvoir ont les acteurs sociaux dans ce contexte de « domination algorithmique » comme vous l’avez déjà nommé ?
D’abord, il y a cette statistique publiée en 2021 par l’Observatoire européen de l’audiovisuel qui m’avait beaucoup frappé : si l’on prend, par exemple, un catalogue d’une plateforme de vidéos sur demande, seulement 1 % du catalogue bénéficie de stratégies promotionnelles de mise en visibilité et de recommandations, que ce soit d’ailleurs éditorial ou automatisé par le fait des algorithmes. 1 % du catalogue, cela nous amène à nous poser la question de ce qui arrive aux 99 % restants par rapport à leur mise en avant, à leur promotion... Ces chiffres illustrent le fait que les systèmes de recommandation algorithmique versus – ou de manière complémentaire – aux processus de recommandation plus éditoriaux interagissent finalement dans une sorte de continuum entre automatisation et intervention humaine. Rappelons aussi, avant d’aller plus loin dans la réflexion, que les processus éditoriaux émanent de dispositifs de médiation s’imbriquant directement dans les « relations » entre les contenus, ceux qui les exploitent et ceux qui les consomment.
Parfois, on se rend très clairement compte qu’il y a des positionnements qui peuvent induire des logiques plus économiques ou commerciales plutôt que socioculturelles ou qui soient sensibles à la prise en compte des enjeux de diversité culturelle notamment. Déjà, si on prend l’angle de la complémentarité technique de ces deux types d’approche, on sait que les algorithmes utilisent souvent des approches hybrides entre le filtrage collaboratif, les approches de recommandations basées sur le contenu même, sur la similarité des contenus que nous préférons, et les approches basées plutôt sur les tendances de consommation du grand nombre. Si l’on considère l’exemple de Netflix, ce géant du streaming vidéo a l’habitude de fonctionner sur la base d’une carte de similarité des goûts, où chaque usager ou usagère est mis dans de grandes catégories de préférences et de goûts… Mais finalement, cette démarche répond à des objectifs de standardisation qui fait passer de la logique d’une offre sur-mesure (ou personnelle) telle qu’elle est promue et nous est vendue à une offre qui s’apparente plutôt à un « sur-mesure de masse ».
Quant aux recommandations éditoriales, il y a plutôt une tendance à vouloir corriger les biais liés aux processus d’automatisation et de recommandation algorithmique. La recommandation éditoriale met ainsi davantage l’accent sur la sélection ou la mise en avant de contenus en tenant compte de filtres thématiques par exemple, ou de la diversité linguistique ou culturelle. Certains choix éditoriaux priorisent également, ou mettent en avant, l’intérêt général, voire des enjeux de diversité – entendue ici sur le plan culturel, mais aussi parfois sur le plan du genre. Dans le secteur audiovisuel, cela peut consister à mettre en avant des acteurs ou actrices, des réalisateurs ou réalisatrices, ou encore des producteurs ou productrices de l’œuvre faisant l’objet d’une recommandation. De ce fait, la recommandation éditoriale est utile afin d’éviter d’enfermer le consommateur ou la consommatrice dans ses propres goûts, à travers des prédictions algorithmiques qui lui recommandent « mathématiquement » (selon un calcul probabiliste) les contenus qu’il ou elle serait plus susceptible de demander.
Personnellement, je dirais qu’il est nécessaire de trouver un compromis ou un équilibre entre ce qui va relever de la pertinence immédiate d’une recommandation automatisée, répondant aux goûts des usagers et usagères et à leurs besoins du moment, et la prise en compte d’une découvrabilité qui soit efficace sur du plus long terme, qui nécessite l’intervention ou la curation humaine. Je préconise souvent qu’à partir de ces deux modalités de découverte, il faudrait inventer de nouvelles formes d’intelligence éditoriale faisant le mix entre 1) nous respectons assez les goûts, les besoins et préférences de l’usager ou l’usagère pour ne pas le ou la perdre, pour maintenir son intérêt sur la plateforme, mais 2) nous lui proposons en même temps la possibilité d’élargir ses horizons et ses préférences culturelles de sorte à ce qu’il ou elle puisse aussi expérimenter de véritables découvertes de contenus qui n’auraient pas été possibles si on s’en tient uniquement à ses préférences ou à ses historiques de consommation. Cela pourrait susciter cette forme de curiosité culturelle, cette nouvelle appétence et développer ainsi de nouveaux goûts, ou façonner une nouvelle demande de consommation culturelle qui soit plus ouverte à l’exploration.
Tout ceci montre la nécessité d’articuler, d’une part, des critères qui peuvent être très optimisés avec les algorithmes et qui vont vraiment se baser sur nos préférences et nos habitudes de consommation culturelle avec, d’autre part, des recommandations de nature un peu plus qualitative, basées sur la prise en compte d’autres facteurs en lien avec notre environnement socioculturel, voire des recommandations qui peuvent venir d’un point de vue vraiment social, de notre réseau social, de notre proche entourage par exemple.
Il y aurait des parallèles à faire entre cette approche de la curation éditoriale et le travail que font par exemple des diffuseurs dans des salles de spectacle, qui ont ce rapport privilégié, de l’ordre de la confiance avec « leur » public. Une relation à long terme qui implique à la fois un aspect évidemment commercial, car il faut qu’une salle de spectacle soit rentable, mais aussi une relation de confiance qui se bâtit dans le temps, où les diffuseurs disent pouvoir amener le public dans de nouvelles zones et lui proposer de nouvelles choses… On en revient à la dimension humaine, à ce rapport humain dans la recommandation.
Je pense qu’avec les plateformes, il y a un enjeu de design attentionnel, car lorsqu’on pose la question aux personnes qui les utilisent, elles disent qu’elles ne sont pas forcément fermées ni désireuses de rester uniquement dans leurs habitudes. On se rend donc compte que l’enjeu réside dans la manière dont les espaces, les environnements numériques et les interfaces numériques sont structurés. La manière dont l’offre est présentée et structurée compte beaucoup. Il importe d’ailleurs de noter que la structuration des espaces, interfaces ou environnements numériques, permet de contextualiser et d’agréger des contenus qui auraient du mal à survivre seuls, alors que les publics ne souhaitent pas davantage de choix, mais plutôt de repérer ou de trouver plus rapidement les contenus et les œuvres qui les intéressent, et ce, de la manière la plus simple possible. De ce fait, l’intervention éditoriale des opérateurs de plateformes auprès des consommateurs ou consommatrices est considérée comme étant essentielle, car elle est l’une des meilleures façons, pour ces entreprises de diffusion en ligne, de se distinguer par rapport à la concurrence. Suivant cette logique, la plus-value du service n’est plus la qualité et la profondeur du catalogue, mais l’aide à la décision du choix de consommation et la qualité de la recommandation éditorialisée qui est faite à l’utilisateur ou l’utilisatrice du service.
C’est là en fait qu’on peut espérer encore davantage de la magie des processus éditoriaux versus l’automatisation qui, on le sait, va toujours relever de certains critères ou impératifs purement commerciaux ou économiques, qui n’ont pas forcément à voir avec l’éducation des publics et leur sensibilisation à apprécier des contenus locaux/nationaux ou à s’intéresser davantage à d’autres contenus diversifiés à l’échelle de la francophonie.
Attardons-nous maintenant davantage au pôle de la création : on parle beaucoup des leviers institutionnels et industriels aux actions permettant d’accroître la découvrabilité des contenus culturels. Or, sachant que les scènes telles que décrites par Will Straw émergent de concentrations d’activités expressives que les institutions culturelles ne sont pas en mesure d’absorber complètement, tout en favorisant l’affirmation d’expressions et d’identités marginales, quels leviers à la découvrabilité existe-t-il pour les actrices et acteurs culturels (artistes, intermédiaires, etc.) indépendants ?
Je vais commencer en disant que l’un des leviers sur lesquels devraient aussi s’appuyer ces actrices et acteurs culturels reste quand même le levier institutionnel. Et je vais expliquer pourquoi. D’abord, on se rend compte que de plus en plus, dans tous les chantiers que nous avons en matière de politiques et de lois pour soutenir la découvrabilité des contenus, il manque un plaidoyer pour des politiques culturelles numériques qui soient plus inclusives. Et donc, ces actrices et acteurs devraient être à même de réclamer, de revendiquer des mesures réglementaires qui se traduisent par le biais de financement ou par le biais de quotas, etc. Il y a la place pour attirer l’attention et sensibiliser davantage les décideurs publics sur les réalités auxquelles ces actrices et acteurs font face, ces réalités d’invisibilisation qui, de ce qu’on étudie et de ce qu’on voit, semblent être minimisées. Parce que même les politiques culturelles et les chantiers législatifs qu’on a actuellement, le fameux projet de loi en matière de découvrabilité au Québec (projet de Loi 109), je ne sais pas à quel point ça intègre des enjeux spécifiques à ces expressions ou identités culturelles qui sont déjà marginales ou minoritaires. Je donne juste un exemple et on va peut-être en reparler plus tard : quand on parle de favoriser davantage des contenus d’expression originale de langue française, on oublie la riche diversité linguistique qui peut trouver totalement sa place dans le patrimoine culturel québécois, et qui ne fait pas forcément l’objet ou la cible prioritaire d’une intervention politique en termes de mise en avant et de recommandation de contenus locaux/nationaux, parce qu’on va d’abord vouloir assurer la promotion des contenus de langue française. D’après des témoignages recueillis auprès d’artistes du Québec ou du Canada issus de la diversité – qui nous disent porter une identité hybride –, il semblerait que parfois, cette hybridité identitaire constitue un frein à leur mise en avant. En effet, elles et ils se sentent un peu exclus de la politique culturelle et des mesures ou stratégies de découvrabilité ciblant des artistes identifiés – ou des contenus ou des œuvres identifiées – comme étant purement québécois par la langue1. Il y a donc un plaidoyer à mener à cet égard-là.
Il y a aussi, au-delà de cet exemple de levier institutionnel, d’autres formes de mobilisation et de revendication, mais qui devraient peut-être s’appuyer sur des stratégies communautaires. Tout ce qui est de l’ordre de la mutualisation des expertises, du développement des pratiques collaboratives ; je pense ici à des exemples liés à la gestion de données entre des artistes marginaux, au renforcement des compétences en marketing numérique pour ces personnes qui sont à la marge et souvent oubliées. Parlant de stratégies communautaires, l’idée est aussi de s’appuyer sur des réseaux de recommandation de pair à pair, en partie pour contourner les logiques industrielles, y compris celles des algorithmes des plateformes dominantes. À ce compte, je parle vraiment de la nécessité de pouvoir s’appuyer sur des communautés engagées, des communautés de fans, des communautés de sujets et de pratique qui soient très engagées et qui, elles-mêmes, amplifient la visibilité de l’œuvre ou de l’artiste et de ses expressions marginalisées.
Je terminerai par la nécessité de tenir compte des leviers techniques, en me référant ici à l’optimisation, par exemple, en matière d’utilisation de métadonnées descriptives qui soient plus enrichies pour pouvoir mieux décrire certaines œuvres. Je parle de toutes ces expressions culturelles minoritaires qui ne sont pas assez décrites, qui sont simplement catégorisées dans des catégories un peu génériques, ou fourre-tout. Par rapport aux mots-clés et aux métadonnées, il importe en effet de trouver le moyen d’enrichir le vocabulaire pour décrire certaines œuvres en ligne. Pourquoi ne pas développer des taxonomies plus inclusives et des plateformes alternatives et ainsi sortir un peu des logiques de mise en visibilité imposées par les plateformes mainstream ? Une solution pourrait également être de créer des circuits de distribution numérique qui soient parallèles ou spécialisés, ou encore de niche, mais qu’on pourrait assumer comme tel parce qu’il y a un public qui pourrait être rejoint. Il est donc nécessaire d’investir l’espace numérique avec ces expressions culturelles et artistiques sous-représentées ou invisibilisées sans attendre forcément que ce soient les grandes plateformes existantes qui leur fassent de la place.
On reviendra précisément sur cet aspect à la fin de l’entretien, mais pour tout de suite, j’aimerais vous parler d’un rapport publié par l’Observatoire de la culture et des communications du Québec2 au sujet de la découverte des produits culturels et du numérique, qui révèle la place encore importante de l’entourage comme source et moyen utilisé par les auditoires internautes pour découvrir des contenus culturels. Sans nier la puissance des algorithmes, ne serions-nous pas néanmoins en train de minimiser, par une sorte de biais technologique, la puissance encore avérée des réseaux humains et de la mise en communauté dans notre rapport à la culture ?
Oui, tout à fait. Quand vous parlez de biais de perception, même dans la manière de problématiser ces questions-là, on part effectivement beaucoup de l’hypothèse de la puissance des algorithmes. Plusieurs études ont bien documenté et démontré que les biais culturels, technologiques et même linguistiques sont des biais systémiques induits par les machines. À titre d’exemple, les algorithmes, bien que puissants, reproduisent souvent des biais culturels systémiques hérités des données utilisées pour leur entraînement. L’illusion d’une intermédiation trop rationnelle ou d’une neutralité algorithmique pourrait aussi conduire à sous-estimer et ne pas considérer l’importance des interactions et des émotions entre le public, les œuvres ou leurs créateurs et créatrices.
Effectivement, on a tendance à ne pas trop considérer le levier que constituent la puissance et l’efficacité des réseaux humains, avec la force des communautés en ligne. Les résultats du rapport de l’OCCQ3 sont sans équivoque là-dessus, ils montrent à quel point on accorde encore de l’importance à l’entourage comme moyen et source de découverte. Qu’est-ce qui explique cela ? C’est le fait qu’on pense que notre réseau humain est encore plus fiable que les algorithmes qui peuvent nous induire en erreur ou nous enfermer dans des univers auxquels on a du mal à échapper. Ce qui vient des réseaux humains – et moi, je l’expérimente beaucoup actuellement à travers la découverte de nouvelles séries, j’essaie de m’appuyer sur des communautés de fans qui ont regardé et qui font des critiques – peut être subjectif, mais souvent, on voit très clairement des tendances se dégager et je trouve cela parfois beaucoup plus fiable que les notes que donnent les algorithmes à certains contenus. Je parle notamment du cas d’espèce de Netflix et des scores ou classements attribués par les algorithmes à certains contenus en fonction de leur compatibilité avec nos préférences. Il s’avère donc toujours pertinent de redonner toute la légitimité à ces réseaux humains, parce qu’on se rend compte que la complexité des dynamiques de consommation culturelle ou même l’évolution des usages culturels échappe vraiment aux limites mêmes que semblent vouloir imposer les technologies numériques. Finalement, on a des interactions humaines qui, de manière très contextualisée, peuvent nous apporter une plus-value et nous aider davantage dans la compréhension des besoins des publics, de leurs envies de découverte.
Il y a des nuances qui nous manquent et je dirais que ces nuances vont même jusqu’à influencer l’importance du processus de transmission culturelle aujourd’hui, qui doit encore reposer sur ces réseaux humains plutôt que sur des machines ou des algorithmes. Les communautés humaines seront irremplaçables et continueront de jouer un rôle essentiel en termes d’intégration, d’intelligibilité, d’adaptation, de compréhension et de prise en compte des nuances locales liées au contexte de production et de réception d’un contenu. Et comme je le disais, sur tout ce qui est transmission culturelle ou consommation transnationale de contenus étrangers, ou même du point de vue de l’exportation de nos contenus nationaux vers d’autres sphères de consommation qui ne sont pas forcément de la même aire géolinguistique de provenance, tout cela passe encore par l’influence des réseaux humains et des recommandations sociales et humaines.
Vous parlez de transmission et il y a le mot « éducation » qui me vient en tête également, quand on parle de rapport à la culture. On fait par exemple état des jeunes qui délaissent la culture québécoise, mais s’ils n’ont pas de contact avec cette culture, leur intérêt ne tombera pas du ciel non plus…
Absolument. L’un des engagements cruciaux des ministres de la Culture de la Francophonie, à travers la Déclaration de Québec adoptée à l’issue de leur dernière conférence4, mettait l’accent sur la nécessité de, et je cite : « Stimuler l’intérêt des jeunes publics pour la consommation de contenus francophones, en s’appuyant sur les institutions culturelles et éducatives, telles que les bibliothèques, musées et autres pôles de création et de diffusion culturelle et artistique, pour prendre en compte leurs demandes et besoins spécifiques en matière d’exploration ou de découverte culturelle, et en les responsabilisant par rapport à leurs comportements culturels en ligne »5. Il y a plusieurs études sur les usages culturels et habitudes d’écoute des jeunes qui démontrent qu’au-delà des mesures telles que l’imposition de quotas de contenus francophones, il importe également d’éduquer et de développer la sensibilité culturelle des jeunes usagers et usagères des plateformes de diffusion culturelle. J’ai moi-même mené récemment une enquête dans le cadre d’une recherche portant sur les pratiques de découverte culturelle et les habitudes de consommation des contenus francophones nationaux sur la plateforme TV5MONDEplus. Nous avons notamment essayé dans cette étude d’analyser à quel point le parcours de découverte des jeunes usagères et usagers africains de la plateforme peut être influencé par la sensibilité culturelle et l’appétence développée envers des contenus locaux. Nous avons ainsi pu constater l’importance du contexte et de l’environnement socioculturel comme un déterminant des découvertes et des choix de consommation de contenus, alors que les études de plateformes (ou Platform Studies) ont souvent tendance à se focaliser sur l’environnement numérique des interactions entre les usagers et usagères et les contenus, en négligeant le déterminant socioculturel dans les trajectoires de découvrabilité. Pourtant, l’environnement hors ligne joue lui aussi un rôle prégnant dans nos choix et processus de découverte.
Puisqu’on touche aux enjeux de sensibilité culturelle, j’ai une question au sujet du Québec qui a été un chef de file dans les mobilisations entourant la protection et la promotion de la diversité des expressions culturelles il y a déjà plus de vingt ans, un engagement qui se perpétue désormais en regard du contexte numérique. Les revendications portées en ce sens concernent par ailleurs essentiellement la défense du français, certes minoritaire à l’échelle mondiale, mais néanmoins majoritaire dans un contexte québécois de plus en plus pluriel où des langues d’un côté autochtones, de l’autre côté portées par des populations immigrantes sont pour le coup doublement minorisées. La manière dont se déploient les mobilisations et revendications autour de la protection et de la promotion du contenu culturel francophone ne risque-t-elle pas de faire oublier la multiplicité et la pluralité des scènes locales au Québec ?
Assurément, c’est une question à laquelle on doit accorder la plus grande attention et importance. Je pars du postulat qu’il ne peut pas y avoir de véritable dialogue des cultures si, au préalable, toutes les cultures ne se valent pas, ne sont pas mises sur le même pied d’égalité et n’ont pas la même capacité de pouvoir s’exprimer, d’être équitablement diffusées, promues, mises en valeur, découvertes dans leur grande diversité, incluant dans l’environnement numérique. Le facteur linguistique, quand il est associé aux enjeux de découvrabilité, devient la manifestation d’un marqueur identitaire et culturel très fort, qui est soumis à des tensions importantes liées à cette domination linguistique ou à cette acculturation par l’anglais via les plateformes et applications numériques. Il faut le dire, certaines personnes ne font pas le lien, mais le fait que les plateformes, les algorithmes soient conçus ou soient la propriété d’entités ou d’acteurs américains en grande majorité – sinon anglophones de manière plus large – fait en sorte qu’il y a déjà des biais où toutes les subtilités, les sensibilités en lien avec ces paramètres linguistiques et la mise en valeur des contenus francophones peuvent être ignorées ou mises à la marge. Ainsi, au lieu de favoriser la diffusion, la distribution, la découverte et l’accès élargi à une riche diversité d’expressions culturelles, l’environnement numérique tend plutôt à amplifier la consommation standardisée et homogénéisée d’une culture de masse. Dans un contexte de surabondance et d’hyper-concentration de l’offre culturelle globalisée en ligne, les plateformes numériques à ambition transnationale et leurs dispositifs algorithmiques ne garantissent pas une importante mise en visibilité et ne recommandent pas suffisamment les contenus culturels nationaux/locaux diversifiés, notamment ceux d’expression autre qu’anglaise.
Le plaidoyer pour la diversité culturelle et linguistique dans l’environnement numérique ne peut être mené sans réfléchir aux leviers institutionnels, politiques ou même technologiques qui peuvent répondre aux défis et enjeux d’invisibilisation des expressions culturelles diverses, voire d’uniformisation culturelle et linguistique en ligne. Il ne faudrait pas par exemple recréer ou reproduire une autre forme de hiérarchie entre le français et toutes les autres langues avec lesquelles le français cohabite, qu’on soit dans le contexte québécois ou canadien francophone, sinon dans le contexte francophone international plus large. J’aimerais ici mettre davantage le focus sur la F/francophonie, mais vraiment à l’échelle de tous ses 93 États et gouvernements membres qui ont le français en partage. L’Organisation internationale de la Francophonie prône comme valeurs la promotion de la langue française, mais aussi la cohabitation entre la riche diversité de langues constitutives de son espace. En considérant uniquement les pays de l’Afrique francophone, il y a un très grand bassin de langues dont certaines souffrent d’ailleurs actuellement de problèmes de préservation, de transmission et perdent de leur vitalité. Dans certains de ces pays, le fait que le français soit associé à la langue du colonisateur suscite des résistances notamment lorsque les discours institutionnels, officiels, politiques en lien avec la découvrabilité vont uniquement dans le sens de la mise en valeur ou de la promotion de la langue française. Ces personnes s’interrogent légitimement par rapport au sort réservé à toutes les autres langues nationales ou locales qui constituent une part de leur identité de francophones (pas juste de leur identité nationale) et qui ont besoin d’être promues et préservées. Et donc, le message à passer ici, c’est que dans les politiques et dans les lois ou mesures qui sont prises en matière de découvrabilité, il faudra vraiment veiller à ce que les populations francophones à l’intérieur de ces diverses nations francophones (notamment en Afrique), des populations qui revendiquent un sentiment d’appartenance à une communauté francophone qu’elles enrichissent à travers une diversité linguistique relevant de leur propre identité ethnique ou pluriethnique, ne se retrouvent pas à la marge et ne soient pas doublement minorisées. Ceci est aussi valable pour les langues des peuples et nations autochtones qu’on retrouve au sein de cet espace francophone commun. Les activités et initiatives de sensibilisation et de mobilisation de la société civile francophone devraient donc aussi accorder dans le futur une attention accrue aux enjeux d’accessibilité et de découvrabilité en ligne d’une diversité linguistique des contenus culturels de la francophonie. Il s’agirait, en même temps qu’on défend et promeut la langue française, de favoriser la découvrabilité des contenus dans diverses langues locales et nationales, afin de refléter cette multiplicité, ou cette pluralité des scènes culturelles locales constituantes des scènes francophones. Ceci pourrait passer par des efforts en matière de numérisation, de diffusion et de mise en valeur du riche patrimoine culturel disponible dans les langues locales, régionales, nationales et autochtones de l’espace francophone, multipliant ainsi la diversité des points d’accès et des sources d’exposition et de mise en visibilité des productions culturelles issues de ces divers horizons de la francophonie.
Vous avez spontanément élargi la discussion à la F/francophonie dans son ensemble alors j’en arrive à un rapport que vous avez coécrit au sujet de la découvrabilité et de l’accès aux contenus culturels francophones sur Internet. Vous y indiquez que l’omniprésence des technologies numériques « redessine progressivement une nouvelle carte culturelle du monde »6. À l’échelle de la F/francophonie, parcourue par d’importantes fractures numériques dans ses régions qui sont pourtant les plus densément peuplées (et en cela susceptibles de receler de « scènes » au sens de concentrations d’individus qui partagent des intérêts, valeurs, goûts et pratiques culturelles), comment peut-on qualifier cette reconfiguration ? Qu’en est-il de la pluralité des scènes culturelles francophones avec le numérique ?
Comme nous l’avons décrypté précédemment, le numérique transforme profondément les scènes culturelles francophones en générant à la fois des opportunités de visibilité et des risques de marginalisation des contenus linguistiquement diversifiés. La reconfiguration qui s’opère actuellement à l’échelle transnationale à travers la circulation accrue de flux d’échanges culturels du Sud vers le Nord et de l’Est vers l’Ouest constitue une opportunité de positionnement et de valorisation de la richesse culturelle de l’espace francophone et des scènes francophones. D’ailleurs, pour terminer sur les développements en lien avec la précédente question, il y a parfois cet amalgame sur le plan de la définition même du « contenu francophone », et je pense que ça peut être applicable ou transposable à la question des scènes francophones. Cet amalgame est très réducteur et fait en sorte qu’on associe tout de suite le qualificatif ou l’adjectif « francophone » à tout ce qui est « français », oubliant une fois encore les spécificités linguistiques régionales qui contribuent aussi à la riche diversité culturelle et linguistique de la F/francophonie. Pourtant, ce qui est formidable à observer actuellement, c’est justement que le parler français, le fait français a ses variations linguistiques, qui bénéficient de l’enrichissement et de l’hybridation de différentes langues – comme le créole, l’occitan, ou encore le nouchi, mélangé au français et utilisé en Côte d’Ivoire par des artistes slameurs. Si on prend l’exemple de la filière musicale et de ses scènes, on se rend aussi compte de ce souci qu’ont des artistes francophones, qui sont catégorisés dans la catégorie des « musiques du monde », de revendiquer le besoin d’être identifiés à travers l’identité qu’ils et elles veulent bien assumer, avec une démarche artistique qui s’appuie sur cette hybridation même de leurs différentes identités et parfois de leur parcours migratoire.
Pour revenir maintenant à la question de la reconfiguration des scènes culturelles francophones avec le numérique, tout à l’heure quand je parlais d’opportunité, ce n’était pas anodin : on a la chance de voir émerger de nouvelles scènes qui reflètent toutes sortes de fusions. On n’est plus dans cette hyper-culture globalisante (à laquelle référait Jean Tardif) qui effacerait certaines identités en essayant d’en imposer une seule. On assiste vraiment à des flux inversés de la mondialisation culturelle avec une éclosion et une émergence de scènes translocales. Je prends juste un exemple en musique, avec l’afrobeat : quand je parle de scènes translocales, on peut voir des ancrages territoriaux, mais en lien avec des présences diasporiques, des communautés diasporiques en France, dans les Antilles, dans les Caraïbes et qui portent ces rythmes, ces musiques, qui aujourd’hui vont nous parler non pas de « musiques du monde », mais d’afrofusion derrière laquelle elles assument une véritable identité francophone africaine. Je trouve que c’est cette circulation accrue de contenus culturels francophones, à travers et au-delà des continents, qui fait en sorte qu’on assiste aujourd’hui à des scènes qui favorisent des pratiques complètement hybridées, qui mêlent des créations locales avec des dynamiques de diffusion globale, le tout enrichi de certaines collaborations artistiques qui sont dématérialisées. On a maintenant des festivals en ligne, des tiers-lieux numériques qui donnent lieu à des collaborations artistiques via le numérique. Ce sont des choses qu’on avait vues émerger timidement pendant la pandémie, mais qui aujourd’hui deviennent des tendances. Il y a toutes ces nouvelles formes d’expériences immersives aussi, qui intègrent désormais la dimension virtuelle ou la réalité augmentée à certains festivals pour créer des environnements multisensoriels. Et au même moment, la convergence entre les arts numériques et les scènes physiques fait en sorte que les communautés ne vivent pas que pendant les festivals, mais vivent aussi dans des environnements numériques, que ce soit via des réseaux sociaux qui prolongent certaines expériences en amont ou en aval de certains événements, spectacles et festivals. Tout cela favorise vraiment une effervescence et un engagement de manière très asynchrone, de manière parfois sporadique, mais c’est la preuve que quelque chose est en train de muer sous nos yeux. Je trouve que ce sont les plateformes collaboratives qui essaient de connecter les artistes avec des publics au-delà du temps réel qui incarnent le mieux ces nouvelles tendances, ces nouvelles scènes émergentes. C’est à surveiller – même si le métavers reste encore un peu de la science-fiction – ; il y a tout de même des signaux à surveiller en termes de constitution, d’émergence et d’engagement des communautés qui caractérisent ces scènes-là, et je parle à la fois des communautés en termes de publics et en termes artistiques.
Ce que vous dites n’est pas sans me rappeler une typologie des scènes musicales qu’avaient proposée les auteurs Andy Bennett et Richard A. Peterson dans l’ouvrage Music scenes (2004)7, une typologie incluant la scène locale, la scène translocale et la scène virtuelle qui s’incarnent dans les exemples que vous citez, mais connaissent aussi des prolongements inédits semble-t-il… Pour poursuivre sur les enjeux de diversité des scènes culturelles, une tension s’affirme entre le numérique comme source de démocratisation des outils de création, ce qui devrait favoriser une certaine diversité des expressions, et le numérique comme gatekeeper8 de diversité avec ses logiques algorithmiques qui propulsent systématiquement certains contenus au détriment d’autres. En ce sens, comment et sous quelles conditions le numérique peut-il demeurer un catalyseur de la diversité des scènes culturelles ?
C’est dans tous les débats auxquels on assiste aujourd’hui avec le développement de l’IA générative, et ça peut se transposer à la problématique des scènes culturelles : est-ce qu’on est en train d’aller vers une uniformisation des modèles ou vers une plus grande diversité créatrice ? Ce sont des questions qui se posent à chaque fois qu’on a des vagues technologiques qui émergent ou qui nous submergent, et je pense que ce à quoi il faut accorder le plus d’attention, c’est que le numérique soit véritablement utilisé comme levier pour promouvoir l’accès à cette diversité, car malheureusement, même lorsqu’on parle de diversité des scènes culturelles, la problématique derrière et le véritable questionnement est de savoir comment cette diversité se manifeste. Du moins, si on s’en tient à ce qui se passe dans l’environnement numérique, la diversité existe, mais elle n’est pas incarnée en termes de véritable démocratisation culturelle, ou en termes d’accès à une diversité de scènes, de pratiques, d’artistes. L’offre culturelle a beau être plus que jamais diversifiée, elle n’entraîne malheureusement pas une consommation diversifiée au sein de l’environnement numérique. On en revient encore à toutes ces hypothèses qu’on essaie de vérifier dans nos recherches en lien avec la découvrabilité, à savoir s’il n’y a pas possibilité d’avoir des plateformes ou des algorithmes qui soient plus bienveillants, plus inclusifs. En assumant que les plateformes reconnaissent déjà qu’il y a un problème ; on ne veut pas juste les incriminer ou les accuser d’être le cœur du problème, mais bien (et c’est un effort à faire dans les discours publics) montrer qu’elles peuvent faire partie de la solution sans céder pour autant à toute forme de solutionnisme technologique naïf. L’idée serait simplement de dire : comment peut-on, avec les outils existants, faire en sorte de mieux refléter, de mieux incarner cette diversité culturelle et artistique, y compris au niveau des scènes culturelles transposées dans l’environnement numérique ?
Le deuxième aspect sur lequel on pourrait attirer l’attention, c’est l’enjeu d’équité, notamment en termes d’accès équitable aux cultures diversifiées. Évidemment, il y a des considérations en lien avec les fractures numériques et les infrastructures culturelles numériques qui ne sont pas disponibles partout à l’échelle de la F/francophonie. Il y a des régions qui sont encore très marginalisées et qui subissent une forme d’homogénéisation culturelle simplement parce qu’elles ne donnent pas accès équitablement à toutes les expressions culturelles et artistiques nationales, locales ou régionales par faute d’infrastructures, mais aussi par manque de formation et de compétences dans l’utilisation des outils numériques pour mettre en ligne, diffuser et accroître l’accessibilité d’œuvres nationales. Cette question de fractures numériques ne devrait pas être négligée ; il faut vraiment la prendre en considération quand on est au Québec, mais encore plus quand on se situe à l’échelle de la F/francophonie internationale.
Ensuite, je pense que pour que le numérique soit véritablement source de démocratisation des outils de création et qu’il propulse une diversité de scènes culturelles et d’artistes émergents de la F/francophonie, il faudrait passer par des politiques qui soient plus adaptées. Je parle ici de politiques à la fois nationales, mais aussi à l’échelle internationale. Le combat pour la diversité culturelle et ses acquis depuis les années 2000 sont totalement fragilisés aujourd’hui face à la transformation accélérée de l’environnement numérique à laquelle on assiste, et il ne s’agit pas que des impacts à peine perceptibles de l’IA (et en particulier de l’IA générative) ; je parle vraiment de tout ce qui se passe avec les plateformes de diffusion et leurs impacts directs sur la culture, sur les modèles d’affaires, sur la juste rémunération des créateurs et créatrices francophones. Pour que le numérique demeure un levier de diversité culturelle, on a l’obligation de conjuguer l’innovation technologique avec la dimension de la régulation éthique, de l’inclusion socio-économique, en faisant en sorte que ceux et celles qui n’ont pas voix au chapitre puissent avoir cette exposition et cette mise en avant sur différentes scènes, sur différentes tribunes, que ce soit dans l’environnement physique ou dans l’environnement numérique.
La prochaine question devrait justement vous permettre de pousser un peu plus loin cette dernière idée. Les plateformes numériques favorisent la visibilité des œuvres selon des critères en grande partie commerciaux, qui n’ont pas forcément à cœur les questions de diversité et la survie d’une multiplicité de scènes. Dans la perspective d’une « responsabilité algorithmique »9, comment les algorithmes peuvent-ils ou doivent-ils intégrer les principes d’équité, de diversité et d’inclusion (ÉDI) dans leur fonctionnement ?
Je pense que l’enjeu clé se situe au niveau des paramètres de conception de ces outils. On parle beaucoup d’IA responsable et donc, des enjeux de responsabilité algorithmique tels qu’ils ont été conceptualisés dans les travaux de McKelvey et Hunt. Il faudrait cependant ramener la problématique non pas à l’output (c’est-à-dire les extrants, ce qui sort ou ce à quoi on accède comme résultats par exemple des recommandations algorithmiques), mais plutôt à l’input (les entrants), en réfléchissant à comment agir en amont, sur la manière dont ces outils sont paramétrés et conçus. C’est là qu’il faudrait faire preuve de transparence : dans les critères liés au paramétrage des algorithmes. Si on parle des algorithmes de recommandation, il faut être en mesure d’expliquer ce qu’il y a derrière, ce qui fait qu’on obtient un certain résultat. Si on pouvait déjà avoir un peu de transparence à cet égard, cela aiderait à mieux comprendre, à avoir une explication des résultats, de ce qui nous est culturellement recommandé du point de vue des plateformes.
De plus, en évoquant la conception des outils, les développeurs de plateformes, d’applications ou de systèmes d’IA doivent fournir des efforts et s’engager pour que leurs systèmes ou leurs solutions soient plus inclusives. Il s’agit notamment de prise en compte de la diversité dans les équipes de recherche et développement des grandes entreprises du numérique. Mais cette question d’inclusivité et de diversité ne doit pas se limiter à la constitution d’équipes multiculturelles et diversifiées (incluant la diversité de genre) chez les développeurs ou les ingénieurs-concepteurs et ingénieures-conceptrices. Oui, c’est absolument important si l’on veut que les outils ne soient pas développés qu’avec des personnes d’une certaine origine ethnoculturelle ou d’un certain genre, porteuses d’une vision qui peut être biaisée et qui se reproduirait dans les outils développés et mis sur le marché. Mais cela va au-delà quand on parle de conception inclusive : c’est aussi une question de données sur lesquelles ces outils sont entraînés. Il s’agit également de s’assurer que ces données reflètent la diversité culturelle et linguistique ; de s’assurer d’avoir des mécanismes qui permettent de donner un peu plus de pouvoir aux utilisatrices et utilisateurs finaux, au public en fait, c’est dire aux usagers et usagères. Dans un monde idéal, je ne sais pas si cela peut passer par des lois ou des mesures, mais il s’agirait de trouver le moyen de rendre les algorithmes également paramétrables par les usagers et usagères. De sorte que, si l’on prend l’exemple de la musique, une personne mélomane, au lieu de subir les logiques algotoriales de Spotify par exemple – c’est le jargon utilisé pour parler de la prégnance de leurs algorithmes et de leur playlist algorithmique –, aurait la possibilité en tant qu’utilisatrice de déterminer le pourcentage de tel genre musical ou des musiques de telles origines. Bref, d’avoir une jouabilité qui permette d’expérimenter une vraie diversité en ligne, ce qui engendrerait forcément une diversité sur le plan de ce qui serait consommé plutôt que si l’on s’en tient uniquement aux logiques des grandes plateformes telles qu’elles fonctionnent aujourd’hui.
Un algorithme participatif, c’est intéressant. Voici une dernière question qui découle des recommandations de votre rapport sur la découvrabilité et l’accès aux contenus culturels francophones sur Internet, dont l’une est de soutenir et d’encourager le développement de plateformes alternatives à l’« oligopole de la découvrabilité »10 : en quoi consisteraient ces plateformes exactement, sur le plan du contenu qu’elles hébergeraient comme des caractéristiques des interfaces qu’elles constitueraient ? S’agit-il de multiplier les « scènes socionumériques » en quelque sorte ?
Absolument ! Moi, j’y crois beaucoup, même s’il faut mettre des nuances dans la formulation de cette hypothèse, ou dans cette recommandation d’avoir plus de plateformes alternatives. En effet, l’émergence ou l’arrivée de plateformes alternatives face aux géants mondiaux de la diffusion culturelle numérique permettrait d’avoir une offre certainement plus diversifiée, et qui soit beaucoup plus repérable aussi. Actuellement, même si les grandes plateformes promettent qu’elles font des efforts pour diversifier leur offre et rendre accessible sa diversité, cette diversité reste malheureusement noyée dans des catalogues de milliers de titres où une fois de plus, il faut s’en remettre aux algorithmes pour se repérer, à moins d’avoir déjà en tête ce qu’on veut consommer et d’avoir son autonomie en tant qu’usager ou usagère. Les plateformes alternatives auraient ce rôle de vitrine et de mise en avant de certains types de contenus diversifiés, spécialisés, nichés avec des interfaces adaptées aux besoins spécifiques de certains publics qui, aujourd’hui, n’arrivent pas à être satisfaits par rapport à ce que leur proposent les grandes plateformes. Et il y a les artistes qui sont aussi à la recherche de ces publics spécifiques, mais qui n’arrivent pas à les rejoindre parce que les mécanismes de découvrabilité existants sur les grandes plateformes ne permettent pas, de manière naturelle, de rejoindre ces publics.
Néanmoins, il faut faire attention et prendre en considération le risque de fragmentation des auditoires et, ce faisant, de fragmentation des scènes. Cela dit, je vois à ce compte davantage un gain en termes de constitution de communautés plus spécialisées qui se regrouperaient autour de plateformes dédiées, en réduisant ainsi quelque peu le dictat des grandes plateformes et de leurs algorithmes. On le voit très bien, il y a des plateformes alternatives qui peuvent être citées comme des exemples de bonnes pratiques. MUBI par exemple, ou LaCinetek dans le documentaire. On peut aussi citer la plateforme Tënk. Il y a des plateformes qui sont souvent présentées comme modèles de ce à quoi pourraient ressembler des plateformes alternatives communautaires, avec une diversification des modèles économiques proposés. Quand je parle de « diversité des modèles économiques », j’entends ici par exemple le fait de pouvoir avoir des financements participatifs ou des modèles de monétisation sans publicité, qui offriraient véritablement des alternatives au modèle des grandes plateformes uniquement basées sur la captation de l’attention et le fait de surfer sur les tendances du moment, les contenus les plus populaires, etc., pour générer plus de revenus publicitaires. Les plateformes alternatives, je les vois comme un véritable levier de résistance à l’uniformisation culturelle et c’est, en soi, la vocation qu’elles peuvent avoir : contribuer à développer des dynamiques qui favorisent davantage de démocratisation culturelle, où les œuvres marginalisées auront des chances de retrouver plus facilement leur public, quitte à ce que cela crée des micromarchés culturels qui sortent un peu du mainstream et qu’on ait une multiplicité ou une diversité de ce genre de microcircuits, de micromarchés. Mais au moins, cela constituera autant de vitrines et de sources d’exposition, c’est dire de découvrabilité de ces contenus qui, autrement, n’auraient pas assez de chances d’être découverts, d’être consommés dans l’environnement numérique.
C’est dire, contribuer à une forme de décentralisation des pouvoirs, mais à travers les plateformes elles-mêmes.
Tout à fait, à travers les plateformes elles-mêmes.
Merci beaucoup, Destiny, pour ce riche échange.
Merci à vous pour ce travail éditorial. Les questions m’ont permis de couvrir autant de paramètres, autant d’aspects et de facettes de l’enjeu et m’ont amené à sortir un peu des hypothèses que je prenais pour acquis.