Archives par mot-clé : google

Tendance zéro clic: leçons à tirer pour des initiatives plus marquantes

Wikidata - Cartographie des films et des lieux où se déroule l'action.
Wikidata, exemple de requête : cartographie des films et des lieux où se déroule l’action.

Mise à jour 2019-10-02: ajout d’un exemple récent d’initiative à fort potentiel transformateur.

La tendance zéro clic se confirme. Les moteurs de recherche fournissent dans leurs propres interfaces, des réponses, à partir de données collectées sur des sites web.  Ils sont ainsi les principaux bénéficiaires de l’information que nous structurons afin de rendre nos offres plus visibles.

Partenariat inéquitable

De plus, en développant des interfaces d’information spécialisées (voyage, musique,  musées, entre autres), ils se substituent aux agrégateurs et portails traditionnels. Cette désintermédiation est particulièrement dommageable pour les structures locales qui produisent de l’information. Celles-ci sont privées de données d’usage qui leur permettraient de mieux connaître leur marché et de s’ajuster à leurs publics.

Effacement de la diversité culturelle

Donc, lorsque nous décrivons nos offres à l’aide de données structurées, sur le modèle Schema.org, et de services comme Google Mon entreprise, nous travaillons pour des moteurs de recherche. De plus, nous nous conformons à un vocabulaire de description, une classification et une vision du monde uniques.  Ce constat est un problème pour la diversité culturelle, surtout pour les groupes ethniques et linguistiques en situation minoritaire.

Que faire ? Fournir un service minimum

Cependant, ne pas décrire  nos offres avec des balises sémantiques équivaut à refuser de faire indexer nos pages web par les robots des moteurs et, par conséquent, à rendre nos offres et nos contenus invisibles et incompréhensibles pour Google, Bing, Yahoo! et Yandex (moteur de recherche russe).

Alors, que faire pour ne pas demeurer des fournisseurs de contenus et de données (voir l’exemple des musées virtuels sur Google Arts & Culture) ?

Tout d’abord, il faudrait donner un « service minimum » aux moteurs de recherche en fournissant uniquement l’information qui est exigée pour certaines offres.  Google publie des instructions concernant les balises à renseigner, ainsi que les éléments de contenu à publier pour divers types d’offres.

Attention, Schema.org n’est qu’un vocabulaire. Ce n’est pas Google. Les moteurs de recherche exploitent les balises selon leurs propres règles. Celles-ci évoluent fréquemment, notamment, pour certains types de contenus.  Par exemple, Google annonce clairement ses préférences, dans le domaine du livre, en réservant son attention aux distributeurs qui utilisent les balises selon ses instructions.

Que faire  d’autre ? Aller vers le web des données

Nous mettons les moteurs de recherche et plateformes commerciales au centre de nos projets. Cependant, nous n’en maîtrisons pas le fonctionnement et nous n’avons aucun moyen de contrôle sur leur développement. Nous y investissons beaucoup d’efforts afin de positionner nos offres dans l’espoir d’accroître la consommation.

Et si nous élargissions notre définition de la découverte plutôt que de la centrer sur des activités de promotion ? Ne pas nous limiter à la finalité économique de l’utilisation des données nous permettrait d’en embrasser le plein potentiel pour le développement de la culture et de l’éducation. Si nous choisissions de développer des initiatives en dehors des systèmes contrôlés par les acteurs dominants de l’économie numérique, nous pourrions être plus ingénieux et, finalement, créer plus de valeur pour propres écosystèmes.

Apprendre à jouer collectif

Il y a 25 ans, ce 1er octobre,  Tim Berners-Lee fondait le World Wide Web Consortium pour permettre à une communauté mondiale de développeurs et spécialistes divers de collaborer afin de définir des standards pour maintenir un web ouvert, accessible et interopérable pour tous.

Accroître le potentiel de la découverte passe par la décentralisation de la gestion de l’information, le partage de connaissance sous forme de données ouvertes et liées, selon les standards du web et par une redistribution plus équitable du pouvoir décisionnel. Wikipédia, Wikicommons et Wikidata, qui sont des projets de la Wikimedia Foundation, exemplifient ce modèle contributif qui donne à chacun la possibilité de participer au contenu et à la gouvernance.

Inventer d’autres formes de découverte

Tous les acteurs du domaine culturel n’ont pas les compétences et les ressources requises pour évaluer, modéliser et connecter des données avec les technologies du web sémantique. Wikidata constitue une option plus accessible: le référentiel, le mode de gouvernance et l’infrastructure n’ont pas à être développés. Ceci a pour principal avantage d’expérimenter rapidement la production et l’utilisation de données liées.

Les requêtes préconstruites qui permettent d’interroger les données de Wikidata offrent un aperçu du potentiel d’un projet contributif pour la valorisation de l’information. Par exemple, la requête 6.16 qui permet de cartographier tous les films en fonction du lieu où se déroule l’action. Lancez la requête en cliquant sur le pictogramme (flèche blanche sur fond bleu) à la gauche de l’écran. Les données des films localisés au Québec ne sont pas exhaustives et sont souvent imprécises (information incomplète, lieu fictif).

Si d’autres sources d’information étaient disponibles sous forme de données liées, on pourrait imaginer une interface où se croiseraient des images des lieux, des biographies d’acteurs et actrices ou des titres de chansons.

*** Mise à jour 2019-10-02

Voici un autre exemple d’initiative qui prend sa source hors des règles imposées par les moteurs de recherche et plateformes. Il s’agit de projets réalisés avec Wikipédia par le Musée national des beaux-arts du Québec.  Cette initiative est à la fois, une contribution du musée à la connaissance mondiale, tout en permettant à l’institution d’explorer le potentiel du liage de données, de rejoindre des publics qui ne fréquentent pas de musées et de donner prise à une culture du réseau dans l’organisation. Nathalie Thibault, archiviste au MNBAQ, en mentionne les effets marquants:

Un des impacts positifs de ce chantier a été de bonifier la présence d’œuvres dans des collections d’autres musées au Québec et au Canada dans les articles bonifiés et non pas juste le MNBAQ. Nous souhaitons collaborer avec les autres musées du Québec, car les articles améliorés sur les artistes du Québec serviront certainement à d’autres institutions muséales.

***

En conclusion, il est souhaitable que nous ayons une alternative aux grandes plateformes pour développer nos compétences et mettre en valeur nos collections, catalogues, fonds et portfolios. Il faut cependant favoriser les initiatives qui ciblent des résultats marquants et transmissibles tels que la décentralisation des prises de décision, l’abolition des silos organisationnels et la mise en commun de données.

Le journalisme d’enquête et le graphe de connaissances de Google

Google annonce un changement à son algorithme afin de promouvoir le journalisme d’enquête.

Mais ceci servira surtout à améliorer la quantité de données contenues dans son graphe de connaissances (knowledge graph) et d’étendre son influence sur ce que nous voyons sur le web.

Diagramme: Intégration d'information collectée sur le web dans le graphe de connaissances de Google.
Intégration d’information collectée sur le web dans le graphe de connaissances de Google. Source: SEO by the Sea.

Bill Slawski est un spécialiste de l’optimisation pour moteurs de recherche. Sa formation de juriste lui permet de porte une attention particulière aux  demandes de brevet. Il en commentait  une, récemment, qui fait référence au développement du graphe de connaissances (knowledge graph) de Google.  Elle concerne l’intégration, dans son graphe,  d’information collectée sur le web, afin d’accroître la masse de données :

The patent points out at one place, that human evaluators may review additions to a knowledge graph. It is interesting seeing how it can use sources such as news sources to add new entities and facts about those entities.

Comme chez les autres entreprises dont le modèle d’affaires repose sur la donnée, une grande partie du traitement de l’information  et de la production de données résulte du travail non rémunéré d’amateurs et passionnés:

How can you teach an algorithm to understand all these distinctions? Gingras said Google is doing so through its Quality Raters, a global network of more than 10,000 individuals who offer feedback on Google’s search results, which in turn is used to improve the company’s search algorithms.

Google says it will do more to prioritize original reporting in search

Ceci sert-il les intérêts du journalisme ? Probablement, mais il est trop tôt pour le vérifier. Cela sert surtout à développer une connaissance très poussée de nos rapports à l’information et de permettre à d’autres d’influencer notre vision du monde et de fabriquer des opinions.  S’informer sur le scandale Facebook – Cambridge Analytica devrait nous faire prendre la mesure de l’intervention de  ces systèmes dans notre développement social, notamment, la fabrication d’opinions et d’antagonismes.

Produire des données : entre outils de marketing et bases de connaissances

La découverte optimisée pour les moteurs de recherche est-elle la  seule solution pour accroître la consommation de contenus culturels locaux ?  Sommes-nous à la recherche de nouveaux outils de marketing ou souhaitons-nous développer des bases de connaissances communes ?  Les résultats attendus à court terme, par nos programmes et partenaires  sectoriels, pèsent sur les choix qui orientent nos actions.

Google, je cherche un bon film à regarder

 

La découverte optimisée pour les moteurs de recheche

Google poursuit son évolution pour devenir notre principale interface d’accès à la connaissance. La tendance zéro clic est une  forme de désintermédiation des répertoires qui est similaire à celle que connaissent les sites des médias. Il y a quelques années que les réseaux de veille prédisent la transition des moteurs de recherche vers des moteurs de réponse.

Alors, est-il stratégique de baliser nos pages web avec des métadonnées (aussi appelées données structurées) pour que des machines comprennent et utilisent nos contenus dans leurs fiches de réponse ?

Améliorer le potentiel d’une information d’être repérée et interprétée par un agent automatisé est une bonne pratique à intégrer dans toute conception web, au même titre que le référencement de site web. Mais se contenter de baliser des pages  pour les seules fins de marketing et de visibilité n’est pas stratégique. Voici pourquoi:

  • Architecture de l’information conçue pour servir des intérêts économiques et culturels spécifiques.
  • Aucun contrôle sur le développement de la base de connaissances.
  • Uniformité de la présentation de l’information, quel que soit le pays ou la culture.
  • Modèle et vocabulaire descriptifs simples, mais adaptés à des offres commerciales (une bibliothèque publique est une entreprise locale).
  • Le moteur de recherche n’utilise que certains éléments du vocabulaire Schema.org et modifie son traitement des balises au gré de ses objectifs commerciaux (voir ce billet sur les mythes et réalité de la découvrabilité).

Des données pour générer de la connaissance

Les plans de marketing et de promotion ont des effets à court terme, mais ponctuels, sur la découverte. Cependant, nous devons parallèlement développer les expertises nécessaires pour concevoir de nouveaux systèmes de mise en valeur des offres culturelles et de recommandation qui répondent à nos propres objectifs. Ne pas également prioriser cette avenue, c’est accumuler une dette numérique et  accroître notre dépendance envers les plateformes et tout promoteur de solution.

Comme je l’ai souligné en conclusion d’un billet rédigé lors de recherches sur la découvrabilité et la « knowledge card » de Google, « , apprendre à documenter des contenus sous  forme de données est  une étape  vers le dévelopement de « nos propres outils de découverte, de recommandation et de reconnaissance de ceux qui ont contribué à la création et à la production d’œuvres. »

Pour cela, il faut élaborer collectivement nos propres stratégies pour faire connaître le contenu de répertoires et  rejoindre de nouveaux publics. Nous serions, alors, en mesure de concevoir des moyens  non intrusifs pour collecter l’information qui permet de comprendre la consommation culturelle.

Adopter une méthode de travail pour une réflexion stratégique

Concevoir et réaliser des projets autour de données liées (ouvertes ou non) demande un long temps de réflexion et d’échanges de connaissances entre des acteurs qui ont des perspectives différentes. L’initiative de la Cinémathèque québécoise peut être citée comme un excellent exemple de transformation organisationnelle par l’adoption d’une nouvelle méthode de travail.  Marina Gallet pilote ce projet qui vise à formaliser les savoirs communs du cinéma en données ouvertes et liées.  Elle a gracieusement partagé cette expérience lors de la dernière édition du Colloque sur le web sémantique.

Représentation de la diversité culturelle et linguistique

Il existe de nombreuses façons de décrire les oeuvres d’un album de musique ou un spectacle de danse. Pour représenter ces descriptions sous forme de données, il existe des modèles et vocabulaires pour différentes missions et utilisateurs.  Une part grandissante de ces vocabulaires est en données ouvertes et liées. Ces descriptions ne sont pas toujours structurées ou conformes aux standards du web, mais leur diversité est essentielle à la richesse de l’information. Il est vital que les vocabulaires utilisés pour décrire des offres et des contenus soient en français pour que la francophonie soit présente dans le web des données et qu’elle soit prise en compte par les systèmes intelligents.

Le Réseau canadien d’information sur le patrimoine annonçait ce printemps, la réalisation de la version française de référentiels en données ouvertes et liées. Philippe Michon, analyse pour le RCIP, explique comment ces référentiels essentiels au patrimoine culturel seront rendus disponibles en données ouvertes et liées.

Recherche augmentée: découverte selon les goût et l’expérience recherchée

Il faut cesser de reproduire des  interfaces et modes d’accès aux répertoires qui sont dépassés. On ne peut cependant améliorer la découverte sans investir le temps et les efforts nécessaires pour sortir de nos vieilles habitudes de conception.

Nos interfaces de recherche sont devenues obsolètes dès l’arrivée du champ unique des premiers moteurs de recherche. Nos stratégies de marketing de contenu pour le référencement de pages web  aident les moteurs de recherche à répondre à des questions, mais  effacent les spécificités en uniformisant l’architecture de l’information.

L’information qui décrit nos productions culturelles et artistiques est trop souvent limitée à des données factuelles. Il faut annoter des descriptions avec des attributs et caractéristiques riches et orientés vers divers publics et usages. Des outils d’analyse et de recommandation peuvent ainsi fournir de l’information ayant une plus grande valeur. Il ne faudrait pas espérer refiler ce travail à des intelligences artificielles: l’indexation automatique ne produira pas nécessairement des métadonnées utiles et pertinentes pour une stratégie de valorisation. De plus, il ne faut pas sous estimer la valeur que l’expérience humaine (éditorialisation, sélection, critique, mise en contexte) apporte à des services qui jouent un rôle prescripteur.

Soutenir le dévelopement de bases de données en graphes

La mise en valeur de répertoires et collections, ainsi que des actifs informationnels (textes, images, sons) d’organisations ne devrait plus reposer sur des bases de données classiques.  Les bases de données en graphes permettent de raisonner sur des données et de générer de la connaissance , en faisant des liens, à l’image de la pensée humaine:

Quelle est le parfum de glace préféré des personnes [qui] dégustent régulièrement des expresso, mais [qui] détestent les choux de Bruxelles ? Une base de donnée Graph peut vous le dire. Comment ? Avec des données de qualité, les bases de données Graph permettent de modéliser les données et de les stocker de la manière dont nous pensons et raisonnons dans le monde réel.

Ceci est tiré d’un bon article de vulgarisation sur les bases de données en graphe.

Choisir des méthodes de travail adaptées aux projets collectifs

Pour qu’un écosystème diversifié de connaissances (multidisciplinaire, multi acteurs) soit durable, il doit reposer sur la distribution des fonctions de production et de réutilisation des données entre des partenaires.  Il faut aussi réunir des initiatives collectives dans une démarche où le développement de connaissances et l’expérimentation ne sont pas relégués au second plan par des intérêts individuels ou commerciaux. Enfin, il faut élaborer et adopter de nouvelles méthodes de travail pour des projets collectifs.

Je reviendrai bientôt sur les éléments nécessaire pour la gestion participative d’une base de connaissances commune.

Architectures et bases de connaissances

Définir les finalités et les modalités des projets de liage de données est un long cheminement qui demande des apprentissages, des efforts concertés et du temps. Nos programmes devraient  être revus.  Mettre en place les conditions de réussite d’un projet collectif est un projet en soi. Il faut tenir compte d’un cadre de formation, d’une nouvelle méthode de travail et d’une progression dans la durée. Exiger des résultats à court terme oriente les projets vers des « solutions » et laisse peu de place à la remise en question des habitudes.

Nos initiatives doivent être conjuguées pour élaborer une architecture commune  de la connaissance.  Parce qu’elle sort du cadre de nos actions habituelles, c’est une avenue qui offre plus de potentiel, à plusieurs titres, que des stratégies de visibilité et de marketing.

Découvrabilité: mythes et réalité

Mise à jour 2019-05-24: ajout d’une question et sa référence, en conclusion.

La recherche du Graal de la découvrabilité, ce moyen qui accroîtra la «consommation» de nos produits culturels, peut-elle nous faire tomber dans le piège de la solution technologique qui nous fait oublier le problème ?

Solution simple et problématique complexe

Appelé « solutionnisme »  par l’historien des sciences Evgeny Morozov, c’est la proposition d’une solution technologique à un problème d’origine complexe. Ceci a pour effet d’escamoter les débats qui sont essentiels à la recherche de solutions pour le bien commun.

Moins de quatre ans se sont écoulés depuis le sommet qui a propulsé le terme « découvrabilité » jusque dans les hautes sphères décisionnelles, en culture. Depuis lors, des événements et programmes de financement de la culture ont intégré cette thématique ou certains de ces éléments les plus emblématiques, comme les métadonnées.

Je réalise, depuis quelques années, des ateliers sur la découvrabilité et les métadonnées, avec les Fonds Bell et Fonds indépendant de production. Une collaboration avec Marie-Ève Berlinger apporte à ma démarche exploratoire la dimension stratégique de la promotion numérique. C’est dans ce contexte que nous avions échangé sur les mythes de la découvrabilité, au cours du Forum avantage numérique.

Voici quelques constats qui se rapportent aux mythes qui sont spécifiques à la production de métadonnées pour les moteurs de recherche.

La découvrabilité n’est pas une finalité

La finalité d’un plan de découvrabilité est le fruit d’une réflexion stratégique. Celui-ci fournit les questions, le contexte et le cadre sans lesquels la découvrabilité n’aurait pas d’autre objectif que de fournir des données à un moteur de recherche. Ce sont les activités de marketing et de promotion qui produisent des résultats mesurables.

L’exploitation des métadonnées par les moteurs de recherche n’est qu’un des piliers de la découvrabilité. Cette approche a été illustrée dansle cadre d’un projet auquel je collabore, avec Véronique Marino et Andrée Harvey (La Cogency).

Illustration des 4 piliers de la découvrabilité, par LaCogency
Illustration tirée d’un projet de découvrabilité numérique de LaCogency.

Il est surprenant de constater que la stratégie et les moyens techniques ne sont pas intimement intégrés dans des projets numériques. Il y a une importante mise à jour des connaissances conceptuelles et techniques à opérer au sein des agences qui conseillent et accompagnent les organismes et entreprises.

La réponse n’est pas une page web

La fiche d’information qui constitue la réponse du moteur de recherche (à la droite de la liste de résultats) n’a pas pour objectif de diriger l’utilisateur vers une page web spécifique. Elle rassemble différents éléments d’information afin de fournir la réponse la plus précise possible. Il faut donc sortir de la logique de la liste de résultats et ne pas penser l’usage des métadonnées en fonction d’une destination.

Les liens entre les éléments d’information qui composent la fiche de réponse construisent des parcours qui orientent la recherche de l’utilisateur, sans nécessairement aboutir sur un site web. Par exemple, chercher une oeuvre de VanGogh, comme la Nuit étoilée, permet de mesurer la distance et les clics qui nous séparent du site web du Museum of Modern Art.

Ceci accroît la collecte des données d’usage qui permettent d’analyser l’intention, le comportement et la consommation de l’utilisateur. Plus les fonctions et choix offerts sont utiles, plus l’utilisateur demeure dans l’interface du moteur de recherche. Les agrégateurs d’information, qui font face à la désintermédiation de leur services, constateront probablement une diminution progressive du volume de données qui sont collectées sur leurs pages.

L’effet des métadonnées est dans la durée

Les résultats de l’utilisation de métadonnées pour décrire des contenus ne sont pas mesurables, au sens strict.

La qualité de l’encodage des métadonnées peut être validée, mais l’outil de test ne peut juger la logique de la description (interprétation des balises uniquement). Une validation que peu de producteurs de métadonnées semblent se donner la peine de faire. Il est également possible d’attribuer un indice de découvrabilité à  une information en fonction de critères spécifiques.

L’effet des métadonnées peut être observé sur un temps long. L’enrichissement progressif de la fiche de réponse illustre le potentiel qu’a une offre d’être liée par le moteur de recherche à d’autres informations. Il n’est pas possible de fournir des résulats immédiats et quantifiables, de façon similaire aux stratégies de référencement organique et payant de pages web.

Schema.org n’est pas le moteur de recherche

Schema est un vocabulaire commun de métadonnées qui a été développé pour les moteurs de recherche. Google recommande l’intégration des métadonnées sous forme de balises dans le code HTML d’une page afin de décrire l’offre qui y est présente. Cependant, les règles de l’algorithme évoluent au fil des expérimentations du moteur de recherche. Les métadonnées Schema qui étaient recommandées pour décrire des offres de type Movie, TVSeries et Music existent toujours. Cependant, Google n’en recommande plus l’usage et invite les entreprises concernées à faire une demande pour devenir des partenaires médias. Jusqu’où, alors, faut-il investir pour indexer une offre si le fonctionnement de l’algorithme et l’évolution du moteur de recherche nous sont inconnus ?

Une réflexion stratégique est nécessaire pour répondre à cette question. Deux avenues s’ouvrent:

1. Rendre des offres interprétables pour les moteurs de recherche (indexation) et appuyer la stratégie de référencement du site

  • Fournir uniquement les métadonnées Schema qui sont obligatoirement requises par le moteur de recherche. Ceci fait partie des bonnes pratiques du développement de sites web.
  • Tout comme pour le référencement, il est important d’assurer une veille sur l’évolution des fonctions analytiques et techniques des moteurs de recherche.

2. Valoriser les éléments d’un catalogue ou d’une collection en produisant un graphe de données liées

  • Fournir des métadonnées très riches selon le vocabulaire Schema.
  • Prévoir un important travail de modélisation (de préférence, par une personne compétente) afin de mettre en valeur des attributs et des liens, en travaillant sur les propriétés et les niveaux hiérarchiques.

Enjeux d’importance pour une stratégie numérique:

  • Aucun résultat garanti sur le traitement des métadonnées par le moteur de recherche. Ceci ne doit donc pas être l’unique objectif d’un tel projet.
  • Vocabulaire et modèle de représentation uniques: uniformisation de la représentation répondant aux objectifs d’affaires des moteurs de recherche.

Précision 2019-05-25: ce billet concerne uniquement le langage de balisage pour moteurs de recherche (métadonnées Schema) et non la représentation des connaissances avec les standards du web sémantique.

Pas de solution, mais quelques questions

L’uniformisation des modèles descriptifs est-elle un risque pour la diversité culturelle ?

La problématique de la «consommation culturelle» ne devrait-elle pas être abordée dans les deux sens ? En orientant nos projets sur la promotion,  nous oublions la relation au public et l’analyse de ce qui rend une oeuvre de création attractive. Ce rapport sur les pratiques culturelles numériques et plateformes participatives, piloté par la chercheuse Nathalie Casemajor, contient des pistes de réflexion à ne pas négliger, dont cellec-ci:

Les efforts de découvrabilité ne suffisent pas à eux seuls à créer l’appétence culturelle, et l’analyse des données consommatoires et comportementales n’est pas la panacée pour agir sur le développement des goûts et des dispositions culturelles en amont.

Nous devrions nous donner des moyens pour définir les modalités et conditions de la découvrabilité que nous souhaitons. Celles-ce se trouvent quelque part, entre le monde vu par une entreprise et celui que nous voyons au travers du prisme de nos cultures et sensibilités, d’une part,  et, d’autre part, entre lier des données pour un objectif de marketing et faire du lien social autour d’objectifs communs.

Moteur de recherche et désintermédiation

Il est possible de passer quelques heures, sur le web, à écouter de la musique et à croiser des artistes, connus et inconnus, en suivant des liens tissés par un algorithme. Et cela, sans quitter l’interface du moteur de recherche.

Désintermédiation des services d’information

Le moteur de rechercher devient une interface qui impose aux utilisateurs sa vision du monde, son algorithme, son modèle de classification et son régime de vérité: la popularité. Une uniformisation de la structure de l’information et des fonctions proposées qui efface la diversité des modèles et des expressions.

Service et application Google Voyages

Avec l’intégration de Google Voyages, grâce aux données collectées auprès des utilisateurs, il connaîtra les intérêts et comportements des voyageurs beaucoup mieux que les organisations touristiques locales et deviendra un partenaire priviliégé des entreprises touristiques. Celles-ci fournissent déjà, par le biais de Google Mon entreprise, les métadonnées qui permettent de lier et classifier les données, en mode hyperlocal. Face à une très probable désintermédiation, les associations touristiques devront mettre l’accent sur une organisation de l’information et des expériences que le moteur ne propose pas.

Nul doute que  cette nouveauté accroîtra l’intérêt pour les technologies de liage de données, tel que cette conférence sur les graphes de données, dans le domaine du tourisme.

Données liées et recommandation

I want AI-driven products to come with questions, suggestions or answers I wouldn’t have thought of.

Design Principles for AI-driven UX, Joël Van Bodegraven

Vers le métaweb. Matrice du niveau de connectivité sociale et informationnelle de Nova Spivack

Le web sémantique est cette évolution du web dont une des formes est l’utilisation d’un modèles de données structurées par des moteurs de recherche comme Google. Faire des relations sémantiques entre des données, à l’aide de métadonnées, facilite le raisonnement automatisé sur des inférences. Le web sémantique favorise la découvrabilité, mais permet surtout de repousser les limites que sont nos modèles de pensée et nos systèmes actuels.

Il est essentiel d’améliorer nos systèmes d’information et nos processus et d’adopter les meilleures pratiques du web des données  (diapos à visionner absolument) pour produire des données facilement exploitables.

Données structurées, données ouvertes et liées: est-ce la même chose ?

Données structurées et données ouvertes et liées sont des expressions dont l’usage indifférencié peut nuire à la prise de décisions qui ont une grande importance pour la réussite d’un projet dans le domaine culturel. Par données structurées , on fait ici référence à la technique d’indexation préconisée par Google (structured data). Ces expressions désignent deux manières différentes de travailler dans le web des données. Ce billet concerne les modèles de données et outils proposés afin de documenter des ressources pour les moteurs de recherche.

Un autre billet abordera les avantages spécifiques des données ouvertes et liées.

Guide des données structurées de Google pour documenter des livres.
Guide des données structurées de Google pour documenter des livres.

Google et le web sémantique

En 2013, Google effectue un des plus importants changements sur son algorithme de recherche en plus d’une décennie.

Baptisée Hummingbird , la nouvelle mouture s’appuie sur le sens et le contexte plutôt que sur la pondération de mots clés. Elle fait également appel à un savoir encyclopédique qui est organisé comme un graphe de connaissances et qui est constitué en grande partie à partir de Freebase, une base de données structurées collaborative, acquise par Google. Cette masse de données, appelée Knowledge Graph, permet de à l’algorithme de classer l’information et, de ce fait, de savoir à quelles autres informations elle est liée. C’est une logique similaire à celle de Wikipédia, où chaque article comporte plusieurs liens internes et externes.

La nouvelle version de l’algorithme peut donc effectuer des recherches en mode « conversationnel » (Où faire réparer mon téléphone?) et, surtout, améliorer les résultats de recherche grâce aux concepts du web sémantique: des métadonnées qui donnent le sens des données et qui permettent de faire des liens qui produisent de l’information. En comprenant le sens et le contexte de la demande, il devient possible, pour le moteur de recherche, de mieux interpréter l’intention de l’individu qui la transmet.

De la liste de pages web aux résultats enrichis

Depuis, la recherche de (méta)données qui font du sens prend progressivement le pas sur la recherche de mots clés. C’est une transition que l’on peut très facilement constater sur nos écrans mobiles. Nous passons donc d’une liste de pages qui comportent les mots clés recherchés à une agrégation d’informations qui résulte de liens entre des données structurées.

Il y a toujours une recherche de pages, mais ce sont les données qui décrivent des « ressources » (personnes, choses, concepts) qui sont désormais importantes. Au web documentaire, celui où l’information est présentée métaphoriquement en pages, s’ajoute le web des données, celui où toute connaissance est de la donnée qui peut être collectée et traitée par des machines. Celles des moteurs de recherche et celles de toute entité qui souhaite s’en servir pour développer un service ou un produit qui aurait de la valeur.

Schema: représentation pour moteurs de recherche

Les données structurées sont exprimées selon un modèle de métadonnées qui a été conçu par un regroupement de moteurs de recherche (Google, Bing, Yahoo! et le russe, Yandex). Ces données sont publiées dans le code HTML des pages où sont présentées les ressources qu’elles décrivent. Ces données sont publiques, mais pas ouvertes. Mais ce sont cependant des données liées puisque le modèle Schema permet de produire des triplets (symphonie pour un homme seul (sujet) – est de type (prédicat)- électroacoustique (objet)). Quelques exemples sont présentés dans un billet précédent l’usage de données structurées par Google. Le rôle des données structurées et des liens vers Wikipédia est expliqué plus en détail dans un guide sur la documentation des contenus produit pour le Fonds indépendant de production, avec la collaboration de TV5.ca et l’appui de la SODEC.

Apprendre à documenter: une étape nécessaire

Alors, documenter une ressource à l’aide de données structurées, en intégrant celles-ci dans la page web de la ressource, est-ce « travailler pour Google » ?

Oui, bien sûr. Mais, ce n’est qu’un premier pas dans l’apprentissage pratique du rôle clé des données dans une économie numérique. Mais s’en tenir à cette étape, c’est conformer notre représentation de la culture à un modèle de représentation et à des impératifs d’affaires qui sont hors de notre contrôle et qui ne répondent à des impératifs économiques qui avantagent la plateforme.

Ne pas dépendre d’entreprises qui se placent au-dessus des lois et des États est un des enjeux qui motivent des gouvernements et des institutions à soutenir, par des politiques et des programmes de financement, des projets basés sur les principes et les technologies du web sémantique qu’ils peuvent contrôler. Nous verrons, dans un prochain billet, les opportunités qu’offrent ces technologies pour l’innovation et la promotion de la culture.

Découvrabilité : quand les écrans ne sont plus nécessaires 

Présentation donnée lors de la clinique d’information du Fonds Bell, le 17 octobre 2017, à la Cinémathèque (Montréal).

Mise à jour (16 février 2018):  Cette présentation accompagnait le lancement du guide Êtes-vous repérables ? Guide pratique pour documenter vos contenus , réalisé pour le Fonds indépendant de production, avec la collaboration de TV5.ca et l’appui de la SODEC .

La découvrabilité qui devrait intéresser plus particulièrement tout créateur et producteur de contenus résulte de la présence, dans le web, de données descriptives qui sont intelligibles et manipulables par des machines. Il ne s’agit pas de campagnes de promotion, ni de référencement de pages web, mais de la documentation de  contenus (textes, images, vidéo, enregistrements sonores et toutes autres types de ressources).  Ces trois types d’activité visent des objectifs spécifiques et complémentaires.

Les changements qui affectent la visibilité et la découvrabilité

La plus grande proportion du trafic sur le web est portée par les petits écrans mobiles.

Graphique: le trafic web est porté par les écrans mobiles

Liens utiles:
Smartphones are driving all growth in web traffic
Search engine market share – Mobile – Canada
Cahier de Tendances N°11 : au delà du mobile, France Télévisions

Les moteurs de recherche s’adaptent aux petits écrans.
Lorsque l’information qui décrit un contenu est disponible dans un format que les moteurs peuvent traiter, la liste des résultats de recherche passe au second plan.

Face à la surabondance d’information et de contenus, la pertinence de la recommandation devient un facteur important de fidélisation.

Google - Résultat de recherche sur téléphone

Recherche vocale et assistants virtuels: l’information sans écran.
Plus de 30 millions d’assistants vocaux dans les foyers, aux États-Unis, d’ici la fin de l’année

Assistants virtuels ou assistants vocaux

Liens utiles:
More than 30 million ‘voice-first’ devices in US homes by year end [Report]
Report: 57% of smart speaker owners have bought something with their voice
Gartner Predicts 30% Of Searches Without A Screen In 4 Years

Ces nouvelles interfaces du web n’ont pas d’écran et ne peuvent dont nous répondre en nous fournissant une liste de résultats.
« Enfin et c’est cela qui pose à mon sens le plus gros problème dès que l’on sort de la seule sphère « commerciale », il y a … « le choix d’Alexa », c’est à dire l’idée que bien sûr Amazon / Alexa ne va pas nous « lire » une série de réponses suite à notre requête mais nous en proposer une seule, mettant naturellement en évidence des produits vendus par la marque hôte.» (La voix et l’ordre, billet d’Olivier Ertzscheid).

Moteurs de réponses et de suggestions
Lorsque les données qui décrivent un contenu sont accessibles, intelligibles et manipulables par des applications, elles peuvent être triées par des algorithmes et liées à d’autres données qui décrivent un même auteur, lieu, création, objet, producteur, etc.  Un contenu peut se trouver sur la parcours d’un internaute des décennies après sa création.

Liens utiles:
Les sites web sont-ils en voie de disparition ?
#DIVERTISSEMENT Les algorithmes vont-ils mettre fin à la tyrannie du choix ?
How Netflix will someday know exactly what you want to watch as soon as you turn your TV on

Les moteurs de recherche comprennent-ils nos contenus?

Les pages web sont faites pour être lues par des humains. Les machines ne comprennent pas le contenu de la page, mais elles peuvent manipuler des données qui s’y trouvent  lorsque celles-ci sont mises en contexte grâce à des métadonnées et sont dans un format qu’elles reconnaissent.

Pour savoir si un moteur de recherche peut faire des liens entre votre websérie et d’autres informations disponibles dans le web, il suffit de chercher celle-ci afin de voir si une fiche d’information est produite.

Validation des données structurées: recherche de la série Carmilla.
Chez Google, la fiche d’information, appelée Knowledge card, est générée grâce à  la mise en contexte des données qui décrivent le contenu avec son modèle de classification des connaissances (Knowledge graph). Ces mêmes données descriptives sont mises en relation avec celles d’autres plateformes comme Wikidata (les données structurées de Wikipédia) et, selon le contexte, avec les données de plateformes spécialisées.

Dans le domaine du cinéma, de la vidéo et de la télévision, nous pouvons retrouver les données issues des agrégateurs IMDb (Internet Movie Database,  propriété d’Amazon), AlloCiné et Rotten Tomatoes. Notez que le contenu de ces plateformes n’est pas produit par une seule organisation, mais par des utilisateurs et/ou des producteurs de contenus.

Ce sont des données structurées qui, chez les moteurs de recherche comme Google et Bing , permettent de faire des liens sémantiques qui fournissent une description succincte ou détaillée  d’un contenu dans une fiche d’information. C’est cette fiche qui tend à occuper un espace de plus en plus important sur nos écrans.

De la même manière qu’il a fourni aux développeurs des instructions pour faciliter le référencement de sites web, Google fournit désormais des instructions et des outils pour encourager la production de données structurées. L’outil de test des données structurées détecte la présence de ces données dans une page web et, le cas échéant,  signale les erreurs à corriger et les améliorations possibles.

Google: validation des données structurées: page d'accueil de Louis-Jean Cormier.

Il est également possible de produire des métadonnées pour décrire un contenu qui est présent dans une page web sans connaître le modèle de métadonnées Schema et sans programmation. L’outil d’aide au balisage des données structurées qui est proposé par Google permet de copier les données qui sont encodées en JSON-LD, un format pour les données liées, et de les coller dans le code HTML de la page web où se trouve le contenu.

Google: outil de balisage de données structurées, page web de Vincent Vallières

Cet outil présente un intérêt supplémentaire: il indique les informations qui devraient apparaître dans la page de présentation d’un contenu. De trop nombreuses pages web où sont présentés des films, spectacles, livres, pièces musicales ou œuvres d’art ne contiennent pas le minimum d’information qui permettrait aux moteurs de recherche de les lier à d’autres informations dans le web.

Plus l’information qui décrit le contenu est détaillée et riche, plus grand est le potentiel de celui-ci d’être lié à d’autres contenus et donc, d’être découvert.

Documenter nos contenus, n’est-ce pas travailler pour Google et cie?

Documenter (ou indexer) un contenu, tout comme faire du référencement de pages web, c’est normaliser et organiser la  représentation de celui-ci.  C’est, effectivement, contribuer à l’amélioration continue des applications et des algorithmes des moteurs de recherche.

Mais c’est également une étape nécessaire pour apprendre à nous servir de nos données et, par la suite, développer nos propres outils de découverte, de recommandation et de reconnaissance de ceux qui ont contribué à la création et à la production  d’œuvres.

Libérer le potentiel de nos données culturelles ou laisser d’autres en tirer profit

Silos riachuelo

Tu peux produire de l’excellent contenu, mais s’il ne fait pas partie du web, il ne fait pas partie du discours universel.

Tim Berners-Lee, en entrevue avec Jean-François Coderre pour La Presse.

C’est une affirmation que de nombreux états, institutions et entreprises tiennent désormais pour une réalité. Une réalité que plusieurs expérimentent depuis quelques années déjà et qui s’impose encore davantage à ceux qui observent les transformations qui sont à l’œuvre  dans le web , notamment du côté des moteurs de recherche.

Alors, ne devrions-nous pas élaborer une approche stratégique afin de regrouper et de structurer notre offre culturelle plutôt que d’encourager la production de silos d’informations qui sont difficilement exploitables ?

Comment tirer notre épingle du jeu numérique ?

Il faut nous attaquer à la dispersion de l’offre culturelle, d’une part, et d’autre part, à l’absence de vision transverse sur les données. Autrement, incapables de développer nos propres modèles d’exploitation numériques, nous risquons d’être confinés aux rôles de fournisseurs et de clients de plateformes beaucoup plus attractives et efficaces que nos sites web.

Principal défi: sauf dans des domaines, comme les bibliothèques et  les archives, les organisations ont, en général, peu d’intérêt ou de ressources à investir pour la production de métadonnées standards. Cela pourrait cependant changer.

Données structurées pour moteurs de recherche en quête de sens

Les moteurs de recherche privilégient de façon croissante les contenus web dont la description leur est fournie par des données structurées (appelées quelquefois,métadonnées embarquées). Schema est le modèle de métadonnées soutenu par les grands acteurs du numérique, tels que Google, Microsoft et Apple afin d’alimenter les algorithmes qui fournissent de l’information plutôt que des listes de résultats. Google offre même aux développeurs des modèles descriptifs pour des types de contenus dont la liste s’allonge progressivement.

L’utilisation de la base de connaissance Knowledge Graph, d’un modèle de métadonnées qui est dérivé de la syntaxe du web sémantique (RDF ou Resource Description Framework) et d’un  format d’encodage de données liées (JSON-LD ou Java Script Object Notation for Linked Data) témoigne de la préférence de Google pour le web des données et les liens permettant de générer du sens.

Avec Schema, qui facilite l’intégration des données dans des pages HTML (il existe également des extensions spécialisées pour WordPress), les robot indexeurs et les algorithmes des moteurs de recherche deviennent donc beaucoup plus performants. Il n’est déjà plus nécessaire de quitter leur interface pour trouver une information ou découvrir, par exemple, de nouveaux groupes musicaux.

La production de données structurées est une technique qui deviendra rapidement aussi essentielle que l’optimisation de pages web. Mais une technique, aussi efficace soit-elle, n’est qu’un moyen et ne peut remplacer une stratégie.

Regrouper et structurer notre offre culturelle

Les données doivent pouvoir être extraites des silos existants et reliées entre elles grâce à des métadonnées communes. Les éléments d’information produits par chacun des acteurs du milieu des arts et de la culture peuvent ainsi être reliés de façon cohérente afin de constituer une offre d’information globale et riche et de nous fournir une meilleure visibilité sur les données relatives à l’accès et à l’utilisation de contenus.

Comment accompagner la transition ?

Comment extraire les données descriptives des bases de données et les normaliser ? Comment définir les métadonnées qui formeraient les éléments descriptifs essentiels pour permettre de relier entre eux des ensembles de données qui  utilisent des référentiels standards mais différents ? Et, surtout, comment convaincre les producteurs de données de l’importance de l’interopérabilité et de la structuration intelligente des données ?

Dans cette perspective et afin de travailler collectivement à définir des pistes d’action, nos politiques et programmes devraient jeter les bases d’un projet de mise en commun des données culturelles en soutenant:

  • L’adoption des meilleures pratiques en matière d’indexation de contenu avec des métadonnées et une syntaxe de description qui s’adressent aux machines;
  • L’élaboration d’un un ensemble de métadonnées de base (modèle de médiation) qui permette de « faire la traduction » entre les différents standards et vocabulaires employés selon les domaines (musique, cinéma, arts visuels) et les missions (bibliothèque, archives, commerce, gestion de droits);
  • La libération des données qui décrivent nos créations artistiques, nos produits culturels, nos talents et notre patrimoine. Les données ouvertes constituent une première étape vers la diffusion de données ouvertes et liées.
  • L’acquisition des compétences techniques et technologiques qui sont requises afin de concevoir et de maintenir des outils pour faciliter la saisie et la réutilisation des données par les acteurs concernés.
  • L’harmonisation des différents modèles d’indexation documentaire (référentiels transversaux pour la production des données culturelles, cartes d’identité des biens culturels) au sein du Ministère de la Culture et des Communications.
  • Une étroite collaboration entre les institutions et les organismes producteurs de données autour de la rédaction d’une politique des métadonnées culturelles.

On ne devient numérique qu’en le faisant. Mais c’est un chantier qui repose davantage sur la collaboration et la mise en commun de l’information que sur la technologie.

Web des données: les connexions qui transforment

Web des données depuis 4 ans (2010).

Comme il est possible de le constater en effectuant une recherche avec Google, le web se transforme progressivement et, avec lui, les systèmes d’information.

Nous passons de bases données qui sont conçues pour retrouver une information à des données ouvertes et liées qui, publiées dans le web, permettent à des machines d’établir des connexions et de générer, par inférence, une information qui ne se trouve pas dans notre base de données.

Sélection de lectures parmi mes signets les plus récents sur Diigo:

Connexion

Le web a été conçu pour être exploré par des humains et par des machines. Pour les modèles d’affaires numériques, la découverte de ce que nous ignorions a beaucoup plus de valeur que la recherche de choses que nous connaissons.  C’est, notamment, pour cette raison que les géants du numériques investissent dans les technologies du web sémantique (ou web des données) car elles permettent de représenter les connexions possibles entre différents éléments d’information.

“The value that I see going forward is the linking part of the data environment,” Wiggins added. “You start searching at one point, but you may be linked to things you didn’t know existed because of how another institution has listed it. This new system will show the relationship there. That’s going to be the piece that makes this transformative. It is the linking that is going to be the transformative.”

Searching for Lost Knowledge in the Age of Intelligent Machines – As search engines are radically reinvented, computers and people are becoming partners in exploration.

Curation de données

Nouvelle compétence clé: la curation de données, à la quelle on ajoutera le nécessaire esprit critique qui ne peut être remplacé par les algorithmes.

Avec tous les algorithmes statistiques et tous les outils d’analyse automatique de données (« big data analytics ») du monde, nous aurons encore besoin d’hypothèses causales, de théories et de systèmes de catégorisation pour soutenir ces théories. Les corrélations statistiques peuvent suggérer des hypothèses causales mais elles ne les remplacent pas. Car nous voulons non seulement prédire le comportement de phénomènes complexes, mais aussi les comprendre et agir sur la base de cette compréhension. Or l’action efficace suppose une saisie des causes réelles et non seulement la perception de corrélations. Sans les intuitions et les théories dérivées de notre connaissance personnelle d’un domaine, les outils d’analyse automatique de données ne seront pas utilisés à bon escient. Poser de bonnes questions aux données n’est pas une entreprise triviale !

La litéracie en curation de données

Médiation

Comment éveiller des décideurs aux changements radicaux qui sont annoncés partout, mais qui ne s’expérimentent pas dans le quotidien puisqu’il se transforme de façon beaucoup plus lente et progressive ?

In addition to the artworks and product demos, there are video infographics explaining what companies can and are doing with your data right now, whether it’s credit score calculation, email metadata analysis, or how your wifi-enabled smartphone is basically always snitching on you.

Once you’re thoroughly alarmed by the reality of what we have given up in freedom for the conveniences wrought by our ad-driven world, the team has helpfully created a Data Detox Bar where you can learn about reasserting control over your network existence and limiting your exposure. And the entire exhibit is staffed with all white-wearing “Ingeniouses” who will answer questions or just provide a shoulder to scream into after discovering that there is no such thing as “anonymized data.”

For the truly curious, of which I am one, there are workshops and presentations that provide an even deeper look into the gaping maw of our networked world.

Go to The Glass Room. If Black Mirror Had a Showroom, This Would Be It