Archives par mot-clé : stratégie

Produire des données : entre outils de marketing et bases de connaissances

La découverte optimisée pour les moteurs de recherche est-elle la  seule solution pour accroître la consommation de contenus culturels locaux ?  Sommes-nous à la recherche de nouveaux outils de marketing ou souhaitons-nous développer des bases de connaissances communes ?  Les résultats attendus à court terme, par nos programmes et partenaires  sectoriels, pèsent sur les choix qui orientent nos actions.

Google, je cherche un bon film à regarder

 

La découverte optimisée pour les moteurs de recherche

Google poursuit son évolution pour devenir notre principale interface d’accès à la connaissance. La tendance zéro clic est une  forme de désintermédiation des répertoires qui est similaire à celle que connaissent les sites des médias. Il y a quelques années que les réseaux de veille prédisent la transition des moteurs de recherche vers des moteurs de réponse.

Alors, est-il stratégique de baliser nos pages web avec des métadonnées (aussi appelées données structurées) pour que des machines comprennent et utilisent nos contenus dans leurs fiches de réponse ?

Améliorer le potentiel d’une information d’être repérée et interprétée par un agent automatisé est une bonne pratique à intégrer dans toute conception web, au même titre que le référencement de site web. Mais se contenter de baliser des pages  pour les seules fins de marketing et de visibilité n’est pas stratégique. Voici pourquoi:

  • Architecture de l’information conçue pour servir des intérêts économiques et culturels spécifiques.
  • Aucun contrôle sur le développement de la base de connaissances.
  • Uniformité de la présentation de l’information, quel que soit le pays ou la culture.
  • Modèle et vocabulaire descriptifs simples, mais adaptés à des offres commerciales (une bibliothèque publique est une entreprise locale).
  • Le moteur de recherche n’utilise que certains éléments du vocabulaire Schema.org et modifie son traitement des balises au gré de ses objectifs commerciaux (voir ce billet sur les mythes et réalité de la découvrabilité).

Des données pour générer de la connaissance

Les plans de marketing et de promotion ont des effets à court terme, mais ponctuels, sur la découverte. Cependant, nous devons parallèlement développer les expertises nécessaires pour concevoir de nouveaux systèmes de mise en valeur des offres culturelles et de recommandation qui répondent à nos propres objectifs. Ne pas également prioriser cette avenue, c’est accumuler une dette numérique et  accroître notre dépendance envers les plateformes et tout promoteur de solution.

Comme je l’ai souligné en conclusion d’un billet rédigé lors de recherches sur la découvrabilité et la « knowledge card » de Google, « , apprendre à documenter des contenus sous  forme de données est  une étape  vers le dévelopement de « nos propres outils de découverte, de recommandation et de reconnaissance de ceux qui ont contribué à la création et à la production d’œuvres. »

Pour cela, il faut élaborer collectivement nos propres stratégies pour faire connaître le contenu de répertoires et  rejoindre de nouveaux publics. Nous serions, alors, en mesure de concevoir des moyens  non intrusifs pour collecter l’information qui permet de comprendre la consommation culturelle.

Adopter une méthode de travail pour une réflexion stratégique

Concevoir et réaliser des projets autour de données liées (ouvertes ou non) demande un long temps de réflexion et d’échanges de connaissances entre des acteurs qui ont des perspectives différentes. L’initiative de la Cinémathèque québécoise peut être citée comme un excellent exemple de transformation organisationnelle par l’adoption d’une nouvelle méthode de travail.  Marina Gallet pilote ce projet qui vise à formaliser les savoirs communs du cinéma en données ouvertes et liées.  Elle a gracieusement partagé cette expérience lors de la dernière édition du Colloque sur le web sémantique.

Représentation de la diversité culturelle et linguistique

Il existe de nombreuses façons de décrire les oeuvres d’un album de musique ou un spectacle de danse. Pour représenter ces descriptions sous forme de données, il existe des modèles et vocabulaires pour différentes missions et utilisateurs.  Une part grandissante de ces vocabulaires est en données ouvertes et liées. Ces descriptions ne sont pas toujours structurées ou conformes aux standards du web, mais leur diversité est essentielle à la richesse de l’information. Il est vital que les vocabulaires utilisés pour décrire des offres et des contenus soient en français pour que la francophonie soit présente dans le web des données et qu’elle soit prise en compte par les systèmes intelligents.

Le Réseau canadien d’information sur le patrimoine annonçait ce printemps, la réalisation de la version française de référentiels en données ouvertes et liées. Philippe Michon, analyse pour le RCIP, explique comment ces référentiels essentiels au patrimoine culturel seront rendus disponibles en données ouvertes et liées.

Recherche augmentée: découverte selon les goût et l’expérience recherchée

Il faut cesser de reproduire des  interfaces et modes d’accès aux répertoires qui sont dépassés. On ne peut cependant améliorer la découverte sans investir le temps et les efforts nécessaires pour sortir de nos vieilles habitudes de conception.

Nos interfaces de recherche sont devenues obsolètes dès l’arrivée du champ unique des premiers moteurs de recherche. Nos stratégies de marketing de contenu pour le référencement de pages web  aident les moteurs de recherche à répondre à des questions, mais  effacent les spécificités en uniformisant l’architecture de l’information.

L’information qui décrit nos productions culturelles et artistiques est trop souvent limitée à des données factuelles. Il faut annoter des descriptions avec des attributs et caractéristiques riches et orientés vers divers publics et usages. Des outils d’analyse et de recommandation peuvent ainsi fournir de l’information ayant une plus grande valeur. Il ne faudrait pas espérer refiler ce travail à des intelligences artificielles: l’indexation automatique ne produira pas nécessairement des métadonnées utiles et pertinentes pour une stratégie de valorisation. De plus, il ne faut pas sous estimer la valeur que l’expérience humaine (éditorialisation, sélection, critique, mise en contexte) apporte à des services qui jouent un rôle prescripteur.

Soutenir le dévelopement de bases de données en graphes

La mise en valeur de répertoires et collections, ainsi que des actifs informationnels (textes, images, sons) d’organisations ne devrait plus reposer sur des bases de données classiques.  Les bases de données en graphes permettent de raisonner sur des données et de générer de la connaissance , en faisant des liens, à l’image de la pensée humaine:

Quelle est le parfum de glace préféré des personnes [qui] dégustent régulièrement des expresso, mais [qui] détestent les choux de Bruxelles ? Une base de donnée Graph peut vous le dire. Comment ? Avec des données de qualité, les bases de données Graph permettent de modéliser les données et de les stocker de la manière dont nous pensons et raisonnons dans le monde réel.

Ceci est tiré d’un bon article de vulgarisation sur les bases de données en graphe.

Choisir des méthodes de travail adaptées aux projets collectifs

Pour qu’un écosystème diversifié de connaissances (multidisciplinaire, multi acteurs) soit durable, il doit reposer sur la distribution des fonctions de production et de réutilisation des données entre des partenaires.  Il faut aussi réunir des initiatives collectives dans une démarche où le développement de connaissances et l’expérimentation ne sont pas relégués au second plan par des intérêts individuels ou commerciaux. Enfin, il faut élaborer et adopter de nouvelles méthodes de travail pour des projets collectifs.

Je reviendrai bientôt sur les éléments nécessaire pour la gestion participative d’une base de connaissances commune.

Architectures et bases de connaissances

Définir les finalités et les modalités des projets de liage de données est un long cheminement qui demande des apprentissages, des efforts concertés et du temps. Nos programmes devraient  être revus.  Mettre en place les conditions de réussite d’un projet collectif est un projet en soi. Il faut tenir compte d’un cadre de formation, d’une nouvelle méthode de travail et d’une progression dans la durée. Exiger des résultats à court terme oriente les projets vers des « solutions » et laisse peu de place à la remise en question des habitudes.

Nos initiatives doivent être conjuguées pour élaborer une architecture commune  de la connaissance.  Parce qu’elle sort du cadre de nos actions habituelles, c’est une avenue qui offre plus de potentiel, à plusieurs titres, que des stratégies de visibilité et de marketing.

Solution technologique pour problématiques complexes

Lego Color Bricks par Alan Chia
Alan Chia [CC BY-SA 2.0], Wikimedia Commons
Imiter des géants de l’économie numérique en développant une plateforme peut-il apporter des solutions aux problématiques complexes de la diffusion de contenus francophones dans une industrie traversée par de profonds changements ?

Tout récemment, une solution simple à une problématique complexe a refait surface dans le milieu culturel canadien.

Ottawa investi 14,6 millions dans une nouvelle plateforme de diffusion de contenus francophones, Le Devoir, 7 août 2019.

Mettre en avant une « solution » technologique permet trop souvent d’éviter d’épineux questionnements. Cependant, alors que les règles du jeu et les usages changent, nous ne devrions pas nous soustraire à un examen des conditions de création et de production qui sont soutenues par nos législations et programmes. Nous finissons par maintenir, tant bien que mal, des modèles qui fonctionnent de moins en moins.

Ce ne sont pas des plateformes numériques qui ont permis à Netflix et compagnie de bouleverser l’industrie. C’est d’avoir compris le potentiel du Web et pensé autrement l’accès, la distribution et la production de contenus audiovisuels, en osant remettre en question les modèles établis. Revoir des modèles et des programmes qui demeurent encore très « télévision » demande évidemment beaucoup d’ouverture, de courage et de vision, mais il faut espérer que ce soit encore possible.

Une proposition de plateforme de diffusion de contenus culturels québécois, avait émergée, en 2017.  En évitant de remettre en question les façons de faire, ce type de projet ne fait que reporter les nécessaires adaptations qu’une industrie doit entreprendre pour durer et prospérer.

Il semble que nous ayons encore beaucoup de difficulté à appréhender les problématiques de la production et de la consommation de contenus culturels dans un monde numérique. Ne serait-il pas temps d’adopter, pour les analyser,  d’autres méthodes que celles qui nous font tomber le piège des solutions simplistes ?

Données d’usage et usage des données: une étude et un souhait

Comment encadrer l’exploitation des données des internautes canadiens sur les plateformes de diffusion de contenus culturels alors que nous peinons à comprendre leur fonctionnement ?

Comprendre ce qu’il se passe

À titre d’exemple,  contrairement à une idée reçue, ce ne sont pas nos données qui ont le plus de valeur, c’est ce qu’en font les plateformes. L’analyse des données issues de nos interactions sociales et de notre utilisation des contenus leur permet de faire du ciblage comportemental et tout en développant une meilleure compréhension des produits et services à concevoir. Plus les données qui décrivent des contenus sont riches et détaillées, plus il devient alors possible d’identifier des caractéristiques susceptibles d’expliquer la relation entre l’utilisateur et le contenu. Pour cette raison, le croisement des données personnelles d’acheteurs de billets de spectacle avec une description d’offre limitée à un titre et une catégorie apportera peu d’éclairage sur les goûts, la motivation ou l’expérience recherchée.

Croisement de données descriptives et données d'usage.

C’est donc en pensant au besoin, pour les différents acteurs concernés, de développer une compréhension commune des enjeux que Destiny Tchehouali et moi avons rédigé une étude, commanditée par la Coalition pour la culture et les médias (CCM). Professeur et chercheur en communication internationale, à l’UQAM, Destiny est président du conseil d’administration d’ISOC Québec, organisme dont je fais également partie à titre d’administratrice.

Intitulée « Données d’usage et usage des données à l’ère des plateformes », cette étude à été réalisée dans le contexte de l’examen du cadre législatif de la radiodiffusion et des télécommunications canadiennes. Elle dresse un état des lieux des principaux enjeux et défis liés à l’accès, à l’utilisation et à la gouvernance des données d’usages des plateformes de diffusion culturelle. Pour conclure, nous avons dégagé des pistes de recommandations pour un meilleur encadrement de l’utilisation des données:

  • Souveraineté numérique et responsabilité en matière d’accès et de collecte des données d’intérêt public
  • Concurrence, innovation et accès aux services
  • Neutralité d’Internet
  • Découvrabilité du contenu canadien et promotion de la diversité des expressions culturelles

Mieux apprendre un sujet complexe

Participer à cette étude m’a permis de constater, une fois de plus, la nécessité,  pour tous les acteurs du domaine culturel et tous ceux qui participent à l’élaboration de politiques publiques, de maîtriser des connaissances qui sont fondamentales pour rattraper notre retard numérique. Je ne fais pas référence à des outils et usages qui peuvent être enseignés au cours de sessions d’information. Je fais plutôt le souhait d’un programme avec une approche intégrée des volets stratégiques, technologiques, cognitifs et organisationnels  de l’information dans un monde numérique.

Trois enjeux communs pour les métadonnées en culture

Les métadonnées, en culture, servent à décrire des choses pour les rendre repérables et à faire des liens d’association entre des éléments d’information pour générer de nouvelles connaissances. Voici trois enjeux pour la création de métadonnées culturelles qui devraient être abordés de façon prioritaire, au sein des organismes, institutions, entreprises et regroupements associatifs.

Feuille de route pour la création de métadonnées culturelles, représentée par une carte avec itinéraire.

1. Mise à niveau de nos systèmes d’information

La problématique des métadonnées en culture origine de la conception des systèmes d’information. La source de la plupart des problème se situe en amont des processus de gestion de l’information, soit lors de la saisie des données dans un un système ou un logiciel qui n’a pas été conçu pour générer des métadonnées interopérables. Il est également plus facile  de convaincre des gestionnaires d’investir dans  un nouveau site web que dans un modèle de métadonnées  normalisées et interopérables pour lequel il est difficile de fixer des indicateurs de rendement.

Qualité des données

Plus de 60% du temps de travail des experts  des données est consacré au nettoyage  et à l’organisation des données. Il est possible de produire des données qui soient exploitables, plus facilement et à moindre coût, en  mettant en application des principes de qualité inspirés, par exemple, de ceux qui guident la production de données ouvertes et liées pour l’Union européenne.

De la base de données au web de données

Au web des documents, s’est ajouté celui des données. Nous nous éveillons lentement à des modes de représentation et d’exploitation de l’information qui ne font plus référence à des pages, mais à des connaissances et à des ressources.

Dans le web, un contenu c’est de la donnée. Si les pages web s’adressant à des humains demeurent toujours utiles, ce sont les données décrivant des ressources (modèle Schema ou triplets du web sémantique) qui permettent à certaines technologies de classer et de relier l’information obtenue afin de nous fournir des réponses et, surtout, des suggestions.

Indexation de contenu et normalisation de données

Bien que des termes comme « métadonnées » et, même « web sémantique », se retrouvent désormais au programme de nombreux événements professionnels, au Québec et au Canada, trop rares sont les initiatives et projets où il est fait appel à  des équipes pluridisciplinaires comme cela se fait au sein de gouvernements, d’institutions ou d’initiatives collectives, en Europe et aux États-Unis.

Est-il possible de réaliser des projets d’une complexité et d’une envergure que l’on peine à mesurer en dehors du cadre habituel d’un projet de développement technologique ?  On peut en douter. Nous manquons de compétences en ce qui concerne la représentation de l’information sous  forme de données liées, ainsi que sur les principes et méthodes de la documentation de ressources.  Comment pourrions-nous, alors, atteindre des objectifs qui permettraient de tirer tous les avantages possibles des données qui décrivent nos contenus culturels ?

Plus concrètement, comment pourrions-nous entreprendre les démarches nécessaires à la réalisation  d’objectifs similaires à ceux du projet DOREMUS  qui  réunit Radio France, Philharmonie de Paris et Bibliothèque nationale de France ?

«Permettre aux institutions culturelles, aux éditeurs
et distributeurs, aux communautés de passionnés
de disposer :

  • de modèles de connaissance communs (ontologies)
  • de référentiels partagés et multilingues
  • de méthodes pour publier, partager, connecter, contextualiser, enrichir les catalogues d’œuvres et d’événements musicaux dans le web de données

Construire et valider les outils pédagogiques qui permettront le déploiement des standards, référentiels et technologies dans les institutions culturelles

Construire un outil d’assistance à la sélection d’œuvres
musicales.»

Il serait temps de moderniser les programmes  de formation  universitaire en bibliothéconomie et sciences de l’information et en technologies de l’information et d’encourager des intersections. Sans quoi, nous ne disposerons pas suffisamment de ressources compétentes pour passer du web des documents au web des données.

2. Décentralisation de la production de métadonnées

La centralisation de la production de métadonnées est contraire à la culture numérique car elle favorise généralement les perspectives et besoins d’une entité ou d’acteurs majoritaires. Les initiatives qui présentent le plus grand potentiel pour le développement de compétences  en matière de  production et réutilisation de données sont celles où les organismes sont appelés à participer activement à l’élaboration de leurs modèles de données, aux décisions en ce qui a trait à l’utilisation des données et à la conception de produits ou services. C’est par la pratique que les gestionnaires et entrepreneurs sont sensibilisés à l’utilité et à la valeur des données qu’ils produisent et qu’ils collectent.

Comme le signale Fred Cavazza, dans un récent billet, il nous faut réduire la dette numérique avant d’entreprendre une véritable  transformation:

«Nommer un CDO, créer un incubateur, organiser un hackathon ou nouer un partenariat avec Google ou IBM ne vous aidera pas à vous transformer, au contraire, cela ne fera que reporter l’échéance. Il est donc essentiel de réduire la distance au numérique pour chaque collaborateur, et pas seulement les plus jeunes ou ceux qui sont directement impliqués dans un projet.»

À ce titre, externaliser l’indexation des ressources culturelles (production de métadonnées) ne saurait être considéré comme un choix stratégique dans une économie numérique puisqu’il éloigne les acteurs du traitement des données et les confine à des rôles de clients ou d’utilisateurs, sans opportunités d’apprentissage pratique. En effet, se pencher  sur l’amélioration  et la valorisation de données descriptives et de données d’usage est le meilleur moyen de développer une culture de la donnée et d’acquérir les connaissances qui permettent de transformer des pratiques et de se réinventer. En plus de responsabiliser les organismes et entreprises et d’assurer la découvrabilité numérique de leurs ressources,  la décentralisation de la production de métadonnées renforce la résilience de l’écosystème; chacun des acteurs devenant un foyer potentiel de partage de connaissances et d’expérience.

3. Reconnaissance de la diversité des modèles de représentation

La centralisation de la production de métadonnées ne favorise pas la diversité des modèles de représentation et, plus spécifiquement, une réflexion post-colonialiste sur la description de productions culturelles et œuvres d’art, comme le lieu de fabrication ou la nationalité ou l’ethnie.  Une démarche centralisée conduit à adopter un  seul modèle de représentation des ressources, au détriment de la diversité des missions, des cultures,  et des pratiques. Dans le domaine du patrimoine culturel, par exemple, il existe près d’une centaine de modèles de description différents. Tous ne conviennent pas à la production de données ouvertes et liées, mais il demeure que cette diversité des modèles est essentielle car elle répond à des besoins et contextes d’utilisation spécifiques.

C’est dans le même esprit, qui a permis au web de devenir ce qu’il est (voir « small pieces loosely joined » de David Weinberger, un des penseurs du web), qu’il faut s’entendre sur des principes  et des éléments permettant de faire des relations entre différents modèles de métadonnées.  Cette démarche comporte des enjeux de nature conceptuelle, technologique, voire même économiques et de politiques publiques. Face à un tel niveau de complexité,  nous ne devrions pas tarder à rassembler, autour de ces enjeux, des spécialistes  du développement d’ontologies et des questions d’interopérabilité des métadonnées.

*

Ce ne sont pas de nouveaux portails, plateformes et applications qui nous permettront de ne pas dépendre totalement d’entreprises se plaçant au-dessus des états eux-mêmes. Une « solution technologique » aussi extraordinaire soit-t-elle, ne remplace pas une vision et des stratégies. Surtout lorsque les modèles économiques, dont nous tentons d’imiter les interfaces sans en maîtriser le fonctionnement, reposent sur l’exploitation de données par des algorithmes et des technologies d’intelligence artificielle.

Stratégie numérique pour le Québec: sur les modèles d’une nouvelle économie

Site de la consultation sur la stratégie numérique, Ministère de l'Économie, de la Science et de l''Innovation, Québec.

Mes contributions, dans le cadre de la consultation sur la stratégie numérique du Ministère de l’Économie, de la Science et de l’Innovation du Québec. Celles-ci témoignent de ma perspective, qui est essentiellement orientée vers les sciences de l’information. Et c’est d’une pluralité de regards et d’expertises sur les enjeux des transformations en cours dont nos dirigeants ont besoin.

C’est malheureusement, pour ceux et celles qui souhaiteraient offrir autre chose qu’une liste de souhaits, une démarche qui appartient plus à la réalisation d’une étude de marché qu’à un processus structuré d’écoute pour enrichir une réflexion (décision?) gouvernementale. Voici mes contributions fournies en quatre temps, compte tenu de l’espace accordé, mais qui sont ici, allongées de quelques mots afin d’en préciser le sens.

Économie numérique 1/4 – Les modèles
Des modèles d’affaires centrés sur l’exploitation de l’information: la donnée a plus de valeur que le produit qu’elle décrit et l’exploitation de données est plus rentable que la production de ressources. Nous n’avons pas de culture de la donnée (absence de normalisation et d’interopérabilité des bases de données, au sein d’un même système d’information et entre organisations apparentées).

Économie numérique 2/4 – Les données
Les données de nos BD sont inexploitables dans le web (normalisation, interopérabilité, sémantique) parce que nous concevons des systèmes sans penser à générer de l’information pour qu’elle soit largement diffusée. Nous formons des professionnels compétents mais nous les confinons à la gestion de bibliothèques.

Économie numérique 3/4 – Les compétences
Nous sommes mal équipés pour comprendre et réagir rapidement aux changements en cours. Nous passons du web des documents au web des données. Nous risquons d’être mis hors jeu par des joueurs qui participent à l’élaboration des règles que nous ne maîtrisons pas, alors que nous focalisons sur le développement d’outils.

Économie numérique 4/4 – Le web des données
La capacité de découvrabilité de nos produits dépend de plateformes étrangères qui, elles, s’enrichissent avec l’exploitation des données que nous générons. Allons-nous continuer à soutenir le développement de silos de données ou apprendre les changements qui  sont à l’oeuvre dans le web  et à quoi servent des métadonnées?

Consultation publique sur le Québec numérique et le défi de la démocratie participative

Consultation publique - Politiques numériques au Québec 20151120

Sylvain Carle nous conviait le 20 novembre dernier à une Consultation publique sur les politiques numériques au Québec. À sa façon, il nous faisait participer, en parallèle, à la démarche  du gouvernement du Québec sur la transition numérique où seuls quelques représentants des industries et institutions étaient conviés.

Plusieurs participants ont appelé à passer à l’action. Agir, oui, mais sur quoi et, surtout, dans quelle(s) direction(s) et avec quelles intentions? Nous pourrions nous ranger derrière les 13 écrits, mais tout comme les programmes des partis politiques (auxquels nous reprochons leurs processus en vase clos), il manque la vision. Cette vision d’un Québec transformé socialement et économiquement par ses citoyens qui se sont affranchis des vieux modèles de pensée, découvrent de nouveaux outils et expérimentent de nouveaux usages.

Conversations et convergence

Cette rencontre était nécessaire. Il était plus que temps que nous conversions/convergions depuis la publication des écrits des 13 étonnés. Publication qui fut médiatisée mais non accompagnée des espaces et usages du web participatif. L’invitation de Sylvain a permis de réaliser la diversité des définitions, attentes et visions de ce que signifie la transition numérique du Québec (chercher le mot clic #numQc sur Twitter). Et encore, une partie de la diversité, puisque l’assemblée était très majoritairement masculine, francophone, blanche, certainement très diplômée et entre la trentaine et la soixantaine. Ceux et celles qui se trouvent de l’autre côté de la fracture numérique n’y étaient pas représentés.

Démocratie participative

Cette rencontre, je l’espère, devrait nous rappeler d’être inclusifs, de mettre les avantages numériques au service du bien commun et de ne pas retomber, au cours de notre démarche (ou action politique), dans les ornières de ces processus que nous nous efforçons de changer.  La démocratie ouverte et participative est un apprentissage dans l’action qui demande beaucoup d’humilité et d’authenticité.

Lors de cette rencontre, et lors de toute prochaine activité, nous devons nous rappeler les mots clés de cette culture numérique que nous souhaitons tant voir contaminer les esprits, les organisations et les collectivités: pluralité, conversation, ouverture, collaboration, partage, etc. Oui, c’est difficile de changer, et oui, agir en démocratie participative nous demandera du temps et des efforts. Comment nous poser en sherpas numériques si nous ne pouvons pas y arriver?

Feuille de route de l’économie numérique: il y a un trou

Initialement publié dans le blogue de Direction informatique, le 26 octobre 2015.

À la feuille de route et au groupe-conseil sur l’économie numérique annoncés le 23 octobre par Philippe Couillard, il manque ce qui fait la puissance des géants technologiques et la vraie modernisation de l’État : la culture de la donnée. Dommage d’accorder si peu d’intérêt à une compétence du domaine de l’information, le « I » des « TI » dont on ne retient que la technologie.

Attendre quoi?

Plusieurs observateurs au sein de mon réseau, tels Mario Asselin et Clément Laberge, se sont inquiétés de la volonté affichée de prendre le temps de « bien faire les choses ». Leurs allégeances politiques n’entrent pas en ligne de compte car, en l’occurrence, ce sont avant tout des partisans d’un Québec numérique. Cette mise en attente est décevante pour ceux et celles qui forment les cohortes des nouveaux métiers et entreprises de l’économie numérique.  Il y a méprise sur la nature du changement. La véritable rupture est occultée par les innovations technologiques qui ne sont que les instruments et infrastructures permettant d’exploiter la matière première de cette économie : les données.

On consulte…

Nous nous attendions à ce que notre gouvernement propose une politique afin de soutenir la transformation de l’État et de favoriser le passage de notre économie de l’ère industrielle à l’ère numérique. Nous devrons cependant patienter en attendant les résultats d’une consultation qui vise à « établir un diagnostic de l’économie numérique au Québec, à déterminer les priorités d’action et à définir les grandes lignes de force où le Québec devrait investir afin de prendre une place enviable dans ce domaine ».

Permettez-moi d’exprimer la crainte qu’une telle démarche se solde par l’élaboration de nouveaux programmes visant uniquement le développement technologique alors que le plus grand défi à relever concerne l’aptitude des dirigeants à comprendre et à adopter de nouveaux usages et modèles d’affaires.

Au cœur de l’économie numérique : les données

Ce qui a particulièrement retenu mon attention, c’est qu’il n’y a pas de place pour l’information au sein du groupe-conseil. On a pensé aux entreprises, aux groupements associatifs pour le développement des affaires, aux organisateurs d’événements, aux start-ups, aux organismes de recherche en technologies de l’information, mais, hélas, pas aux sciences de l’information. Où sont ceux qui font la promotion des formats standards pour l’interopérabilité des ensembles de données, des politiques pour la production et la diffusion de métadonnées et des opportunités qu’offre le web sémantique? Qui viendra souligner qu’une véritable littératie de l’information permettrait de corriger la myopie technologique des équipes de projets numériques?

Il y a deux ans, je concluais ainsi un billet sur le faible intérêt de nos dirigeants pour la matière première de l’économie numérique: « Si l’information est réellement le carburant de l’économie du savoir, alors il semble que nous soyons en train de construire des réseaux de pipelines sans nous soucier de l’approvisionnement en pétrole ».

Oui, nous sommes en retard de plusieurs trains et à plus d’un titre. Nous disposons pourtant de nombreuses sources d’inspiration, notamment en France, avec le projet de transformation de l’État par le numérique et la feuille de route stratégique sur les métadonnées culturelles qui a pour objectif d’accroître le rayonnement des contenus culturels.

Yves Williams, l’un des pionniers de l’histoire du Québec numérique, a répondu à ce commentaire :  « Le train n’est pas en retard… il est toujours en gare. Il se cherche une locomotive! ».

Le premier ministre Philippe Couillard sera-t-il celui qui mettra enfin sur les rails la locomotive de l’économie numérique?

Promesses du «BI» et réalités de l’information

Initialement publié dans le blogue de Direction informatique, le 13 novembre 2013.

Si les collections des bibliothèques étaient gérées comme on gère l’information dans les organisations, nous aurions des bibliothèques du Moyen-Âge, où seul un moine érudit pourrait trouver l’information dont vous avez besoin.

Avec ses innombrables répertoires de fichiers, ses nomenclatures incompréhensibles, ses cachettes et ses cul-de-sac, l’écosystème de l’information en entreprise ressemble bien plus à la bibliothèque cauchemardesque du roman Le nom de la rose qu’à un centre de données parfaitement bien organisées. L’informatique décisionnelle ou business intelligence en anglais réaliserait-elle des prodiges ?

Statistiques et indicateurs

La réalité de la gestion et de l’exploitation de l’information dans une organisation a peu changé depuis des décennies. Si la capacité de traitement et d’analyse de l’informatique décisionnelle a considérablement évolué, les problématiques de la gestion stratégique de l’information sont demeurées les mêmes :

Les silos informationnels

C’est l’un des défis les plus importants de l’informatique décisionnelle. Produire une information exacte et complète à propos d’une situation ou d’un événement requiert la mise en relation de données et d’informations diverses et en provenance de différents systèmes et unités d’affaires.

C’est un parcours qui comporte des barrières structurelles (directions, divisions, services), culturelles (rétention de l’information, lutte de pouvoir) et technologiques (systèmes fermés et incompatibles, absence de formats de métadonnées standards).

La partie immergée de l’iceberg

Tel que commenté dans un précédent billet, les organisations investissent davantage dans l’informatique que dans l’information. Rares sont les entreprises qui ont su instituer une véritable culture qui valorise sa gestion et son partage. Le repérage, la collecte et le traitement de l’information sont pourtant des activités quotidiennes : aux courriels, échanges verbaux, annotations de document, présentations et rapports auxquels s’ajoutent aujourd’hui les contenus transitant sur les plateformes collaboratives et les réseaux sociaux.

Cette information n’est pas constituée de données structurées, elle n’est pas catégorisée, elle n’est pas toujours explicite (plus souvent implicite ou ambiguë) et elle est difficilement repérable à l’aide d’un moteur de recherche. Elle a pourtant autant de valeur que celle qui se trouve parmi les données structurées et unifiées dans un entrepôt de données.

L’absence de contexte

La mise en contexte des données est essentielle à une information de qualité. Les indicateurs des systèmes d’aide à la décision projettent une réalité : celle qui provient des données structurées, des calculs et des rapports. On peut s’interroger sur leur capacité à traduire la complexité des multiples facettes d’une organisation. Prenons par exemple la baisse des ventes d’un produit qui peut être liée à un ensemble de facteurs et dont les indicateurs avancés sont, entre autres, des données non explicites et des contenus non structurés comme des échanges de courriels, le tout en provenance de sources diverses :

  • La gestion du personnel (roulement élevé du côté des représentants);
  • Le service à la clientèle (réclamations des consommateurs);
  • La veille stratégique (succès d’un produit concurrent);
  • Le marketing (dénigrement sur les médias sociaux);
  • La gestion des stocks (difficulté d’approvisionnement);
  • La production (baisse de la qualité des pièces d’un fournisseur);
  • Les ventes (commentaires d’acheteurs: produit vieillissant).

Pour contextualiser l’information, il faut pouvoir faire des liens entre les ensembles de données. Une tâche quasi impossible, compte tenu des silos informationnels.

Intelligence collective et informatique décisionnelle

L’intelligence collective d’une organisation repose sur une approche méthodique de la gestion de l’information qui s’appuie sur des standards reconnus, comme les formats de métadonnées descriptives. Elle devrait recourir à des compétences spécialisées dans le traitement et l’organisation des contenus. Elle concerne par ailleurs tous les membres de l’organisation. À cet égard, il faut développer une culture de l’information qui encourage la participation de chacun à la qualification (signalement, validation, modification) et à la gestion des contenus (sélection, mots clés).

L’informatique décisionnelle repose essentiellement sur des données structurées. La technologie ne constitue donc qu’un élément de la solution. Ce sont l’expertise et l’expérience humaine qui contribuent à enrichir cette matière brute en l’organisant, en la reliant à d’autres informations, en la contextualisant et en la partageant.

Tant que les silos informationnels perdurent et qu’il n’y a pas de véritable culture de la gestion de l’information, l’informatique décisionnelle ne peut être vraiment efficace.

Dans ces conditions, ne croyez-vous pas qu’une prise de décision éclairée relève du miracle ?

Analyse des médias sociaux : aller au-delà des évidences

Je réponds ici aux questions qu’un lecteur a formulées en commentaire de mon précédent billet.  Je le remercie d’avoir pris la peine de s’exprimer et de m’obliger à préciser mes constats.

Machine à écouter les conversations
Machine à écouter les conversations

Mais globalement est-ce que cela modifie les conclusions ? Même intuitivement, ou en analysant rapidement mon fil d’actualité Twitter, j’aurais dit que la grande majorité des commentaires sur Twitter sont pro-étudiants.

Je ne suis pas intéressée aux conclusions de cette étude, mais uniquement à la démarche employée. Une telle étude peut être d’une grande utilité pour les médias ou les organisations qui désirent se positionner dans ce débat.  Cependant, la démarche doit être rigoureuse et l’analyse doit aller au-delà de ce que l’on peut déjà percevoir par la simple lecture des flux sur Twitter. On peut toujours remettre en question ou discréditer une étude dont la méthodologie n’est pas rigoureuse. J’ai pour preuve, la controverse qu’ont suscité les sondages récemment publiés à propos de la loi 78.

Par ailleurs, si la plupart des échanges semble prendre une couleur particulière, c’est probablement parce qu’il y a des acteurs plus déterminés, plus présents et qui maîtrisent les outils du web social. Ceci dit, bien des échanges sur qui ne sont pas marqués par des mots clic comme #manifencours, auront échappé à cette analyse.

Le constat de cette étude ne fait que renforcer la perception de polarisation, ce qui apporte peu aux organisations et individus qui souhaiteraient passer un message divergeant. Elle aurait pu relever les groupes qui ont des échanges démontrant des positions plus nuancées. Ce sont ces groupes qu’il faudrait cibler avec des contenus ayant une valeur informationnelle et non ceux qui n’échangent que des opinions, sans aucun ouverture à la discussion.

Un des objectifs de l’analyse des échanges sur les médias sociaux est le choix des conversations parmi lesquelles se positionner en diffusant de l’information utile.

Mais, même si je ne suis pas sûr de ce qu’ils voulaient dire exactement dans leur conclusion, je pense qu’il n’y avait pas de réelle stratégie. Il y avait des tactiques brillamment menées, des opportunités rapidement exploitées, de la coordination extrême, une capacité à gérer le chaos, etc. Je ne sais pas si on peut parler de stratégie et peut-être, que d’une certaine façon, la stratégie est morte (On dirait un mauvais titre de Wired ; )

Je ne crois pas que la stratégie soit morte, elle est simplement réinventée dans le contexte numérique (bottom up plutôt que top down). Les médias sociaux sont désormais un élément incontournable de l’écosystème de l’information. Savoir les utiliser est stratégique et beaucoup plus efficace qu’une page de publicité payée dans les journaux.

je ne comprend pas ton point sur la police…

Concernant le Service de police de la Ville de Montréal, cette étude a remarqué sa présence. Il n’était pas nécessaire d’employer une application de recherche pour se rendre compte de la fréquence de l’acronyme spvm dans le flux #manifencours (et même hors du flux) pendant les heures d’activité du compte Twitter du SPVM (et, également, hors de ses heures d’activité). Ce qui est remarquable, c’est que ce compte est au centre des conversations et qu’il constitue un exemple de maîtrise des médias sociaux (voir mon précédent billet). Contrairement au gouvernement du Québec, le service de police a compris le changement socio-culturel en cours avec le numérique et s’est rapidement fait conseiller (d’excellente façon, d’ailleurs). Bien des marques qui sont établies depuis quelques années sur les médias sociaux ne lui arrivent pas à la cheville pour sa réactivité, son professionnalisme et la valeur de l’information échangée.

Mise à jour (9 juin 2012)

Melissa Carroll anime le compte du SPVM depuis novembre 2011 et est une autodidacte des médias sociaux. Voir cette entrevue réalisée par Marie-Annick Boisvert : Portrait de gestionnaire de communauté : Melissa Carroll.

 

De la pertinence des meilleures pratiques Web

Qui pourra inciter les organisations à adopter de meilleures pratiques Web si l’avant-garde technologique (dont la « maison du Web à Montréal ») ne le fait pas ?

L’annonce de la mise en ligne du nouveau site de la Maison Notman, hier sur Facebook, a déclenché une  discussion qui illustre parfaitement la difficulté d’encourager l’adoption de meilleures pratiques pour la réalisation de projets Web.

Il s’agit d’un très petit projet pour lequel il n’y avait que peu ou pas de budget (comme la très grande majorité des sites Internet). Le site, réalisé en toute bonne foi par des bénévoles, comporte des lacunes en regard de la conception et de l’utilisabilité (là aussi, comme la très grande majorité des sites Internet). En commentaires de l’annonce sur Facebook, les échanges ont porté sur la pertinence de mettre en application les meilleures pratiques (planification, conception, production, évolution) dans un contexte de développement rapide, comme c’est le cas dans les jeunes entreprises en TIC.

Ceux qui proposent une mise en ligne rapide, suivie d’une amélioration par itérations soulignent une réalité trop souvent vécue : les projets interminables et coûteux dont les principales caractéristiques sont les suivantes:

  • Lourdeur du processus de réalisation (sur-documentation, lenteur de la prise de décisions, décalage entre le livrable et les besoins qui ont changé depuis l’amorce du projet);
  • Trop nombreux intervenants dans le projet (perte de vue des objectifs d’affaires et des intérêts des utilisateurs finaux);
  • Affectation inadéquate des ressources (les bonnes expertises, au bon moment);
  • Choix technologiques contraignants.

On peut effectivement mettre un site en ligne rapidement, en prévoyant l’améliorer plus tard, version après version. Mais si les problèmes sont de nature conceptuelle ou structurelle, les interventions nécessaires seront trop importantes et on les remettra à une éventuelle refonte. Les utilisateurs du site devront prendre leur mal en patience ou aller voir ailleurs.

Une bonne question

Une question subsiste :  les meilleures pratiques Web sont-elles pertinentes dans une approche de développement rapide («release early, release often») ?

Si la réponse est oui, alors comment s’assurer de la rapidité et de l’agilité de la réalisation ?