BDSO : la gouvernance des données en mal de leadership

Initialement publié dans le blogue de Direction informatique, le 6 août 2015.

BLOGUE – L’Institut de la statistique du Québec (ISQ) a annoncé l’abolition prochaine de la Banque de données sur les statistiques officielles du Québec (BDSO), qui contient des indicateurs socioéconomiques provenant de plusieurs ministères et organismes publics du Québec.

Cette nouvelle envoyait un bien mauvais signal à tous ceux qui s’efforcent de faire entrer le Québec dans l’ère numérique. Quelques heures plus tard, on apprenait que le gouvernement remettait en question cette décision. Quoi qu’il en soit, les enjeux soulevés demeurent bien présents.

En uniformisant et en regroupant les indicateurs au même endroit, la BDSO facilite en effet l’accès à de l’information de qualité pour divers utilisateurs, notamment des chercheurs, des journalistes et des entrepreneurs. Abandonner aux différentes institutions la décision de publier ou pas leurs données, ainsi que le choix des formats de publication, ne permettrait plus d’assurer leur qualité, leur interopérabilité et leur accessibilité. C’est exactement ce que font les organisations qui n’ont pas de politique encadrant la qualité des données, et qui démontrent généralement peu d’intérêt pour leurs actifs informationnels.

La zone grise des actifs informationnels

Emboîtant le pas aux géants de l’économie numérique, de nombreux États se tournent désormais vers l’exploitation des données afin de faciliter la prise de décision, réduire les risques et découvrir de nouvelles opportunités de développement.

Au Québec, malheureusement, pour la majorité des administrations publiques comme pour la plupart des entreprises, il s’agit toujours d’une zone grise. Hors des champs de compétence des directions TI et incompris de la plupart des dirigeants, les ensembles de données forment des amas disparates, difficilement exploitables, et ce, malgré les promesses de l’informatique décisionnelle, ce fameux «BI».

Politique de qualité des données

S’il existe bien, depuis 2004, un Cadre de référence gouvernemental en gestion intégrée des documents, la normalisation des ensembles de données à travers tout l’appareil d’État semble encore échapper au dirigeant principal de l’information.

Mieux que tout méga-système informatique, cette approche contribuerait pourtant à faire disparaître les silos technologiques et organisationnels qui entravent l’efficacité de la fonction publique. Sans approche concertée pour formuler et appliquer des politiques de qualité et d’accès aux données, chacun conserve le choix de sa méthode d’organisation et de ses formats. Et c’est ainsi que les silos perdurent.

Qui est responsable des données?

Si le titre désormais populaire de Chief Data Officer (directeur général des données) témoigne de la volonté de transformation numérique de certaines organisations, il est encore trop tôt pour en constater les résultats concrets.

Cependant, on s’interrogera sur l’autorité et les moyens réels qui lui sont accordés afin d’assurer à la fois la stratégie, la gouvernance et la mise en œuvre de la gestion des données à travers l’organigramme. Il serait peut être plus judicieux de considérer la littératie des données comme une compétence essentielle pour tout dirigeant, au même titre que les autres compétences numériques.

La décision de l’ISQ est donc de nature à semer le doute sur la capacité de nos dirigeants à repérer et décoder les transformations socioéconomiques en cours. Elle envoie donc un signal négatif à ceux qui cherchent un contexte favorable à l’innovation et au développement de la nouvelle économie numérique.

Ne serait-il pas temps que le gouvernement assume enfin un réel leadership dans ce domaine en accordant une priorité stratégique à la gestion et à l’exploitation des données?

De l’informatique au numérique: avez-vous les compétences requises?

Initialement publié dans le blogue de Direction informatique, le 11 août 2014.

Pensée complexe - Nuage de mots clés

Il fut un temps où il suffisait de quelques développeurs pour réaliser le site Internet d’une organisation. À présent, il s’agit de projets numériques réunissant plusieurs métiers et relevant souvent de plusieurs unités d’affaires. On se demande parfois si nos entreprises, nos administrations publiques et, même, nos firmes techno disposent de toutes les compétences requises pour faire face à la complexité de ces projets.

Fracture intergénérationnelle

L’organisation du travail qui a été pensée en fonction du modèle industriel a-t-elle la souplesse requise pour s’adapter à ce nouvel environnement? Selon René Barsalo, essayiste et consultant en expérience interactive, nous traversons la plus importante fracture intergénérationnelle de notre histoire, l’info-mutation :

Si l’ensemble de la classe dirigeante actuelle a été formée avec des imprimés, des cours magistraux et des notes manuscrites, celle qui la remplacera dans 30 ans sera formée avec l’écran, l’interactivité et la collaboration en réseau. Les règles qui régissent aujourd’hui nos identités, nos territoires et nos économies ont toutes été écrites pour le monde physique, pré-informatique, le seul connu jusqu’au milieu des années 80.

Les nouvelles compétences informatiques

Avec le soutien de la Communauté européenne, un groupe composé d’experts en informatique et en ressources humaines a élaboré un document visant à identifier les compétences informatiques requises pour développer la compétitivité, la croissance et l’emploi. C’est ainsi qu’aux compétences techniques et administratives usuelles que contient le référenciel européen des compétences informatiques s’ajoutent de nouvelles connaissances et savoir-faire comme l’informatique durable, la qualité de l’information et la gouvernance de l’informatique. Cette information a été signalée par l’Observatoire francophone des TI, qui a également repéré le référenciel du gouvernement des États-Unis ayant pour objectif d’accroître l’éventail des compétences de ses professionnels en TIC. Sans surprise, les habiletés organisationnelles y tiennent autant de place que les compétences techniques.

Du savoir-faire informatique au savoir-être numérique

Inspiré par un billet de Claude Malaison, spécialiste des communications sociales et interactives, sur les compétences à maîtriser pour être numériques, Sylvain Carle, entrepreneur visionnaire, a à son tour énoncé 10 compétences du numérique. Celles-ci tiennent à la fois de la souplesse intellectuelle et de la sensibilité aux autres. Pour faire partie des bâtisseurs de la nouvelle économie, en effet, il faut posséder ou acquérir les capacités nécessaires pour naviguer avec aisance dans cet environnement en mutation.

Les passeurs d’information et la « connexarchie »

Un programmeur-analyste me mentionnait récemment qu’il passe autant de temps à chercher et traiter de l’information qu’à écrire du code. Alors qu’elle constitue la matière première de la nouvelle économie, l’information demeure pourtant la grande absente des listes de compétences numériques. Dans l’acronyme « TIC », la technologie est en théorie au service de l’information et de la communication. La littératie de l’information, qui est en fait une sensibilisation aux principes et méthodes s’appliquant à sa circulation, est ce qui permet de réaliser pleinement sa mission. L’acquisition de nouvelles compétences n’est cependant qu’un des facteurs de transformation numérique. Pour faciliter l’accessibilité et la transmission des connaissances, il est nécessaire que de nouvelles formes d’organisation émergent. Jon Husband, sociologue des nouvelles technologies et consultant en transformation organisationnelle, pressent, parmi celles-ci, une forme qu’il nomme « wirearchy ». Dans une « connexarchie » (version française du terme), la dynamique des flux d’information repose sur les connexions informelles plutôt que sur la position hiérarchique. Issue des usages du web social, cette forme d’organisation favorise la fluidité des flux d’information :

De nos jours, le flux d’informations est devenu tel qu’on peut le considérer comme un flot de grains de sable électroniques, qui érodent les piliers traditionnels de la hiérarchie. Le fameux modèle de leadership du commande-et-contrôle, qui est encore en vigueur ici et là, a de moins en moins de pertinence, car il freine, voire bloque, ce flux. Il va nécessairement devoir céder la place à autre chose, de mieux adapté au monde interconnecté qui est le nôtre.

Ce n’est pas compliqué, mais complexe

Ce qui est compliqué pose un défi technique, mais demeure cependant prévisible. La complexité est différente car elle résulte, entre autres, de l’imprévisibilité due aux interactions à dimensions multiples. Faisant désormais partie de la réalité des projets numériques, elle appelle les gestionnaires et spécialistes des TIC à collaborer plus étroitement avec une variété d’intervenants afin de prendre en compte une grande diversité de facteurs. Les compétences informatiques traditionnelles ne sont donc plus suffisantes pour relever les défis professionnels de l’ère numérique.

À qui revient l’initiative de déclencher leur mise à jour?

Distribution de masse et individualisation de la consommation

Signalisation: tirez, poussez

Lu dans le cahier Télévisions du journal Le Monde (7-13 juillet 2014).

Maîtriser le code, c’est contrôler la connaissance et la diffusion. Ayants droit et groupes audiovisuels ne l’ont manifestement pas encore bien assimilés. (Olivier Dumons)

La télé rattrapée par les pirates, par Olivier Dumons

Les chaînes cherchent à endiguer l’essor du piratage de leurs contenus numériques. Certaines proposent même de nouer des partenariats avec des sites de copie de programmes.

Nous somme clairement dans une phase de transition. La télévision de rattrapage n’existait pas il y a trois ans. Sous la pression des usages, les ayants droit vont devoir évoluer, la réglementation devra suivre et la manière de commercialiser aussi. On voit bien par exemple qu’un abonnement à bas coût peut régler beaucoup de problèmes. Il nous faut donc inventer des modèles d’affaires qui tiennent compte de ces possibilités techniques plutôt que de sortir un arsenal répressif. » (Philippe Deloeuvre, directeur de la stratégie, France Télévisions)

Les chaînes françaises se cherchent un avenir, par Olivier Dumons

Groupe d’étude « Médias et nouvelles technologies » du Sénat – Réunion des principaux acteurs de l’audiovisuel français afin d’exposer leurs craintes face aux nouveaux acteurs audiovisuels de type Netflix, ainsi que face aux mutations du marché. 25 juin 2014.

Les diffuseurs s’adressaient jusqu’à présent à des foyers avec des réseaux assez encadrés. Aujourd’hui, nous devons nous adresser à des individus distincts, comme dans la téléphonie. /…/ Cette individualisation de la consommation nous affecte fortement car nous n’avons toujours pas trouvé de solutions pour financer le cinéma français avec cette demande individuelle, aussi forte soit-elle. (Manuel Alduy, directeur de Canal+)

Le numérique accélère le déclin de l’antenne, par Joël Morio

Un foyer sur cinq ne dispose que d’une box pour recevoir les programmes, même sir la télévision numérique terrestre reste le premier mode de réception (57,9%). /…/ Les tablettes, ordinateurs et smartphones se substituent doucement mais sûrement à l’écran du salon.

Inversion du courant

À contrario de la distribution de contenu dans un marché de masse:  l’individualisation de la consommation (accéder au contenu que je veux et quand je veux) propulsée par l’adoption généralisée des outils et usages numériques.

Dans l’urgence, recherche de nouveaux modèles de financement, de distribution et de production.

L’individualisation de la consommation requiert , non seulement la maîtrise du code mais surtout, la littératie des données. Celle-ci permet de contextualiser la demande afin que les infrastructures, les acteurs et les contenus puissent s’adapter et demeurer des options.

Littératie des données: transparence et qualité de l’information

Commission européenne - Formation en ligne sur la qualité des données ouvertes
Commission européenne – Formation en ligne sur la qualité des données ouvertes

Nous avons besoin d’une culture qui fasse bien comprendre qu’une donnée n’est pas quelque chose de naturel, mais de construit. Les données sont construites, produites, et le processus de fabrication est aussi important que la donnée en elle-même. Evelyn Ruppert, sociologue spécialiste des données.

Données ouvertes, journalisme de données, intelligence d’affaires et exploitation de la datamasse (big data, au sens de biomasse): les données sont les principales ressources de l’ère numérique. La qualité des données et la normalisation des ensembles de données sont cependant des enjeux qui demeurent généralement ignorés dans les projets numériques.  Il n’est donc pas étonnant que l’information dont nos gouvernants et nos institutions disposent soit difficilement exploitable et peu fiable.

Mémoire déposé à la commission Charbonneau

Le 13 juin 2014, j’ai déposé un mémoire dans le cadre des consultations publiques de la Commission d’enquête sur l’industrie de la construction (commission Charbonneau) qui vise plus particulièrement l’attribution de contrats publics.

Lire  le mémoire que j’ai déposé à la commission Charbonneau.

Mise à jour (14 juillet 2014)

Je tiens à souligner qu’à ma connaissance deux autres mémoires ciblent spécifiquement le rôle essentiel que joue la libération des données publiques dans l’établissement de processus transparents et équitables:

NordOuvert /OpenNorth

Rôle des données ouvertes pour diminuer la corruption et les bonnes pratiques internationales en matière de divulgation des données sur les marchés publics.

Hackons la corruption

Projet de citoyens visant à combattre la corruption en améliorant la transparence des contrats publics publiés sur le site du Système électronique d’appels d’offres (SEAO.ca)

FACIL 

Organisme sans but lucratif dont le mandat est de promouvoir l’adoption, l’usage et la démocratisation de l’informatique libre.  N’ayant pas pu publier de mémoire, FACIL a transmis ses commentaires à la Commission dont en voici un extrait:

Pour le dire sans détour, nous croyons que les systèmes publics d’information à la disposition des citoyens pour l’exercice de leurs devoirs de surveillance des activités de l’État doivent être revus complètement afin de les rendre compatibles avec l’éthique de l’informatique libre. C’est à cette condition qu’ils seront vraiment utiles autant aux citoyens lambda qu’aux élus et aux fonctionnaires.

Les trois documents que nous vous présentons traitent, dans l’esprit du «gouvernement ouvert», des critères que doivent rencontrer les systèmes informatiques de divulgation de l’information sur les marchés publics et le lobbyisme. Le premier a été produit par FACIL, tandis que les deux autres sont des traductions de FACIL. Mathieu Gauthier-Pilote, membre du conseil d’administration de FACIL

Le «Dossier gouvernement ouvert» peut être consulté sur le wiki de FACIL: http://wiki.facil.qc.ca/view/Dossier_gouvernement_ouvert

Il est très encourageant de constater la présence d’acteurs du secteur numérique  parmi les propositions soumises aux consultations publiques dans le cadre de cette commission d’enquête.

Les femmes en TIC et le syndrome de l’imposteur

Initialement publié dans le blogue de Direction informatique, le 23 mai 2014.

Hedy Lamarr - Actrice, productrice et inventrice.
Hedy Lamarr – Actrice, productrice et inventrice d’un système de codage des transmissions (GPS, Wi-Fi)

Pourquoi hésitons-nous, nous les femmes, à faire notre place dans le domaine des TI? Notre présence en plus grand nombre dans les technologies de l’information et des communications (ce dernier élément est trop souvent omis) représenterait pourtant une opportunité de transformation pour un secteur qui, comme tant d’autres, doit s’adapter à la nouvelle culture et aux usages numériques. Le 14 mai dernier, le Réseau Action TI se penchait sur cette question lors de la soirée Femmes en TI : place au leadership qui était organisée dans les bureaux montréalais de Google. Une conférencière et cinq panélistes étaient invités à partager leurs expériences et perspectives sur les enjeux d’une plus grande mixité dans le domaine des TIC. Pourquoi les femmes y sont-elles toujours aussi peu nombreuses, alors qu’elles ont déjà investi d’autres domaines où elles étaient minoritaires et que le web a élargi l’accès aux outils de conception numérique? Voici quelques pistes de réponses.

Diminution généralisée des inscriptions en TIC

D’abord, il ne faut pas sous-estimer la tendance générale : selon les statistiques publiées par TechnoCompétences, près de 12 ans après l’éclatement de la bulle techno, le bassin d’étudiants inscrits en TIC n’est pas encore remonté au même niveau et ce, malgré une demande toujours croissante. Si la filière attire moins les garçons, il n’est guère étonnant que les filles ne s’y précipitent pas non plus.

Mode d’apprentissage à adapter

Ensuite, il faudrait s’intéresser d’un peu plus près aux milieux d’apprentissage. Si la programmation informatique ne semble pas très attrayante pour les femmes, c’est peut-être parce que l’enseignement actuel ne convient pas à bon nombre d’entre elles. L’approche décontractée des groupes d’apprentissage Ladies Learning Code, plus pratique et moins compétitive, apporte peut-être une piste de solution.

Environnement de travail inclusif

Le monde du travail et les entreprises s’adaptent progressivement aux spécificités et aux attentes d’une main-d’œuvre plus diversifiée. Cette adaptation est-elle plus lente à se concrétiser dans le secteur des TIC ? Certaines entreprises, comme Google Montréal ou Desjardins, ont modifié leurs environnements de travail et leurs programmes de développement professionnel afin d’attirer des candidatures de choix parmi les femmes intéressées à faire carrière dans le domaine.

De l’informatique au numérique

Dans une perspective strictement technologique, il y a effectivement peu de femmes qui programment. Mais dans une perspective plus large, celle des projets numériques, elles sont nettement plus nombreuses : chargées de projets, analystes d’affaires, conceptrices d’interfaces, ergonomes, pour ne nommer que quelques fonctions. Parmi les conférencières et panélistes, Viviane Gravel, entrepreneure en série (Metix Capital), Luce Julien, journaliste (Radio-Canada), Nancy Naluz, coordonnatrice de formation (Ladies Learning Code), Maha Lebbos, chef de produits (Pages Jaunes) et Danielle Savoie, gestionnaire (Desjardins) ne sont pas issues de l’informatique, mais elles détiennent cependant la diversité d’expertise et de perspective que requièrent les organisations à présent pour innover et se renouveler.

Le syndrome de l’imposteur

Si la programmation n’est pas l’unique voie d’accès et de réussite des femmes dans les métiers du numérique, certains croient que sa maîtrise est une compétence essentielle pour qu’elles puissent jouer pleinement leur rôle au sein de l’équipe. À la soirée Femmes en TI : place au leadership, certaines panélistes ont évoqué cette impression de ne pas se sentir à leur place, de ne pas avoir ce qu’il faut pour occuper un poste convoité, de ne pas être assez performante. Ce « syndrome de l’imposteur » évoqué par l’une d’entre elles serait probablement moins susceptible de se manifester dans un milieu de travail plus ouvert à la diversité des compétences et des pratiques. Ceci dit, chacun sait que le secteur des technologies de l’information et des communications n’échappe pas à la vague de changement qui affecte la plupart des activités humaines. Les problèmes et les solutions étant de plus en plus complexes, il faut multiplier les perspectives, concevoir et travailler dans une plus grande interdisciplinarité. La mixité est probablement l’un des moyens permettant d’y arriver. Quelle vision du secteur des TIC préférez-vous : traditionnelle et monoculturelle ou transformatrice et diversifiée?

Serons-nous clients ou bâtisseurs de la nouvelle économie?

Initialement publié dans le blogue de Direction informatique, le 8 avril 2014.

Program or be programmed - David Rushkoff

Il y a plus d’avantages à être celui qui contrôle un système que celui qui l’utilise.

L’intense compétition entre les acteurs mondiaux des technologies de l’information et l’importance des investissements consentis par plusieurs gouvernements témoignent du passage de l’ère industrielle à celle du numérique.

Malheureusement, il semble qu’au Québec et au Canada, nous ayons choisi d’être des clients plutôt que de figurer parmi les bâtisseurs de la nouvelle économie.

La semaine dernière, on apprenait que Bibliothèque et Archives Canada (BAC) se prépare à remettre la gestion de son catalogue à OCLC, une organisation basée aux États-Unis, faute d’avoir trouvé chez nous un fournisseur capable d’effectuer la modernisation de son système de gestion. Comme c’est le cas dans la plupart des organisations, BAC est aux prises avec un système qui est désuet et ne répond pas aux exigences d’interopérabilité et de flexibilité des réseaux d’information collaboratifs.

Les professionnels des sciences de l’information connaissent bien OCLC (Online Computer Library Center), un organisme à but non lucratif à qui on doit, entre autres, WorldCat, l’agrégation des catalogues de bibliothèques publiques du monde, et Dublin Core, le schéma de métadonnées normalisé qui permet de décrire des ressources numériques. Il ne fait aucun doute que le développement du nouveau système de BAC serait ainsi entre de bonnes mains, même s’il n’est pas souhaitable que les données du patrimoine documentaire et culturel canadien soient hébergées hors de nos frontières.

Cette nouvelle soulève par ailleurs trois enjeux importants pour notre avenir dans une économie numérique :

1. Les systèmes collaboratifs et les données connectées

Il est inquiétant qu’aucune entreprise canadienne du secteur des technologies de l’information ne puisse satisfaire les besoins de BAC. Ce sont des besoins très similaires à ceux des administrations publiques, notamment, dans le contexte des systèmes collaboratifs et du partage de données.

2. L’expertise de l’information

L’exploitation de données n’est pas uniquement une question de technologie. C’est également la maîtrise des principes, méthodes et normes d’organisation des données et des contenus que l’on retrouve en bibliothéconomie et en sciences de l’information. Il y a encore trop peu de spécialistes de l’information là où il le faudrait, notamment en amont des grands projets numériques.

3. La présence numérique

Étrangement, lorsqu’on recherche sur Internet nos créations artistiques et notre patrimoine culturel, les sites des grands acteurs du commerce électronique devancent généralement ceux de nos institutions culturelles. Quand ils ne sont pas inaccessibles aux internautes, les catalogues de nos bibliothèques, musées et autres diffuseurs sont en effet invisibles pour les moteurs de recherche.

4. La dépendance technologique

En sous-traitant la maîtrise d’oeuvre et l’hébergement de projets numériques, les gouvernements privatisent peu à peu l’information, fragmentent des ensembles de données qui devraient être interconnectés et renoncent à développer une expertise interne. De ce fait, en augmentant leur dépendance à des fournisseurs externes, les administrations publiques vont à contre-courant de la nécessaire appropriation des compétences et des usages numériques par les organisations.

Les données, leur valorisation et leur exploitation, sont au cœur de l’économie de l’ère numérique. Nous avons encore le choix entre devenir les bâtisseurs ou rester les clients d’outils technologiques, tout comme nous avons encore le choix entre exploiter nos contenus et en céder le contrôle.

Tout comme le système du catalogue de BAC, combien de temps nous reste-t-il avant de devenir numériquement obsolètes?

Que restera-t-il de la commission Charbonneau?

Initialement publié dans le blogue de Direction informatique, le 10 mars 2014.

La Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a récemment invité les citoyens et les organismes à s’exprimer relativement à l’infiltration de la corruption au sein de processus de gestion publique.

La commission qu’on appelle communément « Commission Charbonneau » devrait favoriser, entre autres, l’implantation d’un système plus intègre et plus équitable. Mais est-ce bien suffisant?

Signalisation-Rond-point

Ce ne sont pas uniquement les processus qu’il faut réviser, c’est aussi l’organisation de l’information : ce qui la rend signifiante et qui facilite le repérage des anomalies et des schémas récurrents.

En janvier dernier, avait lieu à Montréal OpenContracting, une première rencontre sur la standardisation des données relatives aux projets d’aide internationale. La normalisation des métadonnées, ces descripteurs qui décrivent un ensemble de données, permet de connecter entre elles des sources d’information et d’améliorer la traçabilité des flux financiers. La Banque mondiale s’intéresse à cette initiative, car les programmes d’aide au développement sont désormais scrutés par des citoyens et des organismes qui attendent une reddition de compte. Il y a partout, au sein des entreprises comme des gouvernements, un urgent besoin d’organisation et de normalisation des données afin de faciliter le travail des vérificateurs.

Quand on parle de normes et standards dans le domaine des technologies de l’information, on pense surtout à la programmation, aux infrastructures ou aux protocoles, mais rarement aux métadonnées. Et pourtant, comment prendre de bonnes décisions quand les données de nos systèmes ne peuvent se connecter entre elles ?

Connecter les ensembles de données

Au sein de processus, comme la gestion de contrats publics, il faudrait une politique de qualité des données et des principes auxquels devraient se conformer les concepteurs de bases de données. Voici quelques exemples :

  • La nomenclature de champs commune
  • Les formats de métadonnées standards
  • Les règles d’intégrité des données (ex.: champ non renseigné et sans explication, valeur incohérente, orthographe inconstante)

Les journalistes qui ont travaillé avec les données comme celles du Système électronique d’appels d’offres (SEAO) du gouvernement du Québec, entre autres, ont pu constater que ces principes ne sont pas appliqués.

Uniformiser les soumissions

Il est beaucoup plus facile d’analyser les renseignements concernant une entreprise, ainsi que les éléments qui sont inclus dans une soumission, lorsque toutes les données requises sont recueillies à l’aide d’un formulaire – d’une façon similaire à une déclaration de revenu. Autrement, les éléments essentiels sont noyés dans un document qui peut dépasser une centaine de pages.

Il faut donc souhaiter l’uniformisation du format des soumissions par l’imposition d’un support numérique, d’une structure et de champs identiques à tous les soumissionnaires d’un même appel d’offres.

La mise à disposition de données fiables, de qualité et à jour est le moyen le plus efficace et le moins coûteux pour contrecarrer la systématisation de pratiques illégales au sein des administrations publiques. Exposer les lacunes du processus et les dérives d’un système est nécessaire, mais il est essentiel, pour une administration publique efficace, vigilante et transparente, d’investir dans la normalisation de ses ensembles de données.

Adopter des principes et des règles communes

Ce qu’il faut retenir des événements de la Journée internationales des données ouvertes, le 22 février dernier, c’est que différentes administrations publiques se préparent à favoriser l’interconnexion des données.

En effet, les villes de Montréal, Québec, Gatineau, Sherbrooke ainsi que le gouvernement du Québec ont convenu de l’adoption d’une licence commune pour la mise à disposition des ensembles de données ouvertes. Il s’agit d’un gros coup de barre vers la normalisation, alors que les silos technologiques, structurels et culturels prévalent au sein des organisations.

Que restera-t-il des révélations de la commission Charbonneau si nous ne nous attaquons pas au cœur du problème qu’est la qualité de l’information?

Données ouvertes : transformer le gouvernement

Initialement publié dans le blogue de Direction informatique, le 27 janvier 2014.

Si on peut s’interroger sur la qualité des ensembles de données ouvertes, comme c’est le cas pour celles du Système électronique d’appel d’offres (SEAO), que penser de celle des bases de données de l’appareil gouvernemental?

Jusqu’à présent, les professionnels des sciences de l’information étaient pratiquement absents des projets informatiques. Pourtant, la libération de données constitue une opportunité pour les spécialistes de l’organisation et de l’indexation de contenu, mais aussi pour les administrations qui souhaitent passer en mode numérique.

Principes de l'ouverture des données
Principes de l’ouverture des données – Portail des données ouvertes de la Ville de Montréal

Vecteur de changement

Le parlement de l’État du New South Wales en Australie, qui décrétait en novembre dernier que les données gouvernementales seraient ouvertes par défaut, a publié une politique pour assurer la qualité de ses données. Cette politique comprend des normes, des directives et des procédures pour une gestion des données et de l’information de manière sécuritaire, structurée et uniforme.

En libérant ses données par défaut, ce gouvernement oblige l’ensemble de ses ministères, agences et institutions à prendre les mesures nécessaires pour que les systèmes d’information soient conformes. Un tel changement en profondeur soutenu par le ministère des Finances.

Et ici?

De nombreux organismes, réseaux et initiatives citoyennes interagissent avec des représentants des administrations provinciale et municipales qui sont convaincus du rôle central des données pour le développement socioéconomique du Québec.

Voici deux activités d’intérêt qui auront lieu sous peu :

1. Des normes mondiales pour les contrats publics

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics.

L’adoption de normes communes est essentielle parce qu’elle permet de connecter des ensembles de données et d’analyser de l’information pour prendre de meilleures décisions.

C’est un événement auquel se devraient d’assister les représentants de l’administration, des technologies, des sciences de l’information, du monde des affaires.

2. Des données ouvertes pour se faciliter la ville

Le 22 février prochain, des événements auront lieu simultanément au Québec pour souligner la Journée internationale des données ouvertes. Pour l’occasion, la Ville de Montréal accueillera dans ses locaux de la rue Brennan une rencontre organisée par Québec Ouvert.

Les citoyens, les fonctionnaires, les entrepreneurs, les développeurs et les chercheurs qui souhaitent se tenir à jour sur les récents développements, échanger des informations, présenter des projets ou étendre leur réseau de contacts sont les bienvenus.

Harout Chitilian, le vice-président du comité exécutif de la Ville de Montréal, qui est responsable de la réforme administrative, du dossier de la Ville intelligente ainsi que des technologies de l’information, sera présent.

Amélioration ouverte

Dans le foulée de précurseurs comme les États-Unis et plusieurs pays d’Europe, de nombreuses administrations publiques libèrent des ensembles de données qu’elles mettent à la disposition des citoyens et entreprises.

En plus de la transparence, de telles initiatives permettent d’atteindre plusieurs objectifs, comme favoriser le développement d’applications, améliorer l’accès à l’information, accroître l’offre de services gouvernementaux, contribuer à la recherche et au démarrage d’entreprises.

Surtout, libérer des données c’est améliorer ses processus internes par l’adoption de normes reconnues et de meilleures pratiques. La libération de données est un vecteur de transformation organisationnelle.

Contrats publics: standards de qualité des données ouvertes

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics. La piètre qualité des données ouvertes du Système électronique d’appels d’offres (SEAO) devrait nous inciter à exiger l’adoption d’une politique pour des données fiables, à jour et exploitables.

Open Contracting est une initiative internationale, parrainée, entre autres, par la World Wide Web Foundation. Il s’agit d’une première action officielle qui a pour objectif le développement de standards pour améliorer la qualité de l’information des marchés publics.

L’atelier est gratuit et ouvert à toux ceux qui s’intéressent aux enjeux de la transparence, de la gouvernance et de l’accès à l’information: citoyens,   professionnels des technologie de l’information, fonctionnaires, entrepreneurs, juristes.

L’activité aura lieu au Hilton Bonaventure, de 9h00 à 15h00, le 31 janvier 2014. Inscription requise pour participer.

Commerce électronique: deux bonnes raisons pour aller voir ailleurs

Initialement publié dans le blogue de Direction informatique, le 18 décembre 2013.

Lorsqu’on parle de commerce électronique au Québec, il est souvent question de stratégie et de technologie, mais rarement d’information. Pourtant, qui n’a déjà fait ou entendu ce genre de commentaire : « C’est plus facile à trouver avec Google que sur le site de [XYZ]! »?

Tout comme l’information stratégique, l’organisation et l’exploitation des données concernant l’offre commerciale ne semblent pas encore faire partie des enjeux prioritaires de trop d’entreprises.

Labyrinthe de la Cathédrale de Reims

Une question d’information

Selon une étude récemment publiée par le CEFRIO, malgré la croissance du nombre d’achats en ligne, ceux-ci sont majoritairement effectués à l’extérieur du Québec. Quel dommage pour notre économie! Parmi les raisons qui pourraient expliquer cette préférence, il y en a deux pour lesquelles il serait tout à fait possible d’apporter des correctifs :

1. Le catalogue de produits n’est pas terrible

Les géants du commerce en ligne, ainsi qu’un nombre croissant de grandes marques américaines, investissent dans la mise en valeur de leur offre commerciale sur Internet en ouvrant aux internautes de très efficaces catalogues de produits.

Cela fait plusieurs années que des sites de commerce européens déploient cette force de frappe numérique. Il suffit, lors d’un séjour outre-mer, de chercher un simple appareil électro-ménager en ligne pour se voir proposer différentes marques et prix à même les résultats affichés par Google. Par ailleurs, plusieurs grandes enseignes s’intéressent au web sémantique afin d’ajuster leur moteur de recherche interne aux besoins exprimés de façon non explicite.

Désolée d’insister : les métadonnées descriptives sont au cœur de la recherche sur Internet. Les moteurs de recherche raffolent particulièrement de celles qui s’appuient sur des formats standards car elles sont faciles à interpréter et à contextualiser. Or, la plupart des catalogues en ligne au Québec ne sont constitués que de fiches d’information qui sont fournies par les manufacturiers. Résultat : il y a aucun format commun et on utilise un vocabulaire qui s’adresse davantage au service de l’approvisionnement qu’à la clientèle cible.

Enrichir les données d’une fiche produit avec des métadonnées permet d’ouvrir un catalogue à un grand nombre d’applications de recherche, et ainsi, de diffuser plus largement une offre qui, autrement, restera confinée au site Internet d’origine.

De tous les secteurs d’activité au Québec, par exemple, seule la musique connaît une initiative liée aux métadonnées. Il s’agit de TGiT, qui promeut l’adoption de métadonnées standards incrustées aux fichiers MP3 afin d’intensifier la présence numérique des créations québécoises.

La concertation autour de normes requiert des efforts considérables de la part de l’ensemble des acteurs d’un écosystème, mais c’est à ce prix que s’acquiert une présence forte et une certaine autonomie face aux géants du web comme Amazon et Apple.

2. La recherche sur ce site est une corvée

L’accessibilité et la qualité de l’information concernant les produits et leurs processus d’achat sont à l’origine de l’insatisfaction de nombreux consommateurs.

Si la partie transactionnelle peut être améliorée par des spécialistes de l’interface utilisateur, l’architecture de l’information devrait être élaborée avec les méthodes des sciences de l’information. De trop nombreux catalogues en ligne, incluant ceux des grandes entreprises, n’ont pas de schéma de classification, de catégorisation et de métadonnées cohérents et évolutifs qui permettraient aux moteurs de recherche internes et externes d’être plus efficaces.

Les moteurs de recherche internes sont rarement paramétrés adéquatement et cela constitue le plus grand irritant : il y a trop de résultats ou bien aucun résultat, le tout sans proposition d’alternative.

Un autre sujet d’amélioration est la recherche à facettes, qui permet de trier des résultats en fonction d’attributs spécifiques. Ces attributs se limitent habituellement au prix et à la marque, alors que d’autres informations plus utiles, comme les caractéristiques propres au type de produit, n’y sont pas.

Par exemple : pour un convecteur de 150 watts, on devrait proposer linéaire, thermostat intégré, puissance, spécialité (p. ex. un chauffe-serviettes). C’est un investissement qui permet de faciliter la recherche et, donc, d’accroître les ventes et de rentabiliser ainsi le coût d’acquisition de la technologie.

De plus, ces attributs permettent non seulement de contextualiser l’offre (p. ex. la variété des options), mais également d’enrichir l’analyse des données sur les besoins de la clientèle.

Le catalogue de produits demeure le maillon faible du commerce électronique au Québec. Pour trop d’entreprises, c’est encore une brochure ou, au mieux, une arborescence de site web. Mais pour les plateformes commerciales à succès, il s’agit plutôt d’un ensemble de données structurées s’adressant aux consommateurs afin de faciliter leurs décisions d’achat. Et pour celles qui sont entrées dans l’économie numérique, c’est aussi la composante d’un système d’information stratégique.

Pour Noël 2014, les sites de commerce en ligne seront-ils enfin passés en mode « information » au Québec?

Mutations – Modèles, usages et contenus numériques