Archives par mot-clé : administration_publique

Données ouvertes: comment améliorer la qualité et l’utilisabilité des ensembles

 

Commission européenne - Formation en ligne sur la qualité des données ouvertes

 

Éléments d’information pour la préparation d’un atelier dans le cadre d’un événement montréalais pour la Journée internationale des données ouvertes, le 21 février prochain, à la Maison Notman.

Voici des enjeux et des exemples qui sont susceptibles de réunir des représentants des gouvernements, des organismes et des citoyens autour d’une démarche constructive.

Littératie de l’information et culture des données

Développer une culture des données pour que la libération de données soit plus qu’une démonstration de transparence : le développement d’écosystèmes actifs et diversifiés.

L’open data est-il un leurre politique ?

Nous avons besoin d’une culture qui fasse bien comprendre qu’une donnée n’est pas quelque chose de naturel, mais de construit. Les données sont construites, produites, et le processus de fabrication est aussi important que la donnée en elle-même.

Curation des données: améliorer le rendement de la libération des ensembles

Il n’est pas suffisant de libérer des données: il faut pouvoir les trouver et comprendre ce à quoi elles peuvent servir. Ceci implique un catalogage précis des ensembles: type d’information, origine, secteurs d’activités concernés, liste des données, période couverte de même qu’une indexation par mots clés contrôlés et par les utilisateurs (folksonomie). L’indexation permet de relier entre eux des ensembles de données quelque soit leur origine et leur classification.

Sorting Through the Government Data Explosion

All the data the American government is pouring onto the Web will be useful only if people can make sense of it. What’s needed are tools for sorting, combining and presenting raw data sets in visual form.

Approche centrée sur l’utilisateur

Accéder à l’information municipale, provinciale et fédérale qui concerne notre lieu de résidence ou la localisation de notre entreprise. Remédier à la dispersion de l’information (qui, quoi, quand, où?) par la standardisation des métadonnées et l’interopérabilité des ensembles de données.

The biggest failure of open data in government

Do you know all the different government bodies and districts that you’re a part of? Do you know who all your elected officials are? Do you know where and when to vote or when the next public meeting is? Now perhaps you’re thinking that this information is easy enough to find, so what does this have to do with open data? It’s true, it might not be too hard to learn about the highest office or who runs your city, but it usually doesn’t take long before you get lost down the rabbit hole. Government is complex, particularly in America where there can be a vast multitude of government districts and offices at the local level.

Interopérabilité des données quelque soit leur origine

Un guide pour favoriser l’interopérabilité des ensembles de données. Métadonnées descriptives de base : organisation, événement, personne, législation.

The Open Civic Data Project – Sunlight Foundation

Using Open Civic Data makes it is easier for governments to share data and for people to engage with their governments. Open Civic Data also provides guidance on how to publish all of this information so it can be shared across city, county and state jurisdictions. Adoption of Open Civic Data can:

  • Make content about local governments easier to find.
  • Provide a clear path for archiving and relating data across years.
  • Help governments make their data more open to citizens and developers alike.
  • Increase data portability across cities, counties and states.

Standards d’interopérabilité : modèles d’approches

Utiliser un langage commun à tous les services du gouvernement qui produisent des données pour la description des ensembles de données. Standards d’interopérabilité de la politique de qualité des données du gouvernement de l’état du New South Wales, Australie.

Data Interoperability Standards

The links below provide access to data standards which support data interoperability and exchange of information by NSW Government agencies.

Standards offer a common language enabling agencies to appropriately share or compare data managed across diverse systems.

  • Standard Approach to Metadata (pdf)
  • Standard Approach to Information Architecture (pdf)
  • Standard for Customer Reference Data (pdf)
  • Standard for Spatially Enabling Information (pdf)
  • Standard for Human Services Classification (pdf)
  • Standard for Data Quality Reporting (pdf)

Facteurs contribuant à la réutilisation des données

Éléments communs des meilleures pratiques de gestion de données ouvertes. Série de présentations du groupe Open Data Support, au sein de la Communauté européenne.

La qualité des Données et Métadonnées Ouvertes

  • Fournir des descriptions appropriées aux données (métadonnées);
  • Utiliser des vocabulaires standards pour les données et métadonnées;
  • Spécifier la licence sous laquelle les données peuvent être réutilisées;
  • Respecter les exigences légales en matière de protection de données personnelles et autres données sensibles;
  • Représenter les métadonnées et les données selon les principes de données libres en utilisant les URIs persistants pour identifier les ressources;
  • Fournir des informations sur la source des données.

 

De l’informatique au numérique: avez-vous les compétences requises?

Initialement publié dans le blogue de Direction informatique, le 11 août 2014.

Pensée complexe - Nuage de mots clés

Il fut un temps où il suffisait de quelques développeurs pour réaliser le site Internet d’une organisation. À présent, il s’agit de projets numériques réunissant plusieurs métiers et relevant souvent de plusieurs unités d’affaires. On se demande parfois si nos entreprises, nos administrations publiques et, même, nos firmes techno disposent de toutes les compétences requises pour faire face à la complexité de ces projets.

Fracture intergénérationnelle

L’organisation du travail qui a été pensée en fonction du modèle industriel a-t-elle la souplesse requise pour s’adapter à ce nouvel environnement? Selon René Barsalo, essayiste et consultant en expérience interactive, nous traversons la plus importante fracture intergénérationnelle de notre histoire, l’info-mutation :

Si l’ensemble de la classe dirigeante actuelle a été formée avec des imprimés, des cours magistraux et des notes manuscrites, celle qui la remplacera dans 30 ans sera formée avec l’écran, l’interactivité et la collaboration en réseau. Les règles qui régissent aujourd’hui nos identités, nos territoires et nos économies ont toutes été écrites pour le monde physique, pré-informatique, le seul connu jusqu’au milieu des années 80.

Les nouvelles compétences informatiques

Avec le soutien de la Communauté européenne, un groupe composé d’experts en informatique et en ressources humaines a élaboré un document visant à identifier les compétences informatiques requises pour développer la compétitivité, la croissance et l’emploi. C’est ainsi qu’aux compétences techniques et administratives usuelles que contient le référenciel européen des compétences informatiques s’ajoutent de nouvelles connaissances et savoir-faire comme l’informatique durable, la qualité de l’information et la gouvernance de l’informatique. Cette information a été signalée par l’Observatoire francophone des TI, qui a également repéré le référenciel du gouvernement des États-Unis ayant pour objectif d’accroître l’éventail des compétences de ses professionnels en TIC. Sans surprise, les habiletés organisationnelles y tiennent autant de place que les compétences techniques.

Du savoir-faire informatique au savoir-être numérique

Inspiré par un billet de Claude Malaison, spécialiste des communications sociales et interactives, sur les compétences à maîtriser pour être numériques, Sylvain Carle, entrepreneur visionnaire, a à son tour énoncé 10 compétences du numérique. Celles-ci tiennent à la fois de la souplesse intellectuelle et de la sensibilité aux autres. Pour faire partie des bâtisseurs de la nouvelle économie, en effet, il faut posséder ou acquérir les capacités nécessaires pour naviguer avec aisance dans cet environnement en mutation.

Les passeurs d’information et la « connexarchie »

Un programmeur-analyste me mentionnait récemment qu’il passe autant de temps à chercher et traiter de l’information qu’à écrire du code. Alors qu’elle constitue la matière première de la nouvelle économie, l’information demeure pourtant la grande absente des listes de compétences numériques. Dans l’acronyme « TIC », la technologie est en théorie au service de l’information et de la communication. La littératie de l’information, qui est en fait une sensibilisation aux principes et méthodes s’appliquant à sa circulation, est ce qui permet de réaliser pleinement sa mission. L’acquisition de nouvelles compétences n’est cependant qu’un des facteurs de transformation numérique. Pour faciliter l’accessibilité et la transmission des connaissances, il est nécessaire que de nouvelles formes d’organisation émergent. Jon Husband, sociologue des nouvelles technologies et consultant en transformation organisationnelle, pressent, parmi celles-ci, une forme qu’il nomme « wirearchy ». Dans une « connexarchie » (version française du terme), la dynamique des flux d’information repose sur les connexions informelles plutôt que sur la position hiérarchique. Issue des usages du web social, cette forme d’organisation favorise la fluidité des flux d’information :

De nos jours, le flux d’informations est devenu tel qu’on peut le considérer comme un flot de grains de sable électroniques, qui érodent les piliers traditionnels de la hiérarchie. Le fameux modèle de leadership du commande-et-contrôle, qui est encore en vigueur ici et là, a de moins en moins de pertinence, car il freine, voire bloque, ce flux. Il va nécessairement devoir céder la place à autre chose, de mieux adapté au monde interconnecté qui est le nôtre.

Ce n’est pas compliqué, mais complexe

Ce qui est compliqué pose un défi technique, mais demeure cependant prévisible. La complexité est différente car elle résulte, entre autres, de l’imprévisibilité due aux interactions à dimensions multiples. Faisant désormais partie de la réalité des projets numériques, elle appelle les gestionnaires et spécialistes des TIC à collaborer plus étroitement avec une variété d’intervenants afin de prendre en compte une grande diversité de facteurs. Les compétences informatiques traditionnelles ne sont donc plus suffisantes pour relever les défis professionnels de l’ère numérique.

À qui revient l’initiative de déclencher leur mise à jour?

Littératie des données: transparence et qualité de l’information

Commission européenne - Formation en ligne sur la qualité des données ouvertes
Commission européenne – Formation en ligne sur la qualité des données ouvertes

Nous avons besoin d’une culture qui fasse bien comprendre qu’une donnée n’est pas quelque chose de naturel, mais de construit. Les données sont construites, produites, et le processus de fabrication est aussi important que la donnée en elle-même. Evelyn Ruppert, sociologue spécialiste des données.

Données ouvertes, journalisme de données, intelligence d’affaires et exploitation de la datamasse (big data, au sens de biomasse): les données sont les principales ressources de l’ère numérique. La qualité des données et la normalisation des ensembles de données sont cependant des enjeux qui demeurent généralement ignorés dans les projets numériques.  Il n’est donc pas étonnant que l’information dont nos gouvernants et nos institutions disposent soit difficilement exploitable et peu fiable.

Mémoire déposé à la commission Charbonneau

Le 13 juin 2014, j’ai déposé un mémoire dans le cadre des consultations publiques de la Commission d’enquête sur l’industrie de la construction (commission Charbonneau) qui vise plus particulièrement l’attribution de contrats publics.

Lire  le mémoire que j’ai déposé à la commission Charbonneau.

Mise à jour (14 juillet 2014)

Je tiens à souligner qu’à ma connaissance deux autres mémoires ciblent spécifiquement le rôle essentiel que joue la libération des données publiques dans l’établissement de processus transparents et équitables:

NordOuvert /OpenNorth

Rôle des données ouvertes pour diminuer la corruption et les bonnes pratiques internationales en matière de divulgation des données sur les marchés publics.

Hackons la corruption

Projet de citoyens visant à combattre la corruption en améliorant la transparence des contrats publics publiés sur le site du Système électronique d’appels d’offres (SEAO.ca)

FACIL 

Organisme sans but lucratif dont le mandat est de promouvoir l’adoption, l’usage et la démocratisation de l’informatique libre.  N’ayant pas pu publier de mémoire, FACIL a transmis ses commentaires à la Commission dont en voici un extrait:

Pour le dire sans détour, nous croyons que les systèmes publics d’information à la disposition des citoyens pour l’exercice de leurs devoirs de surveillance des activités de l’État doivent être revus complètement afin de les rendre compatibles avec l’éthique de l’informatique libre. C’est à cette condition qu’ils seront vraiment utiles autant aux citoyens lambda qu’aux élus et aux fonctionnaires.

Les trois documents que nous vous présentons traitent, dans l’esprit du «gouvernement ouvert», des critères que doivent rencontrer les systèmes informatiques de divulgation de l’information sur les marchés publics et le lobbyisme. Le premier a été produit par FACIL, tandis que les deux autres sont des traductions de FACIL. Mathieu Gauthier-Pilote, membre du conseil d’administration de FACIL

Le «Dossier gouvernement ouvert» peut être consulté sur le wiki de FACIL: http://wiki.facil.qc.ca/view/Dossier_gouvernement_ouvert

Il est très encourageant de constater la présence d’acteurs du secteur numérique  parmi les propositions soumises aux consultations publiques dans le cadre de cette commission d’enquête.

Serons-nous clients ou bâtisseurs de la nouvelle économie?

Initialement publié dans le blogue de Direction informatique, le 8 avril 2014.

Program or be programmed - David Rushkoff

Il y a plus d’avantages à être celui qui contrôle un système que celui qui l’utilise.

L’intense compétition entre les acteurs mondiaux des technologies de l’information et l’importance des investissements consentis par plusieurs gouvernements témoignent du passage de l’ère industrielle à celle du numérique.

Malheureusement, il semble qu’au Québec et au Canada, nous ayons choisi d’être des clients plutôt que de figurer parmi les bâtisseurs de la nouvelle économie.

La semaine dernière, on apprenait que Bibliothèque et Archives Canada (BAC) se prépare à remettre la gestion de son catalogue à OCLC, une organisation basée aux États-Unis, faute d’avoir trouvé chez nous un fournisseur capable d’effectuer la modernisation de son système de gestion. Comme c’est le cas dans la plupart des organisations, BAC est aux prises avec un système qui est désuet et ne répond pas aux exigences d’interopérabilité et de flexibilité des réseaux d’information collaboratifs.

Les professionnels des sciences de l’information connaissent bien OCLC (Online Computer Library Center), un organisme à but non lucratif à qui on doit, entre autres, WorldCat, l’agrégation des catalogues de bibliothèques publiques du monde, et Dublin Core, le schéma de métadonnées normalisé qui permet de décrire des ressources numériques. Il ne fait aucun doute que le développement du nouveau système de BAC serait ainsi entre de bonnes mains, même s’il n’est pas souhaitable que les données du patrimoine documentaire et culturel canadien soient hébergées hors de nos frontières.

Cette nouvelle soulève par ailleurs trois enjeux importants pour notre avenir dans une économie numérique :

1. Les systèmes collaboratifs et les données connectées

Il est inquiétant qu’aucune entreprise canadienne du secteur des technologies de l’information ne puisse satisfaire les besoins de BAC. Ce sont des besoins très similaires à ceux des administrations publiques, notamment, dans le contexte des systèmes collaboratifs et du partage de données.

2. L’expertise de l’information

L’exploitation de données n’est pas uniquement une question de technologie. C’est également la maîtrise des principes, méthodes et normes d’organisation des données et des contenus que l’on retrouve en bibliothéconomie et en sciences de l’information. Il y a encore trop peu de spécialistes de l’information là où il le faudrait, notamment en amont des grands projets numériques.

3. La présence numérique

Étrangement, lorsqu’on recherche sur Internet nos créations artistiques et notre patrimoine culturel, les sites des grands acteurs du commerce électronique devancent généralement ceux de nos institutions culturelles. Quand ils ne sont pas inaccessibles aux internautes, les catalogues de nos bibliothèques, musées et autres diffuseurs sont en effet invisibles pour les moteurs de recherche.

4. La dépendance technologique

En sous-traitant la maîtrise d’oeuvre et l’hébergement de projets numériques, les gouvernements privatisent peu à peu l’information, fragmentent des ensembles de données qui devraient être interconnectés et renoncent à développer une expertise interne. De ce fait, en augmentant leur dépendance à des fournisseurs externes, les administrations publiques vont à contre-courant de la nécessaire appropriation des compétences et des usages numériques par les organisations.

Les données, leur valorisation et leur exploitation, sont au cœur de l’économie de l’ère numérique. Nous avons encore le choix entre devenir les bâtisseurs ou rester les clients d’outils technologiques, tout comme nous avons encore le choix entre exploiter nos contenus et en céder le contrôle.

Tout comme le système du catalogue de BAC, combien de temps nous reste-t-il avant de devenir numériquement obsolètes?

Que restera-t-il de la commission Charbonneau?

Initialement publié dans le blogue de Direction informatique, le 10 mars 2014.

La Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a récemment invité les citoyens et les organismes à s’exprimer relativement à l’infiltration de la corruption au sein de processus de gestion publique.

La commission qu’on appelle communément « Commission Charbonneau » devrait favoriser, entre autres, l’implantation d’un système plus intègre et plus équitable. Mais est-ce bien suffisant?

Signalisation-Rond-point

Ce ne sont pas uniquement les processus qu’il faut réviser, c’est aussi l’organisation de l’information : ce qui la rend signifiante et qui facilite le repérage des anomalies et des schémas récurrents.

En janvier dernier, avait lieu à Montréal OpenContracting, une première rencontre sur la standardisation des données relatives aux projets d’aide internationale. La normalisation des métadonnées, ces descripteurs qui décrivent un ensemble de données, permet de connecter entre elles des sources d’information et d’améliorer la traçabilité des flux financiers. La Banque mondiale s’intéresse à cette initiative, car les programmes d’aide au développement sont désormais scrutés par des citoyens et des organismes qui attendent une reddition de compte. Il y a partout, au sein des entreprises comme des gouvernements, un urgent besoin d’organisation et de normalisation des données afin de faciliter le travail des vérificateurs.

Quand on parle de normes et standards dans le domaine des technologies de l’information, on pense surtout à la programmation, aux infrastructures ou aux protocoles, mais rarement aux métadonnées. Et pourtant, comment prendre de bonnes décisions quand les données de nos systèmes ne peuvent se connecter entre elles ?

Connecter les ensembles de données

Au sein de processus, comme la gestion de contrats publics, il faudrait une politique de qualité des données et des principes auxquels devraient se conformer les concepteurs de bases de données. Voici quelques exemples :

  • La nomenclature de champs commune
  • Les formats de métadonnées standards
  • Les règles d’intégrité des données (ex.: champ non renseigné et sans explication, valeur incohérente, orthographe inconstante)

Les journalistes qui ont travaillé avec les données comme celles du Système électronique d’appels d’offres (SEAO) du gouvernement du Québec, entre autres, ont pu constater que ces principes ne sont pas appliqués.

Uniformiser les soumissions

Il est beaucoup plus facile d’analyser les renseignements concernant une entreprise, ainsi que les éléments qui sont inclus dans une soumission, lorsque toutes les données requises sont recueillies à l’aide d’un formulaire – d’une façon similaire à une déclaration de revenu. Autrement, les éléments essentiels sont noyés dans un document qui peut dépasser une centaine de pages.

Il faut donc souhaiter l’uniformisation du format des soumissions par l’imposition d’un support numérique, d’une structure et de champs identiques à tous les soumissionnaires d’un même appel d’offres.

La mise à disposition de données fiables, de qualité et à jour est le moyen le plus efficace et le moins coûteux pour contrecarrer la systématisation de pratiques illégales au sein des administrations publiques. Exposer les lacunes du processus et les dérives d’un système est nécessaire, mais il est essentiel, pour une administration publique efficace, vigilante et transparente, d’investir dans la normalisation de ses ensembles de données.

Adopter des principes et des règles communes

Ce qu’il faut retenir des événements de la Journée internationales des données ouvertes, le 22 février dernier, c’est que différentes administrations publiques se préparent à favoriser l’interconnexion des données.

En effet, les villes de Montréal, Québec, Gatineau, Sherbrooke ainsi que le gouvernement du Québec ont convenu de l’adoption d’une licence commune pour la mise à disposition des ensembles de données ouvertes. Il s’agit d’un gros coup de barre vers la normalisation, alors que les silos technologiques, structurels et culturels prévalent au sein des organisations.

Que restera-t-il des révélations de la commission Charbonneau si nous ne nous attaquons pas au cœur du problème qu’est la qualité de l’information?

Données ouvertes : transformer le gouvernement

Initialement publié dans le blogue de Direction informatique, le 27 janvier 2014.

Si on peut s’interroger sur la qualité des ensembles de données ouvertes, comme c’est le cas pour celles du Système électronique d’appel d’offres (SEAO), que penser de celle des bases de données de l’appareil gouvernemental?

Jusqu’à présent, les professionnels des sciences de l’information étaient pratiquement absents des projets informatiques. Pourtant, la libération de données constitue une opportunité pour les spécialistes de l’organisation et de l’indexation de contenu, mais aussi pour les administrations qui souhaitent passer en mode numérique.

Principes de l'ouverture des données
Principes de l’ouverture des données – Portail des données ouvertes de la Ville de Montréal

Vecteur de changement

Le parlement de l’État du New South Wales en Australie, qui décrétait en novembre dernier que les données gouvernementales seraient ouvertes par défaut, a publié une politique pour assurer la qualité de ses données. Cette politique comprend des normes, des directives et des procédures pour une gestion des données et de l’information de manière sécuritaire, structurée et uniforme.

En libérant ses données par défaut, ce gouvernement oblige l’ensemble de ses ministères, agences et institutions à prendre les mesures nécessaires pour que les systèmes d’information soient conformes. Un tel changement en profondeur soutenu par le ministère des Finances.

Et ici?

De nombreux organismes, réseaux et initiatives citoyennes interagissent avec des représentants des administrations provinciale et municipales qui sont convaincus du rôle central des données pour le développement socioéconomique du Québec.

Voici deux activités d’intérêt qui auront lieu sous peu :

1. Des normes mondiales pour les contrats publics

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics.

L’adoption de normes communes est essentielle parce qu’elle permet de connecter des ensembles de données et d’analyser de l’information pour prendre de meilleures décisions.

C’est un événement auquel se devraient d’assister les représentants de l’administration, des technologies, des sciences de l’information, du monde des affaires.

2. Des données ouvertes pour se faciliter la ville

Le 22 février prochain, des événements auront lieu simultanément au Québec pour souligner la Journée internationale des données ouvertes. Pour l’occasion, la Ville de Montréal accueillera dans ses locaux de la rue Brennan une rencontre organisée par Québec Ouvert.

Les citoyens, les fonctionnaires, les entrepreneurs, les développeurs et les chercheurs qui souhaitent se tenir à jour sur les récents développements, échanger des informations, présenter des projets ou étendre leur réseau de contacts sont les bienvenus.

Harout Chitilian, le vice-président du comité exécutif de la Ville de Montréal, qui est responsable de la réforme administrative, du dossier de la Ville intelligente ainsi que des technologies de l’information, sera présent.

Amélioration ouverte

Dans le foulée de précurseurs comme les États-Unis et plusieurs pays d’Europe, de nombreuses administrations publiques libèrent des ensembles de données qu’elles mettent à la disposition des citoyens et entreprises.

En plus de la transparence, de telles initiatives permettent d’atteindre plusieurs objectifs, comme favoriser le développement d’applications, améliorer l’accès à l’information, accroître l’offre de services gouvernementaux, contribuer à la recherche et au démarrage d’entreprises.

Surtout, libérer des données c’est améliorer ses processus internes par l’adoption de normes reconnues et de meilleures pratiques. La libération de données est un vecteur de transformation organisationnelle.

Contrats publics: standards de qualité des données ouvertes

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics. La piètre qualité des données ouvertes du Système électronique d’appels d’offres (SEAO) devrait nous inciter à exiger l’adoption d’une politique pour des données fiables, à jour et exploitables.

Open Contracting est une initiative internationale, parrainée, entre autres, par la World Wide Web Foundation. Il s’agit d’une première action officielle qui a pour objectif le développement de standards pour améliorer la qualité de l’information des marchés publics.

L’atelier est gratuit et ouvert à toux ceux qui s’intéressent aux enjeux de la transparence, de la gouvernance et de l’accès à l’information: citoyens,   professionnels des technologie de l’information, fonctionnaires, entrepreneurs, juristes.

L’activité aura lieu au Hilton Bonaventure, de 9h00 à 15h00, le 31 janvier 2014. Inscription requise pour participer.

Contrats publics: des données de qualité pour une meilleure vigilance

Initialement publié dans le blogue de Direction informatique, le 2 décembre 2013.

Par les temps qui courent, on entend souvent dire que des pratiques transparentes et équitables seraient essentielles afin d’accroître la concurrence entre les soumissionnaires et obtenir un meilleur rapport qualité-prix pour réduire les dépenses publiques.

Dans ce contexte, la publication de données relatives au processus d’octroi de contrats publics contribuerait à la transparence de l’appareil gouvernemental et faciliterait la vigilance des citoyens et des fonctionnaires. Encore faut-il que ces données soient structurées, fiables et cohérentes.

Système électronique d'appels d'offres du gouvernement du Québec - SEAO

Le cas du SEAO

Les contrats publics du gouvernement du Québec représentaient, en 2011, un marché de plus de 5 milliards de dollars. En juin dernier, le gouvernement du Québec, par le biais du Conseil du Trésor, libérait les données du Système électronique d’appels d’offres (SEAO). Cette plateforme réunit les appels d’offres du gouvernement du Québec, des municipalités et de divers organismes et agences.

Le 16 novembre dernier, lors d’un hackathon organisé à la Maison Notman, à Montréal, des volontaires se sont penchés sur les données ouvertes du SEAO. Une équipe technique a procédé à l’analyse et au nettoyage de l’ensemble de données. Constat : de nombreux champs sont vides, il n’y a pas d’identifiant unique pour les fournisseurs, ni de formats de métadonnées standards et, surtout, on y trouve un grand nombre de doublons, notamment pour les noms d’entreprise. Ainsi, après « nettoyage », le nombre de fournisseurs est passé de 54 692 à 37 579.

Aussi, le modèle de données fourni est bien insuffisant pour contextualiser l’information et les documents enfermés dans des fichiers PDF ce qui interdit une analyse approfondie de leur contenu.

Intégrité des données et qualité de l’information

Une autre équipe a tenté d’évaluer le système du SEAO en regard des directives sur l’ouverture des données des marchés publics qui ont été publiées par la Sunlight Foundation. Cette association internationale fait la promotion de normes et standards pour la transparence des gouvernements.

Parmi les lacunes identifiées dans le système, voici des éléments qui sont essentiels à la qualité de l’information, mais malheureusement absents des données publiées :

  • Un identifiant unique utilisé de bout en bout du processus de marchés publics, de l’avis d’appel offres jusqu’au rapport des dépenses. Cet identifiant devrait permettre les relations parent-enfant entre les entités à identifier.
  • L’adoption de normes existantes pour la diffusion des données et pour assurer l’interopérabilité de celles-ci entre les unités administratives.
  • Le texte intégral des contrats.
  • L’état des contrats (date d’achèvement prévue, date d’achèvement réelle, dépassements de coût, rendement du contractant).
  • Les données concernant la sous-traitance.

Fonctionnaires et élus mieux équipés et plus vigilants

Ces éléments permettraient de concevoir un tableau de suivi des contrats, depuis la rédaction de l’appel d’offres jusqu’à la livraison des produits/services. Ce serait là, plus qu’une preuve de transparence présentée aux citoyens, un véritable outil de surveillance pour les élus et les fonctionnaires dont la visibilité sur les dossiers et les processus n’est, hélas, souvent guère meilleure que celle des citoyens.

Ce n’est cependant réalisable que si l’on améliore la qualité des données à la source, en imposant des règles concernant la divulgation ainsi que des formats de saisie.

Que pouvons-nous attendre du développement de méga systèmes d’information ou même, de « villes intelligentes », si les administrations publiques n’appliquent pas les méthodes et les normes requises pour assurer la qualité des données ?

L’information n’est pas la priorité des organisations

Initialement publié dans le blogue de Direction informatique, le 31 octobre 2013.

On dit que Lewis Platt, PDG de Hewlett-Packard dans les années 80, se serait un jour exclamé : « Si, au moins, HP savait ce que HP sait, nous serions trois fois plus productifs. »

Chef d’entreprise clairvoyant et progressiste, Platt reconnaissait que la technologie, seule, ne peut apporter de solution à la difficulté d’accéder à l’information dans son organisation et de faire les connexions nécessaires pour faire du sens.

Si l’offre de solutions technologiques est aujourd’hui abondante, l’information ne semble toujours pas un enjeu prioritaire pour bon nombre d’organisations.

Un actif stratégique, vraiment?

Selon le célèbre théoricien du management Peter Drucker, les données, sans la perspective que donnent les connaissances et l’expérience, ont peu de valeur dans le cadre d’un processus de décision:

Information is data endowed with relevance and purpose

Traduction libre :

L’information c’est des données pertinentes et qui ont une utilité.

Les enjeux et usages stratégiques de la gestion de l’information sont nombreux et distribués dans toute l’organisation :

  • accès à l’information – soit la bonne information, au bon moment;
  • connexions entre les données et les ensembles de données;
  • des données qui font du sens (contexte sémantique);
  • moteurs de recherche  performants;
  • intranets facilitant les échanges de connaissances et le partage d’expertise.

Si l’information est un actif stratégique, rares sont pourtant les entreprises et gouvernements qui accordent autant de ressources à son organisation, son traitement et son analyse qu’à l’acquisition de technologies permettant de la stocker et de la manipuler.

Où sont les ressources?

Thomas Davenport est l’auteur de Information Ecology, le premier ouvrage sur l’approche intégrée de la gestion stratégique de l’information. Selon lui, il y a confusion entre « information » (le contenu) et « informatique » (le contenant).

Despite titles like  » Information Services », « Chief Information Officer » and « Information Center », most such functions are preoccupied  with technology – if not hardware, then software, applications development, and communications. /…/ If you approached the Information Systems help desk of the typical company and asked, « Where can I find information on our competitors in South America? » I doubt you’d get more than a blank stare. 

Traduction libre :

En dépit de titres comme « Services d’information », « Directeur principal de l’information » et « Centre d’information », la plupart de ces fonctions sont concernées par la technologie – voire par le matériel, puis les applications, le développement de logiciels et les communications. /…/ Si vous vous adressiez au service d’assistance technique du service informatique de n’importe quelle entreprise et que vous demandiez, « Où puis-je trouver de l’information sur nos compétiteurs d’Amérique Latine ? » je doute que vous n’obteniez plus qu’un regard déconcerté.

Une piste pourtant maintes fois invoquée, mais rarement mise en œuvre, consisterait à implanter une gouvernance de l’information réunissant les spécialistes de l’informatique et de l’information. Il s’y élaborerait une vision commune de la gestion des actifs informationnels. La gouvernance des projets numériques est un sujet que j’ai d’ailleurs abordé récemment.

Le mirage de la solution technologique

L’informatique n’est pas une fin en soi : c’est une affirmation souvent entendue, mais les pratiques des entreprises et des administrations publiques traduisent une toute autre réalité. Yves Marcoux, spécialiste des documents structurés et professeur à l’École de Bibliothéconomie et des sciences de l’information de l’Université de Montréal, observe dans une étude de la gestion de l’information au gouvernement :

On vivait avec l’impression que la solution résidait dans des investissements toujours plus grands en ressources technologiques (matériel d’abord, puis programmeurs, analystes, infrastructures réseau et logiciels ensuite). Il est maintenant généralement admis que cette façon de concevoir les choses est un cul-de-sac. À la rescousse se sont succédés des courants comme la programmation structurée, l’orientation-objet et une multitude de méthodologies d’analyse, de modélisation, de développement et d’évaluation de systèmes.

Le rapport d’étude a été déposé à l’intention du Directeur principal de l’information, en 2004. Il recommandait entre autres:

La gestion de l’information devait être abordée avec un mélange de pragmatisme et de méthodologie, mais surtout, en mettant l’accent sur les humains qui produisent et utilisent l’information plutôt que sur les technologies qui les aident à le faire.

Sommes-nous prêts pour l’économie du savoir?

Aucune solution de Big data ne pourra toute seule venir à bout d’une accumulation de données et de documents non structurés et sans attributs communs. Nous persistons à ne voir que le volet technologique de la solution. Or, nous passons actuellement d’une ère industrielle à une ère numérique au cours de laquelle le savoir aura autant de valeur que la production.

Si l’information est réellement le carburant de l’économie du savoir, alors il semble que nous soyons en train de construire des réseaux de pipelines sans nous soucier de l’approvisionnement en pétrole !

Élections municipales: affiches électorales sur Twitter

Dimanche soir, j’écoutais Twitter dans l’aquarium de CIBL avec l’équipe de journalistes et d’animateurs. Déçue par ce que j’ai observé par la visualisation de données, j’ai terminé ma soirée électorale en commentant, sur Twitter:

50 nuances de beige. Une carte lexicale d’un ennui… Montréal se cherche un administrateur, pas un visionnaire. #mtl2013 #polmtl

Tout au long de la campagne, les thèmes, porteurs de vision, n’avaient laissé que de faibles traces.  La dynamique n’avait pas changé pendant la dernière journée de la campagne.

Où sont les enjeux ?

C’était prévisible. Au cours de la campagne électorale municipale, sur les flux #mtl2013, #polmtl et #cmmtl, les « affiches électorales virtuelles » ont pratiquement dominé le contenu des publications. Les principaux sujets des publications ont très majoritairement été les candidats(tes) des partis. Les mots les plus fréquemment employés ont été des noms propres et des noms de partis. Quelques mots faisant référence à des thèmes et enjeux de la vie municipale émergeaient, ça et là, mais sans aucune mesure, de façon comparable à la promotion des candidats.

Marketing et communication de masse

Les organisations politiques et leurs agences de communication ont ajouté Twitter à la panoplie des outils et s’en servent à la manière d’un média de masse: pour publier et relancer à répétition un message concernant les activités et bons mots des candidats. Trop peu de candidats s’en sont servi pour écouter les échanges et proposer de l’information utile sur des enjeux précis. Il y en a donc peu, dans cette carte lexicale générée à partir des contenus publiés du  1er août à la fermeture des bureaux de vote, le 3 novembre, à 20h00.

Mtl2013_Lexical_FermBurVot
Carte lexicale des flux #mtl2013 #polmtl #cmmtl (conseil municipal de Montréal), du 1er août au 3 novembre 2013, à 20h00- Nexalogy

Toile de fond: transports collectifs

Quels sujets ou enjeux ont-ils été les plus populaires ? Derrière le changement, thème récurrent en période électorale, ce sont les sujets qui ont trait aux transports collectifs (métro, tramway, SRB ou service rapide par bus) qui ont le plus suscité de publications.

Parmi les 200 mots les plus présents dans les tweets publiés durant cette période, voici ceux qui sont liés à des enjeux ou des thèmes de la politique municipale. Les mots sont suivis de leur rang et de la fréquence de publication :

  • Changement (31e) 1174
  • Métro (72e) 707
  • Tramway (85e) 566
  • Parc (99e) 547
  • SRB (108e) 532
  • Idées (112e) 523
  • Familles (115e) 507
  • Quartier (141e) 437
  • Économique (146e) 429
  • Transparence (157e) 399
  • Idée (161e) 392
  • Enjeux (175e) 371
  • Développement (184e) 361
  • Bus (193e) 354
  • Taxes (195e) 352
  • Étudiants (198e) 349

Opinion publique ou opinion médiatique ?

Les médias constituent la source de la presque totalité des liens échangés. Pendant les 48 heures qui ont précédé le vote, les éditoriaux des quotidiens Le Devoir et La Presse ont été parmi les 5 liens les plus populaires.

Élections du 3 novembre – Pour Bergeron, Bernard Descôteaux, Le Devoir, 2 novembre 2013

Denis Coderre à la mairie , André Pratte, La Presse, 1er novembre 2013

Communiquer, oui, mais quoi ?

L’annonce de l’élection de Denis Coderre à la mairie de Montréal a immédiatement généré de nombreux commentaires dont une grande partie étaient négatifs, ironiques et voire même malicieux. Près de 48 heures après cette annonce, ceux-ci ont disparu de la carte lexicale. Seul un commentaire publié par Gabriel Nadeau-Dubois subsiste car il est abondamment repris. Il témoigne de l’insatisfaction d’une partie de l’électorat face à la faiblesse du contenu proposé.

Carte lexicale - 48 heures après la fermeture des bureaux de vote
Carte lexicale – 48 heures après la fermeture des bureaux de vote (Nexalogy)

Gabriel Nadeau-Dubois, "Cette élection marque le triomphe de la communication vide" - Twitter