SÉRENDIPITÉ

Mutations – Modèles, usages et contenus numériques

naples-brocanteur

Que restera-t-il de la commission Charbonneau?

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 10 mars 2014.

La Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a récemment invité les citoyens et les organismes à s’exprimer relativement à l’infiltration de la corruption au sein de processus de gestion publique.

La commission qu’on appelle communément « Commission Charbonneau » devrait favoriser, entre autres, l’implantation d’un système plus intègre et plus équitable. Mais est-ce bien suffisant?

Signalisation-Rond-point

Ce ne sont pas uniquement les processus qu’il faut réviser, c’est aussi l’organisation de l’information : ce qui la rend signifiante et qui facilite le repérage des anomalies et des schémas récurrents.

En janvier dernier, avait lieu à Montréal OpenContracting, une première rencontre sur la standardisation des données relatives aux projets d’aide internationale. La normalisation des métadonnées, ces descripteurs qui décrivent un ensemble de données, permet de connecter entre elles des sources d’information et d’améliorer la traçabilité des flux financiers. La Banque mondiale s’intéresse à cette initiative, car les programmes d’aide au développement sont désormais scrutés par des citoyens et des organismes qui attendent une reddition de compte. Il y a partout, au sein des entreprises comme des gouvernements, un urgent besoin d’organisation et de normalisation des données afin de faciliter le travail des vérificateurs.

Quand on parle de normes et standards dans le domaine des technologies de l’information, on pense surtout à la programmation, aux infrastructures ou aux protocoles, mais rarement aux métadonnées. Et pourtant, comment prendre de bonnes décisions quand les données de nos systèmes ne peuvent se connecter entre elles ?

Connecter les ensembles de données

Au sein de processus, comme la gestion de contrats publics, il faudrait une politique de qualité des données et des principes auxquels devraient se conformer les concepteurs de bases de données. Voici quelques exemples :

  • La nomenclature de champs commune
  • Les formats de métadonnées standards
  • Les règles d’intégrité des données (ex.: champ non renseigné et sans explication, valeur incohérente, orthographe inconstante)

Les journalistes qui ont travaillé avec les données comme celles du Système électronique d’appels d’offres (SEAO) du gouvernement du Québec, entre autres, ont pu constater que ces principes ne sont pas appliqués.

Uniformiser les soumissions

Il est beaucoup plus facile d’analyser les renseignements concernant une entreprise, ainsi que les éléments qui sont inclus dans une soumission, lorsque toutes les données requises sont recueillies à l’aide d’un formulaire – d’une façon similaire à une déclaration de revenu. Autrement, les éléments essentiels sont noyés dans un document qui peut dépasser une centaine de pages.

Il faut donc souhaiter l’uniformisation du format des soumissions par l’imposition d’un support numérique, d’une structure et de champs identiques à tous les soumissionnaires d’un même appel d’offres.

La mise à disposition de données fiables, de qualité et à jour est le moyen le plus efficace et le moins coûteux pour contrecarrer la systématisation de pratiques illégales au sein des administrations publiques. Exposer les lacunes du processus et les dérives d’un système est nécessaire, mais il est essentiel, pour une administration publique efficace, vigilante et transparente, d’investir dans la normalisation de ses ensembles de données.

Adopter des principes et des règles communes

Ce qu’il faut retenir des événements de la Journée internationales des données ouvertes, le 22 février dernier, c’est que différentes administrations publiques se préparent à favoriser l’interconnexion des données.

En effet, les villes de Montréal, Québec, Gatineau, Sherbrooke ainsi que le gouvernement du Québec ont convenu de l’adoption d’une licence commune pour la mise à disposition des ensembles de données ouvertes. Il s’agit d’un gros coup de barre vers la normalisation, alors que les silos technologiques, structurels et culturels prévalent au sein des organisations.

Que restera-t-il des révélations de la commission Charbonneau si nous ne nous attaquons pas au cœur du problème qu’est la qualité de l’information?

Rédigé par Josée Plamondon

9 mars 2014

Données ouvertes : transformer le gouvernement

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 27 janvier 2014.

Si on peut s’interroger sur la qualité des ensembles de données ouvertes, comme c’est le cas pour celles du Système électronique d’appel d’offres (SEAO), que penser de celle des bases de données de l’appareil gouvernemental?

Jusqu’à présent, les professionnels des sciences de l’information étaient pratiquement absents des projets informatiques. Pourtant, la libération de données constitue une opportunité pour les spécialistes de l’organisation et de l’indexation de contenu, mais aussi pour les administrations qui souhaitent passer en mode numérique.

Principes de l'ouverture des données

Principes de l’ouverture des données – Portail des données ouvertes de la Ville de Montréal

Vecteur de changement

Le parlement de l’État du New South Wales en Australie, qui décrétait en novembre dernier que les données gouvernementales seraient ouvertes par défaut, a publié une politique pour assurer la qualité de ses données. Cette politique comprend des normes, des directives et des procédures pour une gestion des données et de l’information de manière sécuritaire, structurée et uniforme.

En libérant ses données par défaut, ce gouvernement oblige l’ensemble de ses ministères, agences et institutions à prendre les mesures nécessaires pour que les systèmes d’information soient conformes. Un tel changement en profondeur soutenu par le ministère des Finances.

Et ici?

De nombreux organismes, réseaux et initiatives citoyennes interagissent avec des représentants des administrations provinciale et municipales qui sont convaincus du rôle central des données pour le développement socioéconomique du Québec.

Voici deux activités d’intérêt qui auront lieu sous peu :

1. Des normes mondiales pour les contrats publics

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics.

L’adoption de normes communes est essentielle parce qu’elle permet de connecter des ensembles de données et d’analyser de l’information pour prendre de meilleures décisions.

C’est un événement auquel se devraient d’assister les représentants de l’administration, des technologies, des sciences de l’information, du monde des affaires.

2. Des données ouvertes pour se faciliter la ville

Le 22 février prochain, des événements auront lieu simultanément au Québec pour souligner la Journée internationale des données ouvertes. Pour l’occasion, la Ville de Montréal accueillera dans ses locaux de la rue Brennan une rencontre organisée par Québec Ouvert.

Les citoyens, les fonctionnaires, les entrepreneurs, les développeurs et les chercheurs qui souhaitent se tenir à jour sur les récents développements, échanger des informations, présenter des projets ou étendre leur réseau de contacts sont les bienvenus.

Harout Chitilian, le vice-président du comité exécutif de la Ville de Montréal, qui est responsable de la réforme administrative, du dossier de la Ville intelligente ainsi que des technologies de l’information, sera présent.

Amélioration ouverte

Dans le foulée de précurseurs comme les États-Unis et plusieurs pays d’Europe, de nombreuses administrations publiques libèrent des ensembles de données qu’elles mettent à la disposition des citoyens et entreprises.

En plus de la transparence, de telles initiatives permettent d’atteindre plusieurs objectifs, comme favoriser le développement d’applications, améliorer l’accès à l’information, accroître l’offre de services gouvernementaux, contribuer à la recherche et au démarrage d’entreprises.

Surtout, libérer des données c’est améliorer ses processus internes par l’adoption de normes reconnues et de meilleures pratiques. La libération de données est un vecteur de transformation organisationnelle.

Rédigé par Josée Plamondon

10 février 2014

Contrats publics: standards de qualité des données ouvertes

Un commentaire

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics. La piètre qualité des données ouvertes du Système électronique d’appels d’offres (SEAO) devrait nous inciter à exiger l’adoption d’une politique pour des données fiables, à jour et exploitables.

Open Contracting est une initiative internationale, parrainée, entre autres, par la World Wide Web Foundation. Il s’agit d’une première action officielle qui a pour objectif le développement de standards pour améliorer la qualité de l’information des marchés publics.

L’atelier est gratuit et ouvert à toux ceux qui s’intéressent aux enjeux de la transparence, de la gouvernance et de l’accès à l’information: citoyens,   professionnels des technologie de l’information, fonctionnaires, entrepreneurs, juristes.

L’activité aura lieu au Hilton Bonaventure, de 9h00 à 15h00, le 31 janvier 2014. Inscription requise pour participer.

Rédigé par Josée Plamondon

27 janvier 2014

Commerce électronique: deux bonnes raisons pour aller voir ailleurs

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 18 décembre 2013.

Lorsqu’on parle de commerce électronique au Québec, il est souvent question de stratégie et de technologie, mais rarement d’information. Pourtant, qui n’a déjà fait ou entendu ce genre de commentaire : « C’est plus facile à trouver avec Google que sur le site de [XYZ]! »?

Tout comme l’information stratégique, l’organisation et l’exploitation des données concernant l’offre commerciale ne semblent pas encore faire partie des enjeux prioritaires de trop d’entreprises.

Labyrinthe de la Cathédrale de Reims

Une question d’information

Selon une étude récemment publiée par le CEFRIO, malgré la croissance du nombre d’achats en ligne, ceux-ci sont majoritairement effectués à l’extérieur du Québec. Quel dommage pour notre économie! Parmi les raisons qui pourraient expliquer cette préférence, il y en a deux pour lesquelles il serait tout à fait possible d’apporter des correctifs :

1. Le catalogue de produits n’est pas terrible

Les géants du commerce en ligne, ainsi qu’un nombre croissant de grandes marques américaines, investissent dans la mise en valeur de leur offre commerciale sur Internet en ouvrant aux internautes de très efficaces catalogues de produits.

Cela fait plusieurs années que des sites de commerce européens déploient cette force de frappe numérique. Il suffit, lors d’un séjour outre-mer, de chercher un simple appareil électro-ménager en ligne pour se voir proposer différentes marques et prix à même les résultats affichés par Google. Par ailleurs, plusieurs grandes enseignes s’intéressent au web sémantique afin d’ajuster leur moteur de recherche interne aux besoins exprimés de façon non explicite.

Désolée d’insister : les métadonnées descriptives sont au cœur de la recherche sur Internet. Les moteurs de recherche raffolent particulièrement de celles qui s’appuient sur des formats standards car elles sont faciles à interpréter et à contextualiser. Or, la plupart des catalogues en ligne au Québec ne sont constitués que de fiches d’information qui sont fournies par les manufacturiers. Résultat : il y a aucun format commun et on utilise un vocabulaire qui s’adresse davantage au service de l’approvisionnement qu’à la clientèle cible.

Enrichir les données d’une fiche produit avec des métadonnées permet d’ouvrir un catalogue à un grand nombre d’applications de recherche, et ainsi, de diffuser plus largement une offre qui, autrement, restera confinée au site Internet d’origine.

De tous les secteurs d’activité au Québec, par exemple, seule la musique connaît une initiative liée aux métadonnées. Il s’agit de TGiT, qui promeut l’adoption de métadonnées standards incrustées aux fichiers MP3 afin d’intensifier la présence numérique des créations québécoises.

La concertation autour de normes requiert des efforts considérables de la part de l’ensemble des acteurs d’un écosystème, mais c’est à ce prix que s’acquiert une présence forte et une certaine autonomie face aux géants du web comme Amazon et Apple.

2. La recherche sur ce site est une corvée

L’accessibilité et la qualité de l’information concernant les produits et leurs processus d’achat sont à l’origine de l’insatisfaction de nombreux consommateurs.

Si la partie transactionnelle peut être améliorée par des spécialistes de l’interface utilisateur, l’architecture de l’information devrait être élaborée avec les méthodes des sciences de l’information. De trop nombreux catalogues en ligne, incluant ceux des grandes entreprises, n’ont pas de schéma de classification, de catégorisation et de métadonnées cohérents et évolutifs qui permettraient aux moteurs de recherche internes et externes d’être plus efficaces.

Les moteurs de recherche internes sont rarement paramétrés adéquatement et cela constitue le plus grand irritant : il y a trop de résultats ou bien aucun résultat, le tout sans proposition d’alternative.

Un autre sujet d’amélioration est la recherche à facettes, qui permet de trier des résultats en fonction d’attributs spécifiques. Ces attributs se limitent habituellement au prix et à la marque, alors que d’autres informations plus utiles, comme les caractéristiques propres au type de produit, n’y sont pas.

Par exemple : pour un convecteur de 150 watts, on devrait proposer linéaire, thermostat intégré, puissance, spécialité (p. ex. un chauffe-serviettes). C’est un investissement qui permet de faciliter la recherche et, donc, d’accroître les ventes et de rentabiliser ainsi le coût d’acquisition de la technologie.

De plus, ces attributs permettent non seulement de contextualiser l’offre (p. ex. la variété des options), mais également d’enrichir l’analyse des données sur les besoins de la clientèle.

Le catalogue de produits demeure le maillon faible du commerce électronique au Québec. Pour trop d’entreprises, c’est encore une brochure ou, au mieux, une arborescence de site web. Mais pour les plateformes commerciales à succès, il s’agit plutôt d’un ensemble de données structurées s’adressant aux consommateurs afin de faciliter leurs décisions d’achat. Et pour celles qui sont entrées dans l’économie numérique, c’est aussi la composante d’un système d’information stratégique.

Pour Noël 2014, les sites de commerce en ligne seront-ils enfin passés en mode « information » au Québec?

Rédigé par Josée Plamondon

15 janvier 2014

Contrats publics: des données de qualité pour une meilleure vigilance

Un commentaire

Initialement publié dans le blogue de Direction informatique, le 2 décembre 2013.

Par les temps qui courent, on entend souvent dire que des pratiques transparentes et équitables seraient essentielles afin d’accroître la concurrence entre les soumissionnaires et obtenir un meilleur rapport qualité-prix pour réduire les dépenses publiques.

Dans ce contexte, la publication de données relatives au processus d’octroi de contrats publics contribuerait à la transparence de l’appareil gouvernemental et faciliterait la vigilance des citoyens et des fonctionnaires. Encore faut-il que ces données soient structurées, fiables et cohérentes.

Système électronique d'appels d'offres du gouvernement du Québec - SEAO

Le cas du SEAO

Les contrats publics du gouvernement du Québec représentaient, en 2011, un marché de plus de 5 milliards de dollars. En juin dernier, le gouvernement du Québec, par le biais du Conseil du Trésor, libérait les données du Système électronique d’appels d’offres (SEAO). Cette plateforme réunit les appels d’offres du gouvernement du Québec, des municipalités et de divers organismes et agences.

Le 16 novembre dernier, lors d’un hackathon organisé à la Maison Notman, à Montréal, des volontaires se sont penchés sur les données ouvertes du SEAO. Une équipe technique a procédé à l’analyse et au nettoyage de l’ensemble de données. Constat : de nombreux champs sont vides, il n’y a pas d’identifiant unique pour les fournisseurs, ni de formats de métadonnées standards et, surtout, on y trouve un grand nombre de doublons, notamment pour les noms d’entreprise. Ainsi, après « nettoyage », le nombre de fournisseurs est passé de 54 692 à 37 579.

Aussi, le modèle de données fourni est bien insuffisant pour contextualiser l’information et les documents enfermés dans des fichiers PDF ce qui interdit une analyse approfondie de leur contenu.

Intégrité des données et qualité de l’information

Une autre équipe a tenté d’évaluer le système du SEAO en regard des directives sur l’ouverture des données des marchés publics qui ont été publiées par la Sunlight Foundation. Cette association internationale fait la promotion de normes et standards pour la transparence des gouvernements.

Parmi les lacunes identifiées dans le système, voici des éléments qui sont essentiels à la qualité de l’information, mais malheureusement absents des données publiées :

  • Un identifiant unique utilisé de bout en bout du processus de marchés publics, de l’avis d’appel offres jusqu’au rapport des dépenses. Cet identifiant devrait permettre les relations parent-enfant entre les entités à identifier.
  • L’adoption de normes existantes pour la diffusion des données et pour assurer l’interopérabilité de celles-ci entre les unités administratives.
  • Le texte intégral des contrats.
  • L’état des contrats (date d’achèvement prévue, date d’achèvement réelle, dépassements de coût, rendement du contractant).
  • Les données concernant la sous-traitance.

Fonctionnaires et élus mieux équipés et plus vigilants

Ces éléments permettraient de concevoir un tableau de suivi des contrats, depuis la rédaction de l’appel d’offres jusqu’à la livraison des produits/services. Ce serait là, plus qu’une preuve de transparence présentée aux citoyens, un véritable outil de surveillance pour les élus et les fonctionnaires dont la visibilité sur les dossiers et les processus n’est, hélas, souvent guère meilleure que celle des citoyens.

Ce n’est cependant réalisable que si l’on améliore la qualité des données à la source, en imposant des règles concernant la divulgation ainsi que des formats de saisie.

Que pouvons-nous attendre du développement de méga systèmes d’information ou même, de « villes intelligentes », si les administrations publiques n’appliquent pas les méthodes et les normes requises pour assurer la qualité des données ?

Rédigé par Josée Plamondon

15 décembre 2013

Promesses du «BI» et réalités de l’information

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 13 novembre 2013.

Si les collections des bibliothèques étaient gérées comme on gère l’information dans les organisations, nous aurions des bibliothèques du Moyen-Âge, où seul un moine érudit pourrait trouver l’information dont vous avez besoin.

Avec ses innombrables répertoires de fichiers, ses nomenclatures incompréhensibles, ses cachettes et ses cul-de-sac, l’écosystème de l’information en entreprise ressemble bien plus à la bibliothèque cauchemardesque du roman Le nom de la rose qu’à un centre de données parfaitement bien organisées. L’informatique décisionnelle ou business intelligence en anglais réaliserait-elle des prodiges ?

Statistiques et indicateurs

La réalité de la gestion et de l’exploitation de l’information dans une organisation a peu changé depuis des décennies. Si la capacité de traitement et d’analyse de l’informatique décisionnelle a considérablement évolué, les problématiques de la gestion stratégique de l’information sont demeurées les mêmes :

Les silos informationnels

C’est l’un des défis les plus importants de l’informatique décisionnelle. Produire une information exacte et complète à propos d’une situation ou d’un événement requiert la mise en relation de données et d’informations diverses et en provenance de différents systèmes et unités d’affaires.

C’est un parcours qui comporte des barrières structurelles (directions, divisions, services), culturelles (rétention de l’information, lutte de pouvoir) et technologiques (systèmes fermés et incompatibles, absence de formats de métadonnées standards).

La partie immergée de l’iceberg

Tel que commenté dans un précédent billet, les organisations investissent davantage dans l’informatique que dans l’information. Rares sont les entreprises qui ont su instituer une véritable culture qui valorise sa gestion et son partage. Le repérage, la collecte et le traitement de l’information sont pourtant des activités quotidiennes : aux courriels, échanges verbaux, annotations de document, présentations et rapports auxquels s’ajoutent aujourd’hui les contenus transitant sur les plateformes collaboratives et les réseaux sociaux.

Cette information n’est pas constituée de données structurées, elle n’est pas catégorisée, elle n’est pas toujours explicite (plus souvent implicite ou ambiguë) et elle est difficilement repérable à l’aide d’un moteur de recherche. Elle a pourtant autant de valeur que celle qui se trouve parmi les données structurées et unifiées dans un entrepôt de données.

L’absence de contexte

La mise en contexte des données est essentielle à une information de qualité. Les indicateurs des systèmes d’aide à la décision projettent une réalité : celle qui provient des données structurées, des calculs et des rapports. On peut s’interroger sur leur capacité à traduire la complexité des multiples facettes d’une organisation. Prenons par exemple la baisse des ventes d’un produit qui peut être liée à un ensemble de facteurs et dont les indicateurs avancés sont, entre autres, des données non explicites et des contenus non structurés comme des échanges de courriels, le tout en provenance de sources diverses :

  • La gestion du personnel (roulement élevé du côté des représentants);
  • Le service à la clientèle (réclamations des consommateurs);
  • La veille stratégique (succès d’un produit concurrent);
  • Le marketing (dénigrement sur les médias sociaux);
  • La gestion des stocks (difficulté d’approvisionnement);
  • La production (baisse de la qualité des pièces d’un fournisseur);
  • Les ventes (commentaires d’acheteurs: produit vieillissant).

Pour contextualiser l’information, il faut pouvoir faire des liens entre les ensembles de données. Une tâche quasi impossible, compte tenu des silos informationnels.

Intelligence collective et informatique décisionnelle

L’intelligence collective d’une organisation repose sur une approche méthodique de la gestion de l’information qui s’appuie sur des standards reconnus, comme les formats de métadonnées descriptives. Elle devrait recourir à des compétences spécialisées dans le traitement et l’organisation des contenus. Elle concerne par ailleurs tous les membres de l’organisation. À cet égard, il faut développer une culture de l’information qui encourage la participation de chacun à la qualification (signalement, validation, modification) et à la gestion des contenus (sélection, mots clés).

L’informatique décisionnelle repose essentiellement sur des données structurées. La technologie ne constitue donc qu’un élément de la solution. Ce sont l’expertise et l’expérience humaine qui contribuent à enrichir cette matière brute en l’organisant, en la reliant à d’autres informations, en la contextualisant et en la partageant.

Tant que les silos informationnels perdurent et qu’il n’y a pas de véritable culture de la gestion de l’information, l’informatique décisionnelle ne peut être vraiment efficace.

Dans ces conditions, ne croyez-vous pas qu’une prise de décision éclairée relève du miracle ?

Rédigé par Josée Plamondon

27 novembre 2013

L’information n’est pas la priorité des organisations

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 31 octobre 2013.

On dit que Lewis Platt, PDG de Hewlett-Packard dans les années 80, se serait un jour exclamé : « Si, au moins, HP savait ce que HP sait, nous serions trois fois plus productifs. »

Chef d’entreprise clairvoyant et progressiste, Platt reconnaissait que la technologie, seule, ne peut apporter de solution à la difficulté d’accéder à l’information dans son organisation et de faire les connexions nécessaires pour faire du sens.

Si l’offre de solutions technologiques est aujourd’hui abondante, l’information ne semble toujours pas un enjeu prioritaire pour bon nombre d’organisations.

Un actif stratégique, vraiment?

Selon le célèbre théoricien du management Peter Drucker, les données, sans la perspective que donnent les connaissances et l’expérience, ont peu de valeur dans le cadre d’un processus de décision:

Information is data endowed with relevance and purpose

Traduction libre :

L’information c’est des données pertinentes et qui ont une utilité.

Les enjeux et usages stratégiques de la gestion de l’information sont nombreux et distribués dans toute l’organisation :

  • accès à l’information – soit la bonne information, au bon moment;
  • connexions entre les données et les ensembles de données;
  • des données qui font du sens (contexte sémantique);
  • moteurs de recherche  performants;
  • intranets facilitant les échanges de connaissances et le partage d’expertise.

Si l’information est un actif stratégique, rares sont pourtant les entreprises et gouvernements qui accordent autant de ressources à son organisation, son traitement et son analyse qu’à l’acquisition de technologies permettant de la stocker et de la manipuler.

Où sont les ressources?

Thomas Davenport est l’auteur de Information Ecology, le premier ouvrage sur l’approche intégrée de la gestion stratégique de l’information. Selon lui, il y a confusion entre « information » (le contenu) et « informatique » (le contenant).

Despite titles like  » Information Services », « Chief Information Officer » and « Information Center », most such functions are preoccupied  with technology – if not hardware, then software, applications development, and communications. /…/ If you approached the Information Systems help desk of the typical company and asked, « Where can I find information on our competitors in South America? » I doubt you’d get more than a blank stare. 

Traduction libre :

En dépit de titres comme « Services d’information », « Directeur principal de l’information » et « Centre d’information », la plupart de ces fonctions sont concernées par la technologie – voire par le matériel, puis les applications, le développement de logiciels et les communications. /…/ Si vous vous adressiez au service d’assistance technique du service informatique de n’importe quelle entreprise et que vous demandiez, « Où puis-je trouver de l’information sur nos compétiteurs d’Amérique Latine ? » je doute que vous n’obteniez plus qu’un regard déconcerté.

Une piste pourtant maintes fois invoquée, mais rarement mise en œuvre, consisterait à implanter une gouvernance de l’information réunissant les spécialistes de l’informatique et de l’information. Il s’y élaborerait une vision commune de la gestion des actifs informationnels. La gouvernance des projets numériques est un sujet que j’ai d’ailleurs abordé récemment.

Le mirage de la solution technologique

L’informatique n’est pas une fin en soi : c’est une affirmation souvent entendue, mais les pratiques des entreprises et des administrations publiques traduisent une toute autre réalité. Yves Marcoux, spécialiste des documents structurés et professeur à l’École de Bibliothéconomie et des sciences de l’information de l’Université de Montréal, observe dans une étude de la gestion de l’information au gouvernement :

On vivait avec l’impression que la solution résidait dans des investissements toujours plus grands en ressources technologiques (matériel d’abord, puis programmeurs, analystes, infrastructures réseau et logiciels ensuite). Il est maintenant généralement admis que cette façon de concevoir les choses est un cul-de-sac. À la rescousse se sont succédés des courants comme la programmation structurée, l’orientation-objet et une multitude de méthodologies d’analyse, de modélisation, de développement et d’évaluation de systèmes.

Le rapport d’étude a été déposé à l’intention du Directeur principal de l’information, en 2004. Il recommandait entre autres:

La gestion de l’information devait être abordée avec un mélange de pragmatisme et de méthodologie, mais surtout, en mettant l’accent sur les humains qui produisent et utilisent l’information plutôt que sur les technologies qui les aident à le faire.

Sommes-nous prêts pour l’économie du savoir?

Aucune solution de Big data ne pourra toute seule venir à bout d’une accumulation de données et de documents non structurés et sans attributs communs. Nous persistons à ne voir que le volet technologique de la solution. Or, nous passons actuellement d’une ère industrielle à une ère numérique au cours de laquelle le savoir aura autant de valeur que la production.

Si l’information est réellement le carburant de l’économie du savoir, alors il semble que nous soyons en train de construire des réseaux de pipelines sans nous soucier de l’approvisionnement en pétrole !

Élections municipales: affiches électorales sur Twitter

Aucun commentaire

Dimanche soir, j’écoutais Twitter dans l’aquarium de CIBL avec l’équipe de journalistes et d’animateurs. Déçue par ce que j’ai observé par la visualisation de données, j’ai terminé ma soirée électorale en commentant, sur Twitter:

50 nuances de beige. Une carte lexicale d’un ennui… Montréal se cherche un administrateur, pas un visionnaire. #mtl2013 #polmtl

Tout au long de la campagne, les thèmes, porteurs de vision, n’avaient laissé que de faibles traces.  La dynamique n’avait pas changé pendant la dernière journée de la campagne.

Où sont les enjeux ?

C’était prévisible. Au cours de la campagne électorale municipale, sur les flux #mtl2013, #polmtl et #cmmtl, les « affiches électorales virtuelles » ont pratiquement dominé le contenu des publications. Les principaux sujets des publications ont très majoritairement été les candidats(tes) des partis. Les mots les plus fréquemment employés ont été des noms propres et des noms de partis. Quelques mots faisant référence à des thèmes et enjeux de la vie municipale émergeaient, ça et là, mais sans aucune mesure, de façon comparable à la promotion des candidats.

Marketing et communication de masse

Les organisations politiques et leurs agences de communication ont ajouté Twitter à la panoplie des outils et s’en servent à la manière d’un média de masse: pour publier et relancer à répétition un message concernant les activités et bons mots des candidats. Trop peu de candidats s’en sont servi pour écouter les échanges et proposer de l’information utile sur des enjeux précis. Il y en a donc peu, dans cette carte lexicale générée à partir des contenus publiés du  1er août à la fermeture des bureaux de vote, le 3 novembre, à 20h00.

Mtl2013_Lexical_FermBurVot

Carte lexicale des flux #mtl2013 #polmtl #cmmtl (conseil municipal de Montréal), du 1er août au 3 novembre 2013, à 20h00- Nexalogy

Toile de fond: transports collectifs

Quels sujets ou enjeux ont-ils été les plus populaires ? Derrière le changement, thème récurrent en période électorale, ce sont les sujets qui ont trait aux transports collectifs (métro, tramway, SRB ou service rapide par bus) qui ont le plus suscité de publications.

Parmi les 200 mots les plus présents dans les tweets publiés durant cette période, voici ceux qui sont liés à des enjeux ou des thèmes de la politique municipale. Les mots sont suivis de leur rang et de la fréquence de publication :

  • Changement (31e) 1174
  • Métro (72e) 707
  • Tramway (85e) 566
  • Parc (99e) 547
  • SRB (108e) 532
  • Idées (112e) 523
  • Familles (115e) 507
  • Quartier (141e) 437
  • Économique (146e) 429
  • Transparence (157e) 399
  • Idée (161e) 392
  • Enjeux (175e) 371
  • Développement (184e) 361
  • Bus (193e) 354
  • Taxes (195e) 352
  • Étudiants (198e) 349

Opinion publique ou opinion médiatique ?

Les médias constituent la source de la presque totalité des liens échangés. Pendant les 48 heures qui ont précédé le vote, les éditoriaux des quotidiens Le Devoir et La Presse ont été parmi les 5 liens les plus populaires.

Élections du 3 novembre – Pour Bergeron, Bernard Descôteaux, Le Devoir, 2 novembre 2013

Denis Coderre à la mairie , André Pratte, La Presse, 1er novembre 2013

Communiquer, oui, mais quoi ?

L’annonce de l’élection de Denis Coderre à la mairie de Montréal a immédiatement généré de nombreux commentaires dont une grande partie étaient négatifs, ironiques et voire même malicieux. Près de 48 heures après cette annonce, ceux-ci ont disparu de la carte lexicale. Seul un commentaire publié par Gabriel Nadeau-Dubois subsiste car il est abondamment repris. Il témoigne de l’insatisfaction d’une partie de l’électorat face à la faiblesse du contenu proposé.

Carte lexicale - 48 heures après la fermeture des bureaux de vote

Carte lexicale – 48 heures après la fermeture des bureaux de vote (Nexalogy)

Gabriel Nadeau-Dubois, "Cette élection marque le triomphe de la communication vide" - Twitter

Rédigé par Josée Plamondon

6 novembre 2013

Soirée électorale et écoute sociale

Un commentaire

Carte des interactions sur Twitter - #mtl2013 #polmtl #cmmtl 2 novembre 2013, 21h30

Carte des interactions sur Twitter – #mtl2013 #polmtl #ccmtl 2 novembre 2013, 21h30 (Nexalogie)

Marco Fortier, journaliste pour Le Devoir, a donné un bref aperçu de l’activité des candidats à la mairie de Montréal sur les médias sociaux.  Je ne crois pas qu’il s’en trouve pour nier que les réseaux sociaux constituent un canal de plus à intégrer dans une stratégie de communication.

Mais l’adoption de nouveaux usages ne change pas nécessairement notre façon de voir le monde. Si les tweets et les publications sur Facebook remplacent les communiqués sur les fils de presse, on utilise encore les réseaux sociaux comme un média de masse, c’est à dire, d’abord pour diffuser un message, puis, quelquefois, pour interagir avec d’autres internautes. Rarement est-il question d’écouter ce qui ce dit sur un sujet donné avant de prendre la parole.

L’écoute sociale en quelques cas:

Écouter pour mieux communiquer

Dimanche, 3 novembre, je me joindrai à l’équipe de CIBL (101,5 à Montréal) qui, pour la soirée des élections, ouvrira les portes de son studio au public, au coin des rues Saint-Laurent et Sainte-Catherine.

J’utiliserai le logiciel développé par Nexalogie pour analyser les contenus et les interactions sur les flux #mtl2013, #polmtl et #cmmtl. Je partagerai mes observations avec les animateurs et commentateurs qui seront sur place et, également avec l’audience de CIBL.

Il faut être familier avec les interfaces de requête et de production de rapports, ainsi qu’avec les concepts (et pièges) de l’analyse de données. Cependant, Nexalogie a développé une interface qui s’adresse au grand public. Les internautes peuvent donc dès maintenant visualiser les sujets des tweets, les liens qui sont échangés et les comptes qui sont les plus actifs.

L’activité des flux des principaux mots-clés (hashtag) sur Twitter peut être visualisée en français et en anglais:

Élection Montréal sur Twitter en français

Élection Montréal sur Twitter en anglais

Rédigé par Josée Plamondon

2 novembre 2013

Appels d’offres, le maillon faible des projets numériques

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 2 octobre 2013.

Les systèmes informatiques et les sites Internet sont des parties intégrantes d’écosystèmes complexes. Or, demander à des fournisseurs de répondre à un appel d’offres pour la réalisation de projets numériques sans effectuer au préalable une véritable démarche d’analyse revient à demander à différents médecins de prescrire un traitement, basé uniquement sur une description de notre état de santé, sans examen, ni test. Un tel choix de traitement ne se ferait pas sans inquiétude.

Brouillard

Visibilité presque nulle

Il n’est pas surprenant de trouver dans les médias de nombreux cas de dépassement de coûts, comme celui du remplacement du système de commande de la Société de transport de Montréal. Bien que perçu comme un instrument de contrôle des coûts, le contrat à prix fixe est depuis longtemps décrié – cherchez « fixed cost projects » sur Google – comme un des principaux éléments qui contribuent à l’échec des projets en technologie de l’information. Cependant, peu de spécialistes se sont intéressés au problème de visibilité qui est courant dans un processus d’appel d’offres. Tim Bray, un développeur canadien qui a dirigé l’unité des technologies Web chez Sun Microsystems et qui travaille à présent au service des développeurs chez Google, s’est exprimé ainsi sur son blogue :

[...] that kind of thing simply cannot be built if you start with large formal specifications and fixed-price contracts and change-control procedures and so on. So if your enterprise wants the sort of outcomes we’re seeing on the Web (and a lot more should), you’re going to have to adopt some of the cultures and technologies that got them built.

Traduction libre :

Ce genre de chose ne peut être conçu si vous débutez avec de grandes spécifications formelles, des contrats à coûts fixes, des procédures de contrôle des changements et autres. Alors si votre organisation souhaite le genre de résultats que nous voyons sur le Web (et il y en aura plus encore), vous allez devoir adopter les cultures et technologies qui les ont rendus possibles.

À une note de veille que j’ai publiée en 2010, sur les projets dinosauresSylvain Carle avait ajouté, en commentaire, cette réflexion qui tient toujours la route :

Donc plus de petits projets, qui fonctionnent ensemble, sur des protocoles et standards web, small pieces loosely joined. Si c’est assez sécuritaire et « scalable » pour Amazon qui gère des millions en transaction chaque année, ça devrait être bon pour un gouvernement (en tenant compte des spécificités comme la vie privée, bien entendu, autre débat).

Complexité accrue

Les projets sont complexes parce qu’ils répondent à une variété de besoins et d’enjeux, dans un contexte qui change constamment. Ainsi, à une administration qui souhaitait faire développer une application pour publier des documents électroniques, j’ai soumis une liste d’éléments nécessaires à produire, dont voici un aperçu :

  • Analyse détaillée du contenu (propriétaires, audiences cibles, besoins spécifiques, typologie des documents);
  • Documentation de l’environnement technologique existant;
  • Sélection d’un format de publication;
  • Structure de classement;
  • Modèle de métadonnées;
  • Processus de traitement documentaire;
  • Sélection d’un logiciel de gestion documentaire;
  • Politique de gestion du système;
  • Interfaces Web et gestion des accès.

S’agissant d’un projet qui semblait limité à la seule dimension technologique, ce fut pour certains une grosse surprise. Ces éléments constituent pourtant des informations essentielles afin d’assurer la visibilité nécessaire à la préparation des offres de services. Ils contribuent également à évaluer le degré de complexité d’un projet pour mieux s’y préparer. Devrait-on encore faire des appels d’offres pour la réalisation de projets numériques d’une façon similaire aux appels d’offres pour l’achat de mobilier de bureau ou le pavage des routes? Est-il possible de rédiger une proposition sans pouvoir effectuer une analyse et un diagnostic précis? Les appels d’offres sont le maillon faible de nombreux projets numériques. Sommes-nous trop peu nombreux à partager cette opinion?

Mise à jour – 3 octobre 2013

Merci pour la large diffusion et les commentaires reçus; ceux-ci témoignent de la pertinence du sujet. Mais selon vous, comment s’assurer de la réussite d’un projet (échéancier, budget, atteinte des objectifs)? Quels sont les obstacles à l’amélioration du processus d’appel d’offres?

Rédigé par Josée Plamondon

18 octobre 2013