Archives par mot-clé : direction_informatique

Que restera-t-il de la commission Charbonneau?

Initialement publié dans le blogue de Direction informatique, le 10 mars 2014.

La Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a récemment invité les citoyens et les organismes à s’exprimer relativement à l’infiltration de la corruption au sein de processus de gestion publique.

La commission qu’on appelle communément « Commission Charbonneau » devrait favoriser, entre autres, l’implantation d’un système plus intègre et plus équitable. Mais est-ce bien suffisant?

Signalisation-Rond-point

Ce ne sont pas uniquement les processus qu’il faut réviser, c’est aussi l’organisation de l’information : ce qui la rend signifiante et qui facilite le repérage des anomalies et des schémas récurrents.

En janvier dernier, avait lieu à Montréal OpenContracting, une première rencontre sur la standardisation des données relatives aux projets d’aide internationale. La normalisation des métadonnées, ces descripteurs qui décrivent un ensemble de données, permet de connecter entre elles des sources d’information et d’améliorer la traçabilité des flux financiers. La Banque mondiale s’intéresse à cette initiative, car les programmes d’aide au développement sont désormais scrutés par des citoyens et des organismes qui attendent une reddition de compte. Il y a partout, au sein des entreprises comme des gouvernements, un urgent besoin d’organisation et de normalisation des données afin de faciliter le travail des vérificateurs.

Quand on parle de normes et standards dans le domaine des technologies de l’information, on pense surtout à la programmation, aux infrastructures ou aux protocoles, mais rarement aux métadonnées. Et pourtant, comment prendre de bonnes décisions quand les données de nos systèmes ne peuvent se connecter entre elles ?

Connecter les ensembles de données

Au sein de processus, comme la gestion de contrats publics, il faudrait une politique de qualité des données et des principes auxquels devraient se conformer les concepteurs de bases de données. Voici quelques exemples :

  • La nomenclature de champs commune
  • Les formats de métadonnées standards
  • Les règles d’intégrité des données (ex.: champ non renseigné et sans explication, valeur incohérente, orthographe inconstante)

Les journalistes qui ont travaillé avec les données comme celles du Système électronique d’appels d’offres (SEAO) du gouvernement du Québec, entre autres, ont pu constater que ces principes ne sont pas appliqués.

Uniformiser les soumissions

Il est beaucoup plus facile d’analyser les renseignements concernant une entreprise, ainsi que les éléments qui sont inclus dans une soumission, lorsque toutes les données requises sont recueillies à l’aide d’un formulaire – d’une façon similaire à une déclaration de revenu. Autrement, les éléments essentiels sont noyés dans un document qui peut dépasser une centaine de pages.

Il faut donc souhaiter l’uniformisation du format des soumissions par l’imposition d’un support numérique, d’une structure et de champs identiques à tous les soumissionnaires d’un même appel d’offres.

La mise à disposition de données fiables, de qualité et à jour est le moyen le plus efficace et le moins coûteux pour contrecarrer la systématisation de pratiques illégales au sein des administrations publiques. Exposer les lacunes du processus et les dérives d’un système est nécessaire, mais il est essentiel, pour une administration publique efficace, vigilante et transparente, d’investir dans la normalisation de ses ensembles de données.

Adopter des principes et des règles communes

Ce qu’il faut retenir des événements de la Journée internationales des données ouvertes, le 22 février dernier, c’est que différentes administrations publiques se préparent à favoriser l’interconnexion des données.

En effet, les villes de Montréal, Québec, Gatineau, Sherbrooke ainsi que le gouvernement du Québec ont convenu de l’adoption d’une licence commune pour la mise à disposition des ensembles de données ouvertes. Il s’agit d’un gros coup de barre vers la normalisation, alors que les silos technologiques, structurels et culturels prévalent au sein des organisations.

Que restera-t-il des révélations de la commission Charbonneau si nous ne nous attaquons pas au cœur du problème qu’est la qualité de l’information?

Commerce électronique: deux bonnes raisons pour aller voir ailleurs

Initialement publié dans le blogue de Direction informatique, le 18 décembre 2013.

Lorsqu’on parle de commerce électronique au Québec, il est souvent question de stratégie et de technologie, mais rarement d’information. Pourtant, qui n’a déjà fait ou entendu ce genre de commentaire : « C’est plus facile à trouver avec Google que sur le site de [XYZ]! »?

Tout comme l’information stratégique, l’organisation et l’exploitation des données concernant l’offre commerciale ne semblent pas encore faire partie des enjeux prioritaires de trop d’entreprises.

Labyrinthe de la Cathédrale de Reims. Par Coyau (vectorisation), d'après le dessin de Jacques Cellier (vers 1583-1587) [Public domain], via Wikimedia Commons.

Une question d’information

Selon une étude récemment publiée par le CEFRIO, malgré la croissance du nombre d’achats en ligne, ceux-ci sont majoritairement effectués à l’extérieur du Québec. Quel dommage pour notre économie! Parmi les raisons qui pourraient expliquer cette préférence, il y en a deux pour lesquelles il serait tout à fait possible d’apporter des correctifs :

1. Le catalogue de produits n’est pas terrible

Les géants du commerce en ligne, ainsi qu’un nombre croissant de grandes marques américaines, investissent dans la mise en valeur de leur offre commerciale sur Internet en ouvrant aux internautes de très efficaces catalogues de produits.

Cela fait plusieurs années que des sites de commerce européens déploient cette force de frappe numérique. Il suffit, lors d’un séjour outre-mer, de chercher un simple appareil électro-ménager en ligne pour se voir proposer différentes marques et prix à même les résultats affichés par Google. Par ailleurs, plusieurs grandes enseignes s’intéressent au web sémantique afin d’ajuster leur moteur de recherche interne aux besoins exprimés de façon non explicite.

Désolée d’insister : les métadonnées descriptives sont au cœur de la recherche sur Internet. Les moteurs de recherche raffolent particulièrement de celles qui s’appuient sur des formats standards car elles sont faciles à interpréter et à contextualiser. Or, la plupart des catalogues en ligne au Québec ne sont constitués que de fiches d’information qui sont fournies par les manufacturiers. Résultat : il y a aucun format commun et on utilise un vocabulaire qui s’adresse davantage au service de l’approvisionnement qu’à la clientèle cible.

Enrichir les données d’une fiche produit avec des métadonnées permet d’ouvrir un catalogue à un grand nombre d’applications de recherche, et ainsi, de diffuser plus largement une offre qui, autrement, restera confinée au site Internet d’origine.

De tous les secteurs d’activité au Québec, par exemple, seule la musique connaît une initiative liée aux métadonnées. Il s’agit de TGiT, qui promeut l’adoption de métadonnées standards incrustées aux fichiers MP3 afin d’intensifier la présence numérique des créations québécoises.

La concertation autour de normes requiert des efforts considérables de la part de l’ensemble des acteurs d’un écosystème, mais c’est à ce prix que s’acquiert une présence forte et une certaine autonomie face aux géants du web comme Amazon et Apple.

2. La recherche sur ce site est une corvée

L’accessibilité et la qualité de l’information concernant les produits et leurs processus d’achat sont à l’origine de l’insatisfaction de nombreux consommateurs.

Si la partie transactionnelle peut être améliorée par des spécialistes de l’interface utilisateur, l’architecture de l’information devrait être élaborée avec les méthodes des sciences de l’information. De trop nombreux catalogues en ligne, incluant ceux des grandes entreprises, n’ont pas de schéma de classification, de catégorisation et de métadonnées cohérents et évolutifs qui permettraient aux moteurs de recherche internes et externes d’être plus efficaces.

Les moteurs de recherche internes sont rarement paramétrés adéquatement et cela constitue le plus grand irritant : il y a trop de résultats ou bien aucun résultat, le tout sans proposition d’alternative.

Un autre sujet d’amélioration est la recherche à facettes, qui permet de trier des résultats en fonction d’attributs spécifiques. Ces attributs se limitent habituellement au prix et à la marque, alors que d’autres informations plus utiles, comme les caractéristiques propres au type de produit, n’y sont pas.

Par exemple : pour un convecteur de 150 watts, on devrait proposer linéaire, thermostat intégré, puissance, spécialité (p. ex. un chauffe-serviettes). C’est un investissement qui permet de faciliter la recherche et, donc, d’accroître les ventes et de rentabiliser ainsi le coût d’acquisition de la technologie.

De plus, ces attributs permettent non seulement de contextualiser l’offre (p. ex. la variété des options), mais également d’enrichir l’analyse des données sur les besoins de la clientèle.

Le catalogue de produits demeure le maillon faible du commerce électronique au Québec. Pour trop d’entreprises, c’est encore une brochure ou, au mieux, une arborescence de site web. Mais pour les plateformes commerciales à succès, il s’agit plutôt d’un ensemble de données structurées s’adressant aux consommateurs afin de faciliter leurs décisions d’achat. Et pour celles qui sont entrées dans l’économie numérique, c’est aussi la composante d’un système d’information stratégique.

Pour Noël 2014, les sites de commerce en ligne seront-ils enfin passés en mode « information » au Québec?

Contrats publics: des données de qualité pour une meilleure vigilance

Initialement publié dans le blogue de Direction informatique, le 2 décembre 2013.

Par les temps qui courent, on entend souvent dire que des pratiques transparentes et équitables seraient essentielles afin d’accroître la concurrence entre les soumissionnaires et obtenir un meilleur rapport qualité-prix pour réduire les dépenses publiques.

Dans ce contexte, la publication de données relatives au processus d’octroi de contrats publics contribuerait à la transparence de l’appareil gouvernemental et faciliterait la vigilance des citoyens et des fonctionnaires. Encore faut-il que ces données soient structurées, fiables et cohérentes.

Système électronique d'appels d'offres du gouvernement du Québec - SEAO

Le cas du SEAO

Les contrats publics du gouvernement du Québec représentaient, en 2011, un marché de plus de 5 milliards de dollars. En juin dernier, le gouvernement du Québec, par le biais du Conseil du Trésor, libérait les données du Système électronique d’appels d’offres (SEAO). Cette plateforme réunit les appels d’offres du gouvernement du Québec, des municipalités et de divers organismes et agences.

Le 16 novembre dernier, lors d’un hackathon organisé à la Maison Notman, à Montréal, des volontaires se sont penchés sur les données ouvertes du SEAO. Une équipe technique a procédé à l’analyse et au nettoyage de l’ensemble de données. Constat : de nombreux champs sont vides, il n’y a pas d’identifiant unique pour les fournisseurs, ni de formats de métadonnées standards et, surtout, on y trouve un grand nombre de doublons, notamment pour les noms d’entreprise. Ainsi, après « nettoyage », le nombre de fournisseurs est passé de 54 692 à 37 579.

Aussi, le modèle de données fourni est bien insuffisant pour contextualiser l’information et les documents enfermés dans des fichiers PDF ce qui interdit une analyse approfondie de leur contenu.

Intégrité des données et qualité de l’information

Une autre équipe a tenté d’évaluer le système du SEAO en regard des directives sur l’ouverture des données des marchés publics qui ont été publiées par la Sunlight Foundation. Cette association internationale fait la promotion de normes et standards pour la transparence des gouvernements.

Parmi les lacunes identifiées dans le système, voici des éléments qui sont essentiels à la qualité de l’information, mais malheureusement absents des données publiées :

  • Un identifiant unique utilisé de bout en bout du processus de marchés publics, de l’avis d’appel offres jusqu’au rapport des dépenses. Cet identifiant devrait permettre les relations parent-enfant entre les entités à identifier.
  • L’adoption de normes existantes pour la diffusion des données et pour assurer l’interopérabilité de celles-ci entre les unités administratives.
  • Le texte intégral des contrats.
  • L’état des contrats (date d’achèvement prévue, date d’achèvement réelle, dépassements de coût, rendement du contractant).
  • Les données concernant la sous-traitance.

Fonctionnaires et élus mieux équipés et plus vigilants

Ces éléments permettraient de concevoir un tableau de suivi des contrats, depuis la rédaction de l’appel d’offres jusqu’à la livraison des produits/services. Ce serait là, plus qu’une preuve de transparence présentée aux citoyens, un véritable outil de surveillance pour les élus et les fonctionnaires dont la visibilité sur les dossiers et les processus n’est, hélas, souvent guère meilleure que celle des citoyens.

Ce n’est cependant réalisable que si l’on améliore la qualité des données à la source, en imposant des règles concernant la divulgation ainsi que des formats de saisie.

Que pouvons-nous attendre du développement de méga systèmes d’information ou même, de « villes intelligentes », si les administrations publiques n’appliquent pas les méthodes et les normes requises pour assurer la qualité des données ?

Promesses du «BI» et réalités de l’information

Initialement publié dans le blogue de Direction informatique, le 13 novembre 2013.

Si les collections des bibliothèques étaient gérées comme on gère l’information dans les organisations, nous aurions des bibliothèques du Moyen-Âge, où seul un moine érudit pourrait trouver l’information dont vous avez besoin.

Avec ses innombrables répertoires de fichiers, ses nomenclatures incompréhensibles, ses cachettes et ses cul-de-sac, l’écosystème de l’information en entreprise ressemble bien plus à la bibliothèque cauchemardesque du roman Le nom de la rose qu’à un centre de données parfaitement bien organisées. L’informatique décisionnelle ou business intelligence en anglais réaliserait-elle des prodiges ?

Statistiques et indicateurs

La réalité de la gestion et de l’exploitation de l’information dans une organisation a peu changé depuis des décennies. Si la capacité de traitement et d’analyse de l’informatique décisionnelle a considérablement évolué, les problématiques de la gestion stratégique de l’information sont demeurées les mêmes :

Les silos informationnels

C’est l’un des défis les plus importants de l’informatique décisionnelle. Produire une information exacte et complète à propos d’une situation ou d’un événement requiert la mise en relation de données et d’informations diverses et en provenance de différents systèmes et unités d’affaires.

C’est un parcours qui comporte des barrières structurelles (directions, divisions, services), culturelles (rétention de l’information, lutte de pouvoir) et technologiques (systèmes fermés et incompatibles, absence de formats de métadonnées standards).

La partie immergée de l’iceberg

Tel que commenté dans un précédent billet, les organisations investissent davantage dans l’informatique que dans l’information. Rares sont les entreprises qui ont su instituer une véritable culture qui valorise sa gestion et son partage. Le repérage, la collecte et le traitement de l’information sont pourtant des activités quotidiennes : aux courriels, échanges verbaux, annotations de document, présentations et rapports auxquels s’ajoutent aujourd’hui les contenus transitant sur les plateformes collaboratives et les réseaux sociaux.

Cette information n’est pas constituée de données structurées, elle n’est pas catégorisée, elle n’est pas toujours explicite (plus souvent implicite ou ambiguë) et elle est difficilement repérable à l’aide d’un moteur de recherche. Elle a pourtant autant de valeur que celle qui se trouve parmi les données structurées et unifiées dans un entrepôt de données.

L’absence de contexte

La mise en contexte des données est essentielle à une information de qualité. Les indicateurs des systèmes d’aide à la décision projettent une réalité : celle qui provient des données structurées, des calculs et des rapports. On peut s’interroger sur leur capacité à traduire la complexité des multiples facettes d’une organisation. Prenons par exemple la baisse des ventes d’un produit qui peut être liée à un ensemble de facteurs et dont les indicateurs avancés sont, entre autres, des données non explicites et des contenus non structurés comme des échanges de courriels, le tout en provenance de sources diverses :

  • La gestion du personnel (roulement élevé du côté des représentants);
  • Le service à la clientèle (réclamations des consommateurs);
  • La veille stratégique (succès d’un produit concurrent);
  • Le marketing (dénigrement sur les médias sociaux);
  • La gestion des stocks (difficulté d’approvisionnement);
  • La production (baisse de la qualité des pièces d’un fournisseur);
  • Les ventes (commentaires d’acheteurs: produit vieillissant).

Pour contextualiser l’information, il faut pouvoir faire des liens entre les ensembles de données. Une tâche quasi impossible, compte tenu des silos informationnels.

Intelligence collective et informatique décisionnelle

L’intelligence collective d’une organisation repose sur une approche méthodique de la gestion de l’information qui s’appuie sur des standards reconnus, comme les formats de métadonnées descriptives. Elle devrait recourir à des compétences spécialisées dans le traitement et l’organisation des contenus. Elle concerne par ailleurs tous les membres de l’organisation. À cet égard, il faut développer une culture de l’information qui encourage la participation de chacun à la qualification (signalement, validation, modification) et à la gestion des contenus (sélection, mots clés).

L’informatique décisionnelle repose essentiellement sur des données structurées. La technologie ne constitue donc qu’un élément de la solution. Ce sont l’expertise et l’expérience humaine qui contribuent à enrichir cette matière brute en l’organisant, en la reliant à d’autres informations, en la contextualisant et en la partageant.

Tant que les silos informationnels perdurent et qu’il n’y a pas de véritable culture de la gestion de l’information, l’informatique décisionnelle ne peut être vraiment efficace.

Dans ces conditions, ne croyez-vous pas qu’une prise de décision éclairée relève du miracle ?

L’information n’est pas la priorité des organisations

Initialement publié dans le blogue de Direction informatique, le 31 octobre 2013.

On dit que Lewis Platt, PDG de Hewlett-Packard dans les années 80, se serait un jour exclamé : « Si, au moins, HP savait ce que HP sait, nous serions trois fois plus productifs. »

Chef d’entreprise clairvoyant et progressiste, Platt reconnaissait que la technologie, seule, ne peut apporter de solution à la difficulté d’accéder à l’information dans son organisation et de faire les connexions nécessaires pour faire du sens.

Si l’offre de solutions technologiques est aujourd’hui abondante, l’information ne semble toujours pas un enjeu prioritaire pour bon nombre d’organisations.

Un actif stratégique, vraiment?

Selon le célèbre théoricien du management Peter Drucker, les données, sans la perspective que donnent les connaissances et l’expérience, ont peu de valeur dans le cadre d’un processus de décision:

Information is data endowed with relevance and purpose

Traduction libre :

L’information c’est des données pertinentes et qui ont une utilité.

Les enjeux et usages stratégiques de la gestion de l’information sont nombreux et distribués dans toute l’organisation :

  • accès à l’information – soit la bonne information, au bon moment;
  • connexions entre les données et les ensembles de données;
  • des données qui font du sens (contexte sémantique);
  • moteurs de recherche  performants;
  • intranets facilitant les échanges de connaissances et le partage d’expertise.

Si l’information est un actif stratégique, rares sont pourtant les entreprises et gouvernements qui accordent autant de ressources à son organisation, son traitement et son analyse qu’à l’acquisition de technologies permettant de la stocker et de la manipuler.

Où sont les ressources?

Thomas Davenport est l’auteur de Information Ecology, le premier ouvrage sur l’approche intégrée de la gestion stratégique de l’information. Selon lui, il y a confusion entre « information » (le contenu) et « informatique » (le contenant).

Despite titles like ” Information Services”, “Chief Information Officer” and “Information Center”, most such functions are preoccupied  with technology – if not hardware, then software, applications development, and communications. /…/ If you approached the Information Systems help desk of the typical company and asked, “Where can I find information on our competitors in South America?” I doubt you’d get more than a blank stare. 

Traduction libre :

En dépit de titres comme “Services d’information”, “Directeur principal de l’information” et “Centre d’information”, la plupart de ces fonctions sont concernées par la technologie – voire par le matériel, puis les applications, le développement de logiciels et les communications. /…/ Si vous vous adressiez au service d’assistance technique du service informatique de n’importe quelle entreprise et que vous demandiez, “Où puis-je trouver de l’information sur nos compétiteurs d’Amérique Latine ?” je doute que vous n’obteniez plus qu’un regard déconcerté.

Une piste pourtant maintes fois invoquée, mais rarement mise en œuvre, consisterait à implanter une gouvernance de l’information réunissant les spécialistes de l’informatique et de l’information. Il s’y élaborerait une vision commune de la gestion des actifs informationnels. La gouvernance des projets numériques est un sujet que j’ai d’ailleurs abordé récemment.

Le mirage de la solution technologique

L’informatique n’est pas une fin en soi : c’est une affirmation souvent entendue, mais les pratiques des entreprises et des administrations publiques traduisent une toute autre réalité. Yves Marcoux, spécialiste des documents structurés et professeur à l’École de Bibliothéconomie et des sciences de l’information de l’Université de Montréal, observe dans une étude de la gestion de l’information au gouvernement :

On vivait avec l’impression que la solution résidait dans des investissements toujours plus grands en ressources technologiques (matériel d’abord, puis programmeurs, analystes, infrastructures réseau et logiciels ensuite). Il est maintenant généralement admis que cette façon de concevoir les choses est un cul-de-sac. À la rescousse se sont succédés des courants comme la programmation structurée, l’orientation-objet et une multitude de méthodologies d’analyse, de modélisation, de développement et d’évaluation de systèmes.

Le rapport d’étude a été déposé à l’intention du Directeur principal de l’information, en 2004. Il recommandait entre autres:

La gestion de l’information devait être abordée avec un mélange de pragmatisme et de méthodologie, mais surtout, en mettant l’accent sur les humains qui produisent et utilisent l’information plutôt que sur les technologies qui les aident à le faire.

Sommes-nous prêts pour l’économie du savoir?

Aucune solution de Big data ne pourra toute seule venir à bout d’une accumulation de données et de documents non structurés et sans attributs communs. Nous persistons à ne voir que le volet technologique de la solution. Or, nous passons actuellement d’une ère industrielle à une ère numérique au cours de laquelle le savoir aura autant de valeur que la production.

Si l’information est réellement le carburant de l’économie du savoir, alors il semble que nous soyons en train de construire des réseaux de pipelines sans nous soucier de l’approvisionnement en pétrole !

Appels d’offres, le maillon faible des projets numériques

Initialement publié dans le blogue de Direction informatique, le 2 octobre 2013.

Les systèmes informatiques et les sites Internet sont des parties intégrantes d’écosystèmes complexes. Or, demander à des fournisseurs de répondre à un appel d’offres pour la réalisation de projets numériques sans effectuer au préalable une véritable démarche d’analyse revient à demander à différents médecins de prescrire un traitement, basé uniquement sur une description de notre état de santé, sans examen, ni test. Un tel choix de traitement ne se ferait pas sans inquiétude.

Brouillard

Visibilité presque nulle

Il n’est pas surprenant de trouver dans les médias de nombreux cas de dépassement de coûts, comme celui du remplacement du système de commande de la Société de transport de Montréal. Bien que perçu comme un instrument de contrôle des coûts, le contrat à prix fixe est depuis longtemps décrié – cherchez « fixed cost projects » sur Google – comme un des principaux éléments qui contribuent à l’échec des projets en technologie de l’information. Cependant, peu de spécialistes se sont intéressés au problème de visibilité qui est courant dans un processus d’appel d’offres. Tim Bray, un développeur canadien qui a dirigé l’unité des technologies Web chez Sun Microsystems et qui travaille à présent au service des développeurs chez Google, s’est exprimé ainsi sur son blogue :

[…] that kind of thing simply cannot be built if you start with large formal specifications and fixed-price contracts and change-control procedures and so on. So if your enterprise wants the sort of outcomes we’re seeing on the Web (and a lot more should), you’re going to have to adopt some of the cultures and technologies that got them built.

Traduction libre :

Ce genre de chose ne peut être conçu si vous débutez avec de grandes spécifications formelles, des contrats à coûts fixes, des procédures de contrôle des changements et autres. Alors si votre organisation souhaite le genre de résultats que nous voyons sur le Web (et il y en aura plus encore), vous allez devoir adopter les cultures et technologies qui les ont rendus possibles.

À une note de veille que j’ai publiée en 2010, sur les projets dinosauresSylvain Carle avait ajouté, en commentaire, cette réflexion qui tient toujours la route :

Donc plus de petits projets, qui fonctionnent ensemble, sur des protocoles et standards web, small pieces loosely joined. Si c’est assez sécuritaire et « scalable » pour Amazon qui gère des millions en transaction chaque année, ça devrait être bon pour un gouvernement (en tenant compte des spécificités comme la vie privée, bien entendu, autre débat).

Complexité accrue

Les projets sont complexes parce qu’ils répondent à une variété de besoins et d’enjeux, dans un contexte qui change constamment. Ainsi, à une administration qui souhaitait faire développer une application pour publier des documents électroniques, j’ai soumis une liste d’éléments nécessaires à produire, dont voici un aperçu :

  • Analyse détaillée du contenu (propriétaires, audiences cibles, besoins spécifiques, typologie des documents);
  • Documentation de l’environnement technologique existant;
  • Sélection d’un format de publication;
  • Structure de classement;
  • Modèle de métadonnées;
  • Processus de traitement documentaire;
  • Sélection d’un logiciel de gestion documentaire;
  • Politique de gestion du système;
  • Interfaces Web et gestion des accès.

S’agissant d’un projet qui semblait limité à la seule dimension technologique, ce fut pour certains une grosse surprise. Ces éléments constituent pourtant des informations essentielles afin d’assurer la visibilité nécessaire à la préparation des offres de services. Ils contribuent également à évaluer le degré de complexité d’un projet pour mieux s’y préparer. Devrait-on encore faire des appels d’offres pour la réalisation de projets numériques d’une façon similaire aux appels d’offres pour l’achat de mobilier de bureau ou le pavage des routes? Est-il possible de rédiger une proposition sans pouvoir effectuer une analyse et un diagnostic précis? Les appels d’offres sont le maillon faible de nombreux projets numériques. Sommes-nous trop peu nombreux à partager cette opinion?

Mise à jour – 3 octobre 2013

Merci pour la large diffusion et les commentaires reçus; ceux-ci témoignent de la pertinence du sujet. Mais selon vous, comment s’assurer de la réussite d’un projet (échéancier, budget, atteinte des objectifs)? Quels sont les obstacles à l’amélioration du processus d’appel d’offres?

Gouvernance des projets numériques: une question de perspectives

Initialement publié dans le blogue de Direction informatique, le 14 août 2013.

Cloisonnement - Équipe en silo

Le numérique, c’est plus que de l’informatique. Alors, pourquoi la plupart des projets numériques sont-ils encore gérés uniquement dans une perspective « TI » ? Je ne suis pas la seule à poser cette question ni à croire qu’une gouvernance de projet élargie permettrait de composer avec la réalité complexe des organisations et de la société.

L’outil est-il la solution ?

Pour Evgeny Morozov, spécialiste de l’implication politique des technologies de l’information, les géants des technologies nous enferment dans un « solutionnisme » illusoire. Leur objectif ? Préserver un écosystème qui les avantage :

To Save Everything, Click Here : The Folly of Technological Solutionnism.

Il n’est pas nécessaire de partager ses opinions pour reconnaître que l’informatique est un outil de développement et non une fin en soi. Comment proposer une solution unidimensionnelle (technologie) à une problématique multidimensionnelle (enjeux politiques, changement organisationnel, approche cognitive, etc.) ?

Une perspective limitée

La politique interne, la culture organisationnelle et les silos informationnels ne sont que quelques exemples d’enjeux critiques qui sont occultés par une perspective de gestion de projet qui est essentiellement technologique. Cette problématique a d’ailleurs fait l’objet d’une étude conjointe des revues Harvard Business Review  et The Economist. Il en ressort que les chefs d’entreprise s’interrogent sur la capacité de leurs directeurs principaux de l’information (CIO) à comprendre les enjeux d’affaires à l’ère numérique.

A number of the conversations started with the assumption that social engagement, collaboration and analytics were not part of IT, but the responsibility of marketing.

Traduction libre: « Nombre d’entretiens ont débuté avec la présomption que l’engagement social, la collaboration et l’analyse d’audience web ne faisaient pas partie des TI, mais qu’ils relevaient du marketing. » (Jim Stikeleather, The CIO in Crisis: What You Told Us)

Déconnexion

Autre son de cloche : Dan Hill est consultant en intégration des pratiques des domaines de la technologie, des médias, du design et de l’urbanisme. Dans un essai qu’il a écrit à la demande de la London School of Economics sur le thème des villes intelligentes, il partage sans ménagement ce que plusieurs d’entre nous constatent dans divers secteurs d’activité.

Observe how Amazon and Net-A-Porter are changing the physical fabric of the high street; how Nike+ is changing how we exercise; how Kickstarter is changing the structure of the creative industries; how Apple has changed media; how Google is altering basic literacy, almost extending cognition; how Facebook and Twitter helped drive last years’ Peak News events.

Compare to your average municipality’s IT department: do we have the right people, the right culture, around the decision-making table?

Traduction libre: Observez comment Amazon et Net-A-Porter transforment les grandes enseignes commerciales; comment Nike+ transforme la façon dont nous faisons de l’exercice; comment Kickstarter transforme la structure des industries créatives; comment Apple transforme les médias, comment Google modifie l’alphabétisation, et même le processus cognitif; comment Facebook et Twitter ont contribué aux grands titres des actualités de l’année.

Comparez cela au service des TI de n’importe quelle municipalité : avons-nous les bonnes personnes, la bonne culture autour de la table où se prennent les décisions ? (Dan Hill, Essay : On the smart city; Or, a ” manifesto ” for smart citizens instead)

Multiplier les perspectives sur une problématique permet de trouver de meilleures pistes de solutions. Sortir du confort d’un système de référence unique favorise à coup sûr l’innovation. Si donc, un projet numérique est bien plus que de l’informatique, ne serait-il pas nécessaire d’adopter une approche transdisciplinaire pour une meilleure gouvernance de projet numérique ?

Poser la question, c’est… attendre vos réponses.