SÉRENDIPITÉ

Mutations – Modèles, usages et contenus numériques

naples-brocanteur

Distribution de masse et individualisation de la consommation

Aucun commentaire

Signalisation: tirez, poussez

Lu dans le cahier Télévisions du journal Le Monde (7-13 juillet 2014).

Maîtriser le code, c’est contrôler la connaissance et la diffusion. Ayants droit et groupes audiovisuels ne l’ont manifestement pas encore bien assimilés. (Olivier Dumons)

La télé rattrapée par les pirates, par Olivier Dumons

Les chaînes cherchent à endiguer l’essor du piratage de leurs contenus numériques. Certaines proposent même de nouer des partenariats avec des sites de copie de programmes.

Nous somme clairement dans une phase de transition. La télévision de rattrapage n’existait pas il y a trois ans. Sous la pression des usages, les ayants droit vont devoir évoluer, la réglementation devra suivre et la manière de commercialiser aussi. On voit bien par exemple qu’un abonnement à bas coût peut régler beaucoup de problèmes. Il nous faut donc inventer des modèles d’affaires qui tiennent compte de ces possibilités techniques plutôt que de sortir un arsenal répressif. » (Philippe Deloeuvre, directeur de la stratégie, France Télévisions)

Les chaînes françaises se cherchent un avenir, par Olivier Dumons

Groupe d’étude « Médias et nouvelles technologies » du Sénat – Réunion des principaux acteurs de l’audiovisuel français afin d’exposer leurs craintes face aux nouveaux acteurs audiovisuels de type Netflix, ainsi que face aux mutations du marché. 25 juin 2014.

Les diffuseurs s’adressaient jusqu’à présent à des foyers avec des réseaux assez encadrés. Aujourd’hui, nous devons nous adresser à des individus distincts, comme dans la téléphonie. /…/ Cette individualisation de la consommation nous affecte fortement car nous n’avons toujours pas trouvé de solutions pour financer le cinéma français avec cette demande individuelle, aussi forte soit-elle. (Manuel Alduy, directeur de Canal+)

Le numérique accélère le déclin de l’antenne, par Joël Morio

Un foyer sur cinq ne dispose que d’une box pour recevoir les programmes, même sir la télévision numérique terrestre reste le premier mode de réception (57,9%). /…/ Les tablettes, ordinateurs et smartphones se substituent doucement mais sûrement à l’écran du salon.

Inversion du courant

À contrario de la distribution de contenu dans un marché de masse:  l’individualisation de la consommation (accéder au contenu que je veux et quand je veux) propulsée par l’adoption généralisée des outils et usages numériques.

Dans l’urgence, recherche de nouveaux modèles de financement, de distribution et de production.

L’individualisation de la consommation requiert , non seulement la maîtrise du code mais surtout, la littératie des données. Celle-ci permet de contextualiser la demande afin que les infrastructures, les acteurs et les contenus puissent s’adapter et demeurer des options.

Rédigé par Josée Plamondon

3 août 2014

Littératie des données: transparence et qualité de l’information

Aucun commentaire

Commission européenne - Formation en ligne sur la qualité des données ouvertes

Commission européenne – Formation en ligne sur la qualité des données ouvertes

Nous avons besoin d’une culture qui fasse bien comprendre qu’une donnée n’est pas quelque chose de naturel, mais de construit. Les données sont construites, produites, et le processus de fabrication est aussi important que la donnée en elle-même. Evelyn Ruppert, sociologue spécialiste des données.

Données ouvertes, journalisme de données, intelligence d’affaires et exploitation de la datamasse (big data, au sens de biomasse): les données sont les principales ressources de l’ère numérique. La qualité des données et la normalisation des ensembles de données sont cependant des enjeux qui demeurent généralement ignorés dans les projets numériques.  Il n’est donc pas étonnant que l’information dont nos gouvernants et nos institutions disposent soit difficilement exploitable et peu fiable.

Mémoire déposé à la commission Charbonneau

Le 13 juin 2014, j’ai déposé un mémoire dans le cadre des consultations publiques de la Commission d’enquête sur l’industrie de la construction (commission Charbonneau) qui vise plus particulièrement l’attribution de contrats publics.

Lire  le mémoire que j’ai déposé à la commission Charbonneau.

Mise à jour (14 juillet 2014)

Je tiens à souligner qu’à ma connaissance deux autres mémoires ciblent spécifiquement le rôle essentiel que joue la libération des données publiques dans l’établissement de processus transparents et équitables:

NordOuvert /OpenNorth

Rôle des données ouvertes pour diminuer la corruption et les bonnes pratiques internationales en matière de divulgation des données sur les marchés publics.

Hackons la corruption

Projet de citoyens visant à combattre la corruption en améliorant la transparence des contrats publics publiés sur le site du Système électronique d’appels d’offres (SEAO.ca)

FACIL 

Organisme sans but lucratif dont le mandat est de promouvoir l’adoption, l’usage et la démocratisation de l’informatique libre.  N’ayant pas pu publier de mémoire, FACIL a transmis ses commentaires à la Commission dont en voici un extrait:

Pour le dire sans détour, nous croyons que les systèmes publics d’information à la disposition des citoyens pour l’exercice de leurs devoirs de surveillance des activités de l’État doivent être revus complètement afin de les rendre compatibles avec l’éthique de l’informatique libre. C’est à cette condition qu’ils seront vraiment utiles autant aux citoyens lambda qu’aux élus et aux fonctionnaires.

Les trois documents que nous vous présentons traitent, dans l’esprit du «gouvernement ouvert», des critères que doivent rencontrer les systèmes informatiques de divulgation de l’information sur les marchés publics et le lobbyisme. Le premier a été produit par FACIL, tandis que les deux autres sont des traductions de FACIL. Mathieu Gauthier-Pilote, membre du conseil d’administration de FACIL

Le «Dossier gouvernement ouvert» peut être consulté sur le wiki de FACIL: http://wiki.facil.qc.ca/view/Dossier_gouvernement_ouvert

Il est très encourageant de constater la présence d’acteurs du secteur numérique  parmi les propositions soumises aux consultations publiques dans le cadre de cette commission d’enquête.

Rédigé par Josée Plamondon

12 juillet 2014

Les femmes en TIC et le syndrome de l’imposteur

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 23 mai 2014.

Hedy Lamarr - Actrice, productrice et inventrice.

Hedy Lamarr – Actrice, productrice et inventrice d’un système de codage des transmissions (GPS, Wi-Fi)

Pourquoi hésitons-nous, nous les femmes, à faire notre place dans le domaine des TI? Notre présence en plus grand nombre dans les technologies de l’information et des communications (ce dernier élément est trop souvent omis) représenterait pourtant une opportunité de transformation pour un secteur qui, comme tant d’autres, doit s’adapter à la nouvelle culture et aux usages numériques. Le 14 mai dernier, le Réseau Action TI se penchait sur cette question lors de la soirée Femmes en TI : place au leadership qui était organisée dans les bureaux montréalais de Google. Une conférencière et cinq panélistes étaient invités à partager leurs expériences et perspectives sur les enjeux d’une plus grande mixité dans le domaine des TIC. Pourquoi les femmes y sont-elles toujours aussi peu nombreuses, alors qu’elles ont déjà investi d’autres domaines où elles étaient minoritaires et que le web a élargi l’accès aux outils de conception numérique? Voici quelques pistes de réponses.

Diminution généralisée des inscriptions en TIC

D’abord, il ne faut pas sous-estimer la tendance générale : selon les statistiques publiées par TechnoCompétences, près de 12 ans après l’éclatement de la bulle techno, le bassin d’étudiants inscrits en TIC n’est pas encore remonté au même niveau et ce, malgré une demande toujours croissante. Si la filière attire moins les garçons, il n’est guère étonnant que les filles ne s’y précipitent pas non plus.

Mode d’apprentissage à adapter

Ensuite, il faudrait s’intéresser d’un peu plus près aux milieux d’apprentissage. Si la programmation informatique ne semble pas très attrayante pour les femmes, c’est peut-être parce que l’enseignement actuel ne convient pas à bon nombre d’entre elles. L’approche décontractée des groupes d’apprentissage Ladies Learning Code, plus pratique et moins compétitive, apporte peut-être une piste de solution.

Environnement de travail inclusif

Le monde du travail et les entreprises s’adaptent progressivement aux spécificités et aux attentes d’une main-d’œuvre plus diversifiée. Cette adaptation est-elle plus lente à se concrétiser dans le secteur des TIC ? Certaines entreprises, comme Google Montréal ou Desjardins, ont modifié leurs environnements de travail et leurs programmes de développement professionnel afin d’attirer des candidatures de choix parmi les femmes intéressées à faire carrière dans le domaine.

De l’informatique au numérique

Dans une perspective strictement technologique, il y a effectivement peu de femmes qui programment. Mais dans une perspective plus large, celle des projets numériques, elles sont nettement plus nombreuses : chargées de projets, analystes d’affaires, conceptrices d’interfaces, ergonomes, pour ne nommer que quelques fonctions. Parmi les conférencières et panélistes, Viviane Gravel, entrepreneure en série (Metix Capital), Luce Julien, journaliste (Radio-Canada), Nancy Naluz, coordonnatrice de formation (Ladies Learning Code), Maha Lebbos, chef de produits (Pages Jaunes) et Danielle Savoie, gestionnaire (Desjardins) ne sont pas issues de l’informatique, mais elles détiennent cependant la diversité d’expertise et de perspective que requièrent les organisations à présent pour innover et se renouveler.

Le syndrome de l’imposteur

Si la programmation n’est pas l’unique voie d’accès et de réussite des femmes dans les métiers du numérique, certains croient que sa maîtrise est une compétence essentielle pour qu’elles puissent jouer pleinement leur rôle au sein de l’équipe. À la soirée Femmes en TI : place au leadership, certaines panélistes ont évoqué cette impression de ne pas se sentir à leur place, de ne pas avoir ce qu’il faut pour occuper un poste convoité, de ne pas être assez performante. Ce « syndrome de l’imposteur » évoqué par l’une d’entre elles serait probablement moins susceptible de se manifester dans un milieu de travail plus ouvert à la diversité des compétences et des pratiques. Ceci dit, chacun sait que le secteur des technologies de l’information et des communications n’échappe pas à la vague de changement qui affecte la plupart des activités humaines. Les problèmes et les solutions étant de plus en plus complexes, il faut multiplier les perspectives, concevoir et travailler dans une plus grande interdisciplinarité. La mixité est probablement l’un des moyens permettant d’y arriver. Quelle vision du secteur des TIC préférez-vous : traditionnelle et monoculturelle ou transformatrice et diversifiée?

Rédigé par Josée Plamondon

9 juillet 2014

Serons-nous clients ou bâtisseurs de la nouvelle économie?

Un commentaire

Initialement publié dans le blogue de Direction informatique, le 8 avril 2014.

Program or be programmed - David Rushkoff

Il y a plus d’avantages à être celui qui contrôle un système que celui qui l’utilise.

L’intense compétition entre les acteurs mondiaux des technologies de l’information et l’importance des investissements consentis par plusieurs gouvernements témoignent du passage de l’ère industrielle à celle du numérique.

Malheureusement, il semble qu’au Québec et au Canada, nous ayons choisi d’être des clients plutôt que de figurer parmi les bâtisseurs de la nouvelle économie.

La semaine dernière, on apprenait que Bibliothèque et Archives Canada (BAC) se prépare à remettre la gestion de son catalogue à OCLC, une organisation basée aux États-Unis, faute d’avoir trouvé chez nous un fournisseur capable d’effectuer la modernisation de son système de gestion. Comme c’est le cas dans la plupart des organisations, BAC est aux prises avec un système qui est désuet et ne répond pas aux exigences d’interopérabilité et de flexibilité des réseaux d’information collaboratifs.

Les professionnels des sciences de l’information connaissent bien OCLC (Online Computer Library Center), un organisme à but non lucratif à qui on doit, entre autres, WorldCat, l’agrégation des catalogues de bibliothèques publiques du monde, et Dublin Core, le schéma de métadonnées normalisé qui permet de décrire des ressources numériques. Il ne fait aucun doute que le développement du nouveau système de BAC serait ainsi entre de bonnes mains, même s’il n’est pas souhaitable que les données du patrimoine documentaire et culturel canadien soient hébergées hors de nos frontières.

Cette nouvelle soulève par ailleurs trois enjeux importants pour notre avenir dans une économie numérique :

1. Les systèmes collaboratifs et les données connectées

Il est inquiétant qu’aucune entreprise canadienne du secteur des technologies de l’information ne puisse satisfaire les besoins de BAC. Ce sont des besoins très similaires à ceux des administrations publiques, notamment, dans le contexte des systèmes collaboratifs et du partage de données.

2. L’expertise de l’information

L’exploitation de données n’est pas uniquement une question de technologie. C’est également la maîtrise des principes, méthodes et normes d’organisation des données et des contenus que l’on retrouve en bibliothéconomie et en sciences de l’information. Il y a encore trop peu de spécialistes de l’information là où il le faudrait, notamment en amont des grands projets numériques.

3. La présence numérique

Étrangement, lorsqu’on recherche sur Internet nos créations artistiques et notre patrimoine culturel, les sites des grands acteurs du commerce électronique devancent généralement ceux de nos institutions culturelles. Quand ils ne sont pas inaccessibles aux internautes, les catalogues de nos bibliothèques, musées et autres diffuseurs sont en effet invisibles pour les moteurs de recherche.

4. La dépendance technologique

En sous-traitant la maîtrise d’oeuvre et l’hébergement de projets numériques, les gouvernements privatisent peu à peu l’information, fragmentent des ensembles de données qui devraient être interconnectés et renoncent à développer une expertise interne. De ce fait, en augmentant leur dépendance à des fournisseurs externes, les administrations publiques vont à contre-courant de la nécessaire appropriation des compétences et des usages numériques par les organisations.

Les données, leur valorisation et leur exploitation, sont au cœur de l’économie de l’ère numérique. Nous avons encore le choix entre devenir les bâtisseurs ou rester les clients d’outils technologiques, tout comme nous avons encore le choix entre exploiter nos contenus et en céder le contrôle.

Tout comme le système du catalogue de BAC, combien de temps nous reste-t-il avant de devenir numériquement obsolètes?

Que restera-t-il de la commission Charbonneau?

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 10 mars 2014.

La Commission d’enquête sur l’octroi et la gestion des contrats publics dans l’industrie de la construction a récemment invité les citoyens et les organismes à s’exprimer relativement à l’infiltration de la corruption au sein de processus de gestion publique.

La commission qu’on appelle communément « Commission Charbonneau » devrait favoriser, entre autres, l’implantation d’un système plus intègre et plus équitable. Mais est-ce bien suffisant?

Signalisation-Rond-point

Ce ne sont pas uniquement les processus qu’il faut réviser, c’est aussi l’organisation de l’information : ce qui la rend signifiante et qui facilite le repérage des anomalies et des schémas récurrents.

En janvier dernier, avait lieu à Montréal OpenContracting, une première rencontre sur la standardisation des données relatives aux projets d’aide internationale. La normalisation des métadonnées, ces descripteurs qui décrivent un ensemble de données, permet de connecter entre elles des sources d’information et d’améliorer la traçabilité des flux financiers. La Banque mondiale s’intéresse à cette initiative, car les programmes d’aide au développement sont désormais scrutés par des citoyens et des organismes qui attendent une reddition de compte. Il y a partout, au sein des entreprises comme des gouvernements, un urgent besoin d’organisation et de normalisation des données afin de faciliter le travail des vérificateurs.

Quand on parle de normes et standards dans le domaine des technologies de l’information, on pense surtout à la programmation, aux infrastructures ou aux protocoles, mais rarement aux métadonnées. Et pourtant, comment prendre de bonnes décisions quand les données de nos systèmes ne peuvent se connecter entre elles ?

Connecter les ensembles de données

Au sein de processus, comme la gestion de contrats publics, il faudrait une politique de qualité des données et des principes auxquels devraient se conformer les concepteurs de bases de données. Voici quelques exemples :

  • La nomenclature de champs commune
  • Les formats de métadonnées standards
  • Les règles d’intégrité des données (ex.: champ non renseigné et sans explication, valeur incohérente, orthographe inconstante)

Les journalistes qui ont travaillé avec les données comme celles du Système électronique d’appels d’offres (SEAO) du gouvernement du Québec, entre autres, ont pu constater que ces principes ne sont pas appliqués.

Uniformiser les soumissions

Il est beaucoup plus facile d’analyser les renseignements concernant une entreprise, ainsi que les éléments qui sont inclus dans une soumission, lorsque toutes les données requises sont recueillies à l’aide d’un formulaire – d’une façon similaire à une déclaration de revenu. Autrement, les éléments essentiels sont noyés dans un document qui peut dépasser une centaine de pages.

Il faut donc souhaiter l’uniformisation du format des soumissions par l’imposition d’un support numérique, d’une structure et de champs identiques à tous les soumissionnaires d’un même appel d’offres.

La mise à disposition de données fiables, de qualité et à jour est le moyen le plus efficace et le moins coûteux pour contrecarrer la systématisation de pratiques illégales au sein des administrations publiques. Exposer les lacunes du processus et les dérives d’un système est nécessaire, mais il est essentiel, pour une administration publique efficace, vigilante et transparente, d’investir dans la normalisation de ses ensembles de données.

Adopter des principes et des règles communes

Ce qu’il faut retenir des événements de la Journée internationales des données ouvertes, le 22 février dernier, c’est que différentes administrations publiques se préparent à favoriser l’interconnexion des données.

En effet, les villes de Montréal, Québec, Gatineau, Sherbrooke ainsi que le gouvernement du Québec ont convenu de l’adoption d’une licence commune pour la mise à disposition des ensembles de données ouvertes. Il s’agit d’un gros coup de barre vers la normalisation, alors que les silos technologiques, structurels et culturels prévalent au sein des organisations.

Que restera-t-il des révélations de la commission Charbonneau si nous ne nous attaquons pas au cœur du problème qu’est la qualité de l’information?

Rédigé par Josée Plamondon

9 mars 2014

Données ouvertes : transformer le gouvernement

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 27 janvier 2014.

Si on peut s’interroger sur la qualité des ensembles de données ouvertes, comme c’est le cas pour celles du Système électronique d’appel d’offres (SEAO), que penser de celle des bases de données de l’appareil gouvernemental?

Jusqu’à présent, les professionnels des sciences de l’information étaient pratiquement absents des projets informatiques. Pourtant, la libération de données constitue une opportunité pour les spécialistes de l’organisation et de l’indexation de contenu, mais aussi pour les administrations qui souhaitent passer en mode numérique.

Principes de l'ouverture des données

Principes de l’ouverture des données – Portail des données ouvertes de la Ville de Montréal

Vecteur de changement

Le parlement de l’État du New South Wales en Australie, qui décrétait en novembre dernier que les données gouvernementales seraient ouvertes par défaut, a publié une politique pour assurer la qualité de ses données. Cette politique comprend des normes, des directives et des procédures pour une gestion des données et de l’information de manière sécuritaire, structurée et uniforme.

En libérant ses données par défaut, ce gouvernement oblige l’ensemble de ses ministères, agences et institutions à prendre les mesures nécessaires pour que les systèmes d’information soient conformes. Un tel changement en profondeur soutenu par le ministère des Finances.

Et ici?

De nombreux organismes, réseaux et initiatives citoyennes interagissent avec des représentants des administrations provinciale et municipales qui sont convaincus du rôle central des données pour le développement socioéconomique du Québec.

Voici deux activités d’intérêt qui auront lieu sous peu :

1. Des normes mondiales pour les contrats publics

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics.

L’adoption de normes communes est essentielle parce qu’elle permet de connecter des ensembles de données et d’analyser de l’information pour prendre de meilleures décisions.

C’est un événement auquel se devraient d’assister les représentants de l’administration, des technologies, des sciences de l’information, du monde des affaires.

2. Des données ouvertes pour se faciliter la ville

Le 22 février prochain, des événements auront lieu simultanément au Québec pour souligner la Journée internationale des données ouvertes. Pour l’occasion, la Ville de Montréal accueillera dans ses locaux de la rue Brennan une rencontre organisée par Québec Ouvert.

Les citoyens, les fonctionnaires, les entrepreneurs, les développeurs et les chercheurs qui souhaitent se tenir à jour sur les récents développements, échanger des informations, présenter des projets ou étendre leur réseau de contacts sont les bienvenus.

Harout Chitilian, le vice-président du comité exécutif de la Ville de Montréal, qui est responsable de la réforme administrative, du dossier de la Ville intelligente ainsi que des technologies de l’information, sera présent.

Amélioration ouverte

Dans le foulée de précurseurs comme les États-Unis et plusieurs pays d’Europe, de nombreuses administrations publiques libèrent des ensembles de données qu’elles mettent à la disposition des citoyens et entreprises.

En plus de la transparence, de telles initiatives permettent d’atteindre plusieurs objectifs, comme favoriser le développement d’applications, améliorer l’accès à l’information, accroître l’offre de services gouvernementaux, contribuer à la recherche et au démarrage d’entreprises.

Surtout, libérer des données c’est améliorer ses processus internes par l’adoption de normes reconnues et de meilleures pratiques. La libération de données est un vecteur de transformation organisationnelle.

Rédigé par Josée Plamondon

10 février 2014

Contrats publics: standards de qualité des données ouvertes

Un commentaire

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics. La piètre qualité des données ouvertes du Système électronique d’appels d’offres (SEAO) devrait nous inciter à exiger l’adoption d’une politique pour des données fiables, à jour et exploitables.

Open Contracting est une initiative internationale, parrainée, entre autres, par la World Wide Web Foundation. Il s’agit d’une première action officielle qui a pour objectif le développement de standards pour améliorer la qualité de l’information des marchés publics.

L’atelier est gratuit et ouvert à toux ceux qui s’intéressent aux enjeux de la transparence, de la gouvernance et de l’accès à l’information: citoyens,   professionnels des technologie de l’information, fonctionnaires, entrepreneurs, juristes.

L’activité aura lieu au Hilton Bonaventure, de 9h00 à 15h00, le 31 janvier 2014. Inscription requise pour participer.

Rédigé par Josée Plamondon

27 janvier 2014

Commerce électronique: deux bonnes raisons pour aller voir ailleurs

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 18 décembre 2013.

Lorsqu’on parle de commerce électronique au Québec, il est souvent question de stratégie et de technologie, mais rarement d’information. Pourtant, qui n’a déjà fait ou entendu ce genre de commentaire : « C’est plus facile à trouver avec Google que sur le site de [XYZ]! »?

Tout comme l’information stratégique, l’organisation et l’exploitation des données concernant l’offre commerciale ne semblent pas encore faire partie des enjeux prioritaires de trop d’entreprises.

Labyrinthe de la Cathédrale de Reims

Une question d’information

Selon une étude récemment publiée par le CEFRIO, malgré la croissance du nombre d’achats en ligne, ceux-ci sont majoritairement effectués à l’extérieur du Québec. Quel dommage pour notre économie! Parmi les raisons qui pourraient expliquer cette préférence, il y en a deux pour lesquelles il serait tout à fait possible d’apporter des correctifs :

1. Le catalogue de produits n’est pas terrible

Les géants du commerce en ligne, ainsi qu’un nombre croissant de grandes marques américaines, investissent dans la mise en valeur de leur offre commerciale sur Internet en ouvrant aux internautes de très efficaces catalogues de produits.

Cela fait plusieurs années que des sites de commerce européens déploient cette force de frappe numérique. Il suffit, lors d’un séjour outre-mer, de chercher un simple appareil électro-ménager en ligne pour se voir proposer différentes marques et prix à même les résultats affichés par Google. Par ailleurs, plusieurs grandes enseignes s’intéressent au web sémantique afin d’ajuster leur moteur de recherche interne aux besoins exprimés de façon non explicite.

Désolée d’insister : les métadonnées descriptives sont au cœur de la recherche sur Internet. Les moteurs de recherche raffolent particulièrement de celles qui s’appuient sur des formats standards car elles sont faciles à interpréter et à contextualiser. Or, la plupart des catalogues en ligne au Québec ne sont constitués que de fiches d’information qui sont fournies par les manufacturiers. Résultat : il y a aucun format commun et on utilise un vocabulaire qui s’adresse davantage au service de l’approvisionnement qu’à la clientèle cible.

Enrichir les données d’une fiche produit avec des métadonnées permet d’ouvrir un catalogue à un grand nombre d’applications de recherche, et ainsi, de diffuser plus largement une offre qui, autrement, restera confinée au site Internet d’origine.

De tous les secteurs d’activité au Québec, par exemple, seule la musique connaît une initiative liée aux métadonnées. Il s’agit de TGiT, qui promeut l’adoption de métadonnées standards incrustées aux fichiers MP3 afin d’intensifier la présence numérique des créations québécoises.

La concertation autour de normes requiert des efforts considérables de la part de l’ensemble des acteurs d’un écosystème, mais c’est à ce prix que s’acquiert une présence forte et une certaine autonomie face aux géants du web comme Amazon et Apple.

2. La recherche sur ce site est une corvée

L’accessibilité et la qualité de l’information concernant les produits et leurs processus d’achat sont à l’origine de l’insatisfaction de nombreux consommateurs.

Si la partie transactionnelle peut être améliorée par des spécialistes de l’interface utilisateur, l’architecture de l’information devrait être élaborée avec les méthodes des sciences de l’information. De trop nombreux catalogues en ligne, incluant ceux des grandes entreprises, n’ont pas de schéma de classification, de catégorisation et de métadonnées cohérents et évolutifs qui permettraient aux moteurs de recherche internes et externes d’être plus efficaces.

Les moteurs de recherche internes sont rarement paramétrés adéquatement et cela constitue le plus grand irritant : il y a trop de résultats ou bien aucun résultat, le tout sans proposition d’alternative.

Un autre sujet d’amélioration est la recherche à facettes, qui permet de trier des résultats en fonction d’attributs spécifiques. Ces attributs se limitent habituellement au prix et à la marque, alors que d’autres informations plus utiles, comme les caractéristiques propres au type de produit, n’y sont pas.

Par exemple : pour un convecteur de 150 watts, on devrait proposer linéaire, thermostat intégré, puissance, spécialité (p. ex. un chauffe-serviettes). C’est un investissement qui permet de faciliter la recherche et, donc, d’accroître les ventes et de rentabiliser ainsi le coût d’acquisition de la technologie.

De plus, ces attributs permettent non seulement de contextualiser l’offre (p. ex. la variété des options), mais également d’enrichir l’analyse des données sur les besoins de la clientèle.

Le catalogue de produits demeure le maillon faible du commerce électronique au Québec. Pour trop d’entreprises, c’est encore une brochure ou, au mieux, une arborescence de site web. Mais pour les plateformes commerciales à succès, il s’agit plutôt d’un ensemble de données structurées s’adressant aux consommateurs afin de faciliter leurs décisions d’achat. Et pour celles qui sont entrées dans l’économie numérique, c’est aussi la composante d’un système d’information stratégique.

Pour Noël 2014, les sites de commerce en ligne seront-ils enfin passés en mode « information » au Québec?

Rédigé par Josée Plamondon

15 janvier 2014

Contrats publics: des données de qualité pour une meilleure vigilance

Un commentaire

Initialement publié dans le blogue de Direction informatique, le 2 décembre 2013.

Par les temps qui courent, on entend souvent dire que des pratiques transparentes et équitables seraient essentielles afin d’accroître la concurrence entre les soumissionnaires et obtenir un meilleur rapport qualité-prix pour réduire les dépenses publiques.

Dans ce contexte, la publication de données relatives au processus d’octroi de contrats publics contribuerait à la transparence de l’appareil gouvernemental et faciliterait la vigilance des citoyens et des fonctionnaires. Encore faut-il que ces données soient structurées, fiables et cohérentes.

Système électronique d'appels d'offres du gouvernement du Québec - SEAO

Le cas du SEAO

Les contrats publics du gouvernement du Québec représentaient, en 2011, un marché de plus de 5 milliards de dollars. En juin dernier, le gouvernement du Québec, par le biais du Conseil du Trésor, libérait les données du Système électronique d’appels d’offres (SEAO). Cette plateforme réunit les appels d’offres du gouvernement du Québec, des municipalités et de divers organismes et agences.

Le 16 novembre dernier, lors d’un hackathon organisé à la Maison Notman, à Montréal, des volontaires se sont penchés sur les données ouvertes du SEAO. Une équipe technique a procédé à l’analyse et au nettoyage de l’ensemble de données. Constat : de nombreux champs sont vides, il n’y a pas d’identifiant unique pour les fournisseurs, ni de formats de métadonnées standards et, surtout, on y trouve un grand nombre de doublons, notamment pour les noms d’entreprise. Ainsi, après « nettoyage », le nombre de fournisseurs est passé de 54 692 à 37 579.

Aussi, le modèle de données fourni est bien insuffisant pour contextualiser l’information et les documents enfermés dans des fichiers PDF ce qui interdit une analyse approfondie de leur contenu.

Intégrité des données et qualité de l’information

Une autre équipe a tenté d’évaluer le système du SEAO en regard des directives sur l’ouverture des données des marchés publics qui ont été publiées par la Sunlight Foundation. Cette association internationale fait la promotion de normes et standards pour la transparence des gouvernements.

Parmi les lacunes identifiées dans le système, voici des éléments qui sont essentiels à la qualité de l’information, mais malheureusement absents des données publiées :

  • Un identifiant unique utilisé de bout en bout du processus de marchés publics, de l’avis d’appel offres jusqu’au rapport des dépenses. Cet identifiant devrait permettre les relations parent-enfant entre les entités à identifier.
  • L’adoption de normes existantes pour la diffusion des données et pour assurer l’interopérabilité de celles-ci entre les unités administratives.
  • Le texte intégral des contrats.
  • L’état des contrats (date d’achèvement prévue, date d’achèvement réelle, dépassements de coût, rendement du contractant).
  • Les données concernant la sous-traitance.

Fonctionnaires et élus mieux équipés et plus vigilants

Ces éléments permettraient de concevoir un tableau de suivi des contrats, depuis la rédaction de l’appel d’offres jusqu’à la livraison des produits/services. Ce serait là, plus qu’une preuve de transparence présentée aux citoyens, un véritable outil de surveillance pour les élus et les fonctionnaires dont la visibilité sur les dossiers et les processus n’est, hélas, souvent guère meilleure que celle des citoyens.

Ce n’est cependant réalisable que si l’on améliore la qualité des données à la source, en imposant des règles concernant la divulgation ainsi que des formats de saisie.

Que pouvons-nous attendre du développement de méga systèmes d’information ou même, de « villes intelligentes », si les administrations publiques n’appliquent pas les méthodes et les normes requises pour assurer la qualité des données ?

Rédigé par Josée Plamondon

15 décembre 2013

Promesses du «BI» et réalités de l’information

Aucun commentaire

Initialement publié dans le blogue de Direction informatique, le 13 novembre 2013.

Si les collections des bibliothèques étaient gérées comme on gère l’information dans les organisations, nous aurions des bibliothèques du Moyen-Âge, où seul un moine érudit pourrait trouver l’information dont vous avez besoin.

Avec ses innombrables répertoires de fichiers, ses nomenclatures incompréhensibles, ses cachettes et ses cul-de-sac, l’écosystème de l’information en entreprise ressemble bien plus à la bibliothèque cauchemardesque du roman Le nom de la rose qu’à un centre de données parfaitement bien organisées. L’informatique décisionnelle ou business intelligence en anglais réaliserait-elle des prodiges ?

Statistiques et indicateurs

La réalité de la gestion et de l’exploitation de l’information dans une organisation a peu changé depuis des décennies. Si la capacité de traitement et d’analyse de l’informatique décisionnelle a considérablement évolué, les problématiques de la gestion stratégique de l’information sont demeurées les mêmes :

Les silos informationnels

C’est l’un des défis les plus importants de l’informatique décisionnelle. Produire une information exacte et complète à propos d’une situation ou d’un événement requiert la mise en relation de données et d’informations diverses et en provenance de différents systèmes et unités d’affaires.

C’est un parcours qui comporte des barrières structurelles (directions, divisions, services), culturelles (rétention de l’information, lutte de pouvoir) et technologiques (systèmes fermés et incompatibles, absence de formats de métadonnées standards).

La partie immergée de l’iceberg

Tel que commenté dans un précédent billet, les organisations investissent davantage dans l’informatique que dans l’information. Rares sont les entreprises qui ont su instituer une véritable culture qui valorise sa gestion et son partage. Le repérage, la collecte et le traitement de l’information sont pourtant des activités quotidiennes : aux courriels, échanges verbaux, annotations de document, présentations et rapports auxquels s’ajoutent aujourd’hui les contenus transitant sur les plateformes collaboratives et les réseaux sociaux.

Cette information n’est pas constituée de données structurées, elle n’est pas catégorisée, elle n’est pas toujours explicite (plus souvent implicite ou ambiguë) et elle est difficilement repérable à l’aide d’un moteur de recherche. Elle a pourtant autant de valeur que celle qui se trouve parmi les données structurées et unifiées dans un entrepôt de données.

L’absence de contexte

La mise en contexte des données est essentielle à une information de qualité. Les indicateurs des systèmes d’aide à la décision projettent une réalité : celle qui provient des données structurées, des calculs et des rapports. On peut s’interroger sur leur capacité à traduire la complexité des multiples facettes d’une organisation. Prenons par exemple la baisse des ventes d’un produit qui peut être liée à un ensemble de facteurs et dont les indicateurs avancés sont, entre autres, des données non explicites et des contenus non structurés comme des échanges de courriels, le tout en provenance de sources diverses :

  • La gestion du personnel (roulement élevé du côté des représentants);
  • Le service à la clientèle (réclamations des consommateurs);
  • La veille stratégique (succès d’un produit concurrent);
  • Le marketing (dénigrement sur les médias sociaux);
  • La gestion des stocks (difficulté d’approvisionnement);
  • La production (baisse de la qualité des pièces d’un fournisseur);
  • Les ventes (commentaires d’acheteurs: produit vieillissant).

Pour contextualiser l’information, il faut pouvoir faire des liens entre les ensembles de données. Une tâche quasi impossible, compte tenu des silos informationnels.

Intelligence collective et informatique décisionnelle

L’intelligence collective d’une organisation repose sur une approche méthodique de la gestion de l’information qui s’appuie sur des standards reconnus, comme les formats de métadonnées descriptives. Elle devrait recourir à des compétences spécialisées dans le traitement et l’organisation des contenus. Elle concerne par ailleurs tous les membres de l’organisation. À cet égard, il faut développer une culture de l’information qui encourage la participation de chacun à la qualification (signalement, validation, modification) et à la gestion des contenus (sélection, mots clés).

L’informatique décisionnelle repose essentiellement sur des données structurées. La technologie ne constitue donc qu’un élément de la solution. Ce sont l’expertise et l’expérience humaine qui contribuent à enrichir cette matière brute en l’organisant, en la reliant à d’autres informations, en la contextualisant et en la partageant.

Tant que les silos informationnels perdurent et qu’il n’y a pas de véritable culture de la gestion de l’information, l’informatique décisionnelle ne peut être vraiment efficace.

Dans ces conditions, ne croyez-vous pas qu’une prise de décision éclairée relève du miracle ?

Rédigé par Josée Plamondon

27 novembre 2013