Archives par mot-clé : normes

Maîtrise des métadonnées: enjeu culturel et économique majeur

The Semantic Web isn’t just about putting data on the web. It is about making links, so that a person or machine can explore the web of data. With linked data, when you have some of it, you can find other, related, data. Tim Berners-Lee, Linked Data

Les 5 règles des données liées (linked data)

Métadonnées: la France est en retard…

Le numérique est avant tout un espace d’échange de métadonnées : si vous ne contrôlez pas les métadonnées, vous laissez à d’autres le pouvoir d’exposer ou non vos œuvres, de vous rémunérer ou pas… Je trouve que nous gérons collectivement cet enjeu des métadonnées avec beaucoup trop de légèreté, le réveil risque d’être douloureux.

Pendant qu’en France nous enchainons les colloques sur la nécessité de s’intéresser aux métadonnées, le gouvernement anglais investit des millions de livres pour faire émerger le plus rapidement possible des acteurs mondiaux sur la gestion des métadonnées.

ÉlectronLibre, entrevue avec Jean-François Bert, fondateur de Transparency, une société qui agit comme un tiers de confiance pour les ayants droit qui veulent surveiller l’exploitation de leurs oeuvres sur le Net.

Le Québec numérique dans son enfance

Pour réaliser à quel point notre retard va nous mettre à la merci des économies numériquement plus avancées, il suffit de visiter des sites comme semanticweb.com. On retrouve très rarement au Québec et au Canada des postes similaires à celui-ci (extrait) :

Core to the work of Pearson International is excellence in information architecture. Information architecture benefits PI businesses by making content reusable through the application of standards; and « smart » by the use of metadata, taxonomies and semantic technologies.

Candidate Profile

Deep understanding of the complex challenges of information and knowledge management.

• Proven success incorporating Taxonomy and Metadata programs within a large enterprise organisation.

• Experience leading teams on taxonomy and metadata strategy projects

• Experience implementing industry taxonomy standards

• Experience implementing metadata standards such as Dublin Core

Un risque pour la culture et l’économie

Les récentes interrogations de l’industrie de la musique illustrent le retard numérique du Québec, notamment en ce qui concerne le web des données:

Au Québec, les ventes d’albums et de pistes numériques représentent 24 % du total; aux États‐Unis, cette proportion passe à 47 %, un peu plus que les 45 % du marché de la musique enregistrée au Canada. /…/ Non seulement la vente d’albums et de fichiers individuels de produits québécois est‐il significativement plus faible qu’en format physique, mais, contrairement à la tendance générale /…/, elle est en recul depuis deux ans.

/…/

Dans un contexte où le format physique semble condamné à perdre du terrain face au commerce numérique de la musique, il appert essentiel que les produits québécois accroissent leur part de marché au courant des prochaines années pour assurer la pérennité du disque québécois. Comment s’y prendre? Est‐ce que le disque (et le « single ») québécois sont assez bien représentés sur les différentes plates‐formes de téléchargement légal (iTunes, eMusic, Zik)? Peut‐on exiger de ces détaillants du Web qu’ils mettent mieux en valeur les produits québécois, voire qu’ils créent une « boutique Québec » sur leurs plates‐formes? Est‐ce que l’industrie de la musique doit investir davantage dans la publicité sur le Web et dans les réseaux sociaux pour mieux diffuser la musique d’ici?

(Philippe Renaud, Un portrait de la chanson québécoise, janvier 2013, pages 19-20)

S’il se vend moins de musique québécoise, c’est, en grande partie, parce qu’elle n’est pas présente/visible là où vont les consommateurs pour trouver de nouveaux contenus culturels (sur Internet). La découverte de contenus culturels québécois sur le Web passe par des métadonnées de qualité (nos catalogues de produits sont en général pitoyables, sémantiquement). De plus, la multiplication des plateformes aux technologies  propriétaires et aux formats non standards (voir la définition des données liées, au début de ce billet) entraîne une balkanisation de l’offre culturelle au détriment des consommateurs.

Plan Nerd : des citoyens-experts passent à l’action au GouvCamp

GouvCamp à Québec, le 22 février 2012

GouvCamp est une initiative de citoyens-experts qui permettra, on le souhaite, de passer à l’action après OpenGouv (16 novembre 2011)J’y retrouverai des amis comme Martin Lessard et des gens qui ne me connaissent pas mais que je suis sur le Net, comme Thierry Goulet.

Dans l’appareil gouvernemental, la technologie souffre d’être seulement entre les mains des responsables financiers, dit-il. Or, on ne peut plus voir ça aujourd’hui uniquement comme un simple outil de production. C’est un enjeu social. (Sylvain Carle, inspirateur de l’évènement, dans un article du journal Le Devoir)

 

De gouvernement en ligne à gouvernement ouvert

Rapport Gautrin 2004 sur le gouvernement en ligne
Rapport sur le gouvernement en ligne ou "Gautrin 2004"

OpenGouv à Montréal, dans le cadre du Webcom, le 16 novembre 2011, OpenGouv était une journée d’échanges webdiffusée en direct et pilotée par le groupe de travail sur le gouvernement ouvert. Ce groupe est sous la direction du député Henri-François Gautrin.

De gouvernement en ligne à gouvernement ouvert

Rapport Gautrin : prise 1 

Le premier rapport Gautrin (juin 2004) a atterri sur les tablettes d’une salle d’archives. Voir billet de Michel Dumais dans le Devoir.

 Rapport Gautrin : prise 2

Nous attendons toujours la version 2011 du rapport Gautrin (ou Gautrin Web 2.0), qui attend l’approbation de Jean Charest, premier ministre et instigateur du Plan Nord (vaste programme d’exploitation des ressources naturelles et de partenariats avec diverses industries et firmes conseils). Pour patienter, voici la vidéo officielle de la présentation du groupe GautrinWeb2.0.

Ailleurs

En décembre dernier, la France a lancé son portail de données ouvertes Étalab . Avec la participation active, sur le Net, de groupes de citoyens dont le blogue Regards citoyens qui propose Aidons le gouvernement à améliorer data.gouv.fr.

De la pertinence des meilleures pratiques Web

Qui pourra inciter les organisations à adopter de meilleures pratiques Web si l’avant-garde technologique (dont la « maison du Web à Montréal ») ne le fait pas ?

L’annonce de la mise en ligne du nouveau site de la Maison Notman, hier sur Facebook, a déclenché une  discussion qui illustre parfaitement la difficulté d’encourager l’adoption de meilleures pratiques pour la réalisation de projets Web.

Il s’agit d’un très petit projet pour lequel il n’y avait que peu ou pas de budget (comme la très grande majorité des sites Internet). Le site, réalisé en toute bonne foi par des bénévoles, comporte des lacunes en regard de la conception et de l’utilisabilité (là aussi, comme la très grande majorité des sites Internet). En commentaires de l’annonce sur Facebook, les échanges ont porté sur la pertinence de mettre en application les meilleures pratiques (planification, conception, production, évolution) dans un contexte de développement rapide, comme c’est le cas dans les jeunes entreprises en TIC.

Ceux qui proposent une mise en ligne rapide, suivie d’une amélioration par itérations soulignent une réalité trop souvent vécue : les projets interminables et coûteux dont les principales caractéristiques sont les suivantes:

  • Lourdeur du processus de réalisation (sur-documentation, lenteur de la prise de décisions, décalage entre le livrable et les besoins qui ont changé depuis l’amorce du projet);
  • Trop nombreux intervenants dans le projet (perte de vue des objectifs d’affaires et des intérêts des utilisateurs finaux);
  • Affectation inadéquate des ressources (les bonnes expertises, au bon moment);
  • Choix technologiques contraignants.

On peut effectivement mettre un site en ligne rapidement, en prévoyant l’améliorer plus tard, version après version. Mais si les problèmes sont de nature conceptuelle ou structurelle, les interventions nécessaires seront trop importantes et on les remettra à une éventuelle refonte. Les utilisateurs du site devront prendre leur mal en patience ou aller voir ailleurs.

Une bonne question

Une question subsiste :  les meilleures pratiques Web sont-elles pertinentes dans une approche de développement rapide («release early, release often») ?

Si la réponse est oui, alors comment s’assurer de la rapidité et de l’agilité de la réalisation ?

Vers une stratégie numérique gouvernementale ?

Ne plus discriminer le logiciel libre au gouvernement est un choix politique. L’éthique, l’autonomie, le partage et la collaboration qui sont valorisées par le logiciel libre pourront-elles changer la culture de l’appareil gouvernemental ?

Voici l’allocution prononcée (sans notes et, il faut le dire, avec naturel) par la présidente du Conseil du trésor, Michelle Courchesne, lors de la clôture du Salon du logiciel libre du Québec, le 7 décembre 2010.

Notes prises au cours de l’allocution:

  • Reconnaissance de la discrimination du logiciel libre dans les processus d’approvisionnement du gouvernement (il aura fallu la poursuite intentée par Savoir-faire Linux pour en arriver là);
  • Constat de l’effet de silo résultant de la décentralisation de la gestion des ressources informationnelles (« la main gauche ne sait pas ce que fait la main droite »);
  • Retard numérique du Québec (le fameux plan numérique, brièvement mentionné);
  • Modernisation des architectures technologiques et des méthodes de gestion de projets (passer de fossile à agile);
  • Attention aux chantiers éléphantesques (projet GIRES, de funeste mémoire) : morceler les projets;
  • La politique cadre ciblera particulièrement les secteurs de la santé et de l’éducation;
  • Il faudra s’armer de patience pour qu’un logiciel libre remplace un logiciel propriétaire lorsqu’il s’avère être la meilleure solution. Le changement n’adviendra pas du jour au lendemain. Il faudra 2 à 3 ans pour la mise en œuvre de la politique cadre;
  • Expertise interne : manque de connaissances informatiques adéquates au sein de l’appareil gouvernemental.
  • Changement organisationnel et culturel (numérique) profond et de très grande ampleur (il affectera les fournisseurs externes) : un nouveau Klondike pour les sociétés conseils ?

Dépôt du projet de loi 133

Le logiciel libre a fait une entrée officielle au gouvernement du Québec, hier, avec le dépôt du projet de loi 133: Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement.

Le texte de loi confirme le retour à une gestion centralisée des ressources informationnelles. Il met en lumière la question du manque de compétences de pointe en informatique, faute d’avoir externalisé graduellement cette expertise, à l’image des services d’ingénierie (contrecoup des partenariats public-privé). Un enjeu aussi stratégique que la maîtrise et l’exploitation des TIC doit demeurer sous la vigilance et le contrôle de spécialistes compétents de l’administration publique.

Souhaitons que cette centralisation améliorera les pratiques de gestion dans l’appareil gouvernemental (moins de silos, plus de collaboration, meilleure communication et surtout, amélioration de la supervision et de la coordination des initiatives).

Politique cadre

Publiée par le Ministère des Services gouvernementaux, la politique cadre contient les principes d’application pour la mise en œuvre des changements qui seront requis et/ou entraînés lorsque le projet de loi aura été approuvé par l’Assemblée nationale.

Il s’agit également de l’annonce d’une première stratégie gouvernementale d’exploitation des technologies de l’information et des communications (on oublie trop souvent le «C» lorsqu’on parle des TI). C’est un appel aux directions technologiques à élargir leur vision notamment en matière d’intégration des nouveaux usages du numérique.

La direction des ressources informationnelles devra faire preuve de vision et de leadership pour piloter ce chantier.

Après la révolution tranquille, la révolution numérique ?

Le choix du logiciel libre est une des manifestations de la révolution numérique. Le gouvernement 2.0 en est une autre. Ce sont des choix qui peuvent changer positivement la façon dont on fait de la politique.

Voici une très intéressante application de gouvernement 2.0 fourni par Bertrand Duperrin (@bduperrin), qui suivait le fil #s2lq malgré le web et le décalage horaire. La Ville de Bordeaux a mis en ligne un environnement interactif pour permettre aux citoyens de participer au processus décisionnel.

***** Mise à jour (10 décembre 2010)

Commentaire critique de Nelson Dumais sur le projet de loi 133 (carnet Technaute) sur l’annonce gouvernementale, certes, c’est une perspective toute personnelle, mais combien intéressante (et réjouissante pour les sceptiques).

Pour un plan numérique ou « Laissez faire le marché »

Le 16 octobre 2010, CommunauTique, un collectif qui soutien la participation citoyenne et  l’appropriation des TIC, lance un nouvel appel au gouvernement du Québec pour un plan numérique. Une prise de position bien documentée.

Depuis longtemps, des spécialistes du web réclament un plan pour que le Québec (citoyens, éducation, industrie, gouvernements) se mette enfin à l’heure numérique et qu’on ne s’en remette pas au marché, la solution miracle.

Prenant la balle au bond, Martin Lessard a aussitôt appuyé le mouvement en relayant l’appel et en y ajoutant son commentaire.

Luc Gendron propose l’organisation d’un Focus20 – Spécial plan numérique (similaire, au Yulbiz, les rencontres Focus20 réunissent les passionnés du web des régions du centre du Québec, et même de Montréal).

Le mouvement repart à nouveau. La lettre ouverte au premier ministre du Québec, rédigée par Patricia Tessier et publiée lors du Yulbiz du 28 octobre 2008, était restée sans effet.

Retard numérique : isolation

Des experts rassemblés par le CEFRIO se sont prononcés, en juin dernier, pour l’adoption d’un plan numérique au Québec. Plusieurs pays en ont déjà un; voici les principales préoccupations qui y sont abordées:

  • Accessibilité aux technologies numériques (notamment, la bande passante).
  • Formation pour accroître et améliorer  l’usage des TIC.
  • Nouveaux services essentiels pour le développement collectif (comme les nouvelles technologies et l’éducation).
  • Enjeux de gouvernance comme la protection des renseignements personnels, le logiciel libre et l’accès aux données publiques.

Cette prise de position, ainsi que de nombreux liens pertinents, ont été publiés sur le blogue du CEFRIO : Pour un Québec numérique… et performant. À la suite de l’assemblée annuelle du CEFRIO, Le Devoir avait publié des entrevues à ce sujet dont celle de Benoît Aubert (Le train numérique passe, le Québec reste à quai) qui affirmait que le retard numérique risque d’isoler le Québec.

Amplifié par les réseaux sociaux, plus populaires et plus intégrés aux canaux de communications traditionnels qu’il y a deux ans, le mouvement atteindra-t-il sa cible ?

Mieux intégrer la cyberéconomie à l’économie globale

Le futur de l’économie Internet. Rapport de la réunion Ministérielle de l’OCDE, Séoul juin 2008.

La réunion précédente, sur le même thème, avait eu lieu à Ottawa en juin 1998. Contenu du document:

  • Mise en évidence des moyens pour stimuler le développement de l’économie Internet.
  • Proposition de principes directeurs pour élaborer des politiques et des pratiques pour préparer cette économie future.

Notés:

Défis du développement de l’économie Internet

  • Rendre l’Internet accessible à tous et partout.
  • Promouvoir l’innovation, la concurrence et le choix de l’utilisateur sur l’Internet.
  • Sécuriser les infrastructures d’information critiques et parer aux nouvelles menaces.
  • Assurer la protection des informations personnelles, le respect des droits de propriété intellectuelle et, de façon plus générale, un espace Internet sécurisé qui offre une protection aux individus, notamment aux mineurs et autres groupes vulnérables.
  • Promouvoir une utilisation sécurisée et responsable de l’Internet.
  • Créer un environnement qui encourage l’investissement dans l’infrastructure, des niveaux plus élevés de connectivité et des applications et services innovants.

Propositions concrètes que la classe politique aurait intérêt à bien intégrer

Propositions visant plus particulièrement les domaines de l’administration publique, de la santé et de l’information (technologie de l’information).

Nos fournisseurs de services de télécommunication devraient médités sur la section consacrée à  l’autonomisation des consommateurs (Les services de communication étant devenus plus complexes, il est de plus en plus difficile pour les onsommateurs d’évaluer et de comparer les offres.)

La neutralité technologique est essentielle pour le développement économique, n’en déplaise aux fournisseurs de plateformes logicielles et services de télécommunication. Dans le traitement des questions technologiques, favoriser la neutralité technologique, l’interopérabilité et l’élaboration de normes ouvertes.

Plus d’adresses IP pour plus d’accessibilité

Il n’y a pas que les numéros de téléphone qui s’épuisent. L’espace actuel d’adresses IP sera épuisé dans quelques années. Il doit être étendu pour permettre à des milliards d’individus et d’ordinateurs de se connecter à l’Internet, et par conséquent, à Internet de s’étendre et à la cyberéconomie de croître. L’OCDE a souligné la nécessité du déploiment d’un nouveau protocole Internet.

Le CERN: science des particules et Internet

Hadrons, gluons, muons et autres bosons en vedette sur le web.

Hier, c’était le début des expériences sur l’accélérateur de particules et collisionneur (LHC pour Large Hadron Collider) du CERN (Suisse). Google avait alors adapté son logo avec l’intriguant anneau représentant l’accélérateur de particules souterrain de 27 km de circonférence.

Pour comprendre à quoi ça sert, vidéo musical (rap) monté par des chercheurs du CERN (via Moovie, site sur la convergence des médias, de la galaxie Agoravox).

http://www.youtube.com/watch?v=j50ZssEojtM&eurl=http://www.moovie.fr/index.php/2008/09/10/le-lhc-du-cern-expliqu-par-un-rap/.

Les standards de la communication Internet que sont devenus HTML, URL et http ont été développés au CERN, par Tim Berners-Lee, puis largement diffusés par Mosaic, le premier fureteur populaire. À cette époque, le répertoire des sites Internet tenait sur quelques colonnes dans un écran bicolore. On connait la suite…

Le livre numérique – Dématérialisation et désintermédiation

Du rapport, Le livre numérique, présenté par Bruno Patino (Le Monde Interactif) à la Ministre de la culture et de la communication (france), Christine Albanel, des constats très pertinents et des recommandations très sages. Mais surtout des mots clés qui ont un poids certain pour l’orientation des futurs développements.

Dématérialisation

  • En devenant numérique, le livre objet devient livre droit.
  • Déplacement de la valeur de propriété vers la valeur d’usage.

Fragmentation

  • Le livre numérique devient des produits d’exploitation: feuilleton via téléphone portable, commentaires de l’auteur, vidéo d’entrevue, documents inédits.
  • Également, pourquoi ne pas y relier les études ou thèses qui auraient été publiées sur l’auteur ou le sujet, des schémas, des index, les meilleures citations et même les meilleurs commentaires ou pastiches des lecteurs.

Désintermédiation

  • Multiplication des nouveaux modes de communication.
  • Le maillon faible de la chaîne sera (est déjà ?) la diffusion et la distribution.

Interopérabilité

  • Émergence d’une grande variété de supports (du téléphone portable à la tablette de lecture, en passant par la console de jeu).
  • Des DRM, oui, mais avec des solutions qui favorisent l’interopérabilité.

Propriété intellectuelle

  • Puisque des acteurs qui n’appartiennent pas au secteur du livre sur papier peuvent s’y inviter (certains, comme Orange, le feraient très bientôt) il faut favoriser au maximum les détenteurs de droits.
  • Préserver la relation auteur-éditeur: rester dans le cadre d’un contrat unique pour favoriser un continuum d’exploitation d’une même œuvre. L’ajout d’une clause spécifique relève des relations contractuelles entre les auteurs et les éditeurs.
  • Éviter à tout prix la mise en place de formats propriétaires, qui risquent de favoriser l’appropriation de la valeur par un opérateur technique (ex.: Amazon avec sa tablette de lecture).

Métadonnées structurées

  • Structurer les métadonnées (format commun pour les grands flux d’information comme Électre).
  • Non seulement rapprocher les bases des acteurs, mais les transformer en une base unique dont les conditions d’accès devront être repensées.
  • Si les métadonnées permettent en partie d’authentifier les œuvres numériques (comment s’assurer qu’il s’agit bien d’une œuvre de l’auteur, de la bonne version, etc.), il faudra compter sur la communauté d’intérêt pour valider et relier entre eux les différents fragments de contenu (comme Wikipédia).

Web sémantique à toutes les sauces

Haro sur les entrepreneurs du Net qui se servent du web sémantique sans mettre en application les standards du W3C. Michael Bergman (AI3)  adresse une mise en garde: non respect des standards: plus d’interopérabilité.

En prime, pertinent commentaire sur la mise en version du web(2.0, 3.0):  For those not in the know, Web 3.0 is the “real” semantic Web stuff, while Web 2.0 is that oh-so tired tagging and mashup shit.

Imagination indigente, marketing paresseux ? Dans les années 80 on eu les Plus (n’importe quelle raison sociale avec Plus), suivi du 2000 dans les années 90, puis des 2.0 dans la décennie actuelle.

Vers l’universalité

Plus de portabilité

Suite du billet précédent sur la portabilité des données. Très peu de temps après que Robert Scoble ait tenté, avec l’aide de Plaxo, de recueillir toutes les données personnelles des membres de son réseau social sur Facebook, cette dernière annonce qu’elle se joint à dataportability.org.

Clé d’accès universelle

OpenId, le standard d’identification déjà supporté par de gros joueurs comme WordPress et Yahoo! aurait gagné Google, IBM et Verisign.