Archives par mot-clé : normes

Données ouvertes : transformer le gouvernement

Initialement publié dans le blogue de Direction informatique, le 27 janvier 2014.

Si on peut s’interroger sur la qualité des ensembles de données ouvertes, comme c’est le cas pour celles du Système électronique d’appel d’offres (SEAO), que penser de celle des bases de données de l’appareil gouvernemental?

Jusqu’à présent, les professionnels des sciences de l’information étaient pratiquement absents des projets informatiques. Pourtant, la libération de données constitue une opportunité pour les spécialistes de l’organisation et de l’indexation de contenu, mais aussi pour les administrations qui souhaitent passer en mode numérique.

Principes de l'ouverture des données
Principes de l’ouverture des données – Portail des données ouvertes de la Ville de Montréal

Vecteur de changement

Le parlement de l’État du New South Wales en Australie, qui décrétait en novembre dernier que les données gouvernementales seraient ouvertes par défaut, a publié une politique pour assurer la qualité de ses données. Cette politique comprend des normes, des directives et des procédures pour une gestion des données et de l’information de manière sécuritaire, structurée et uniforme.

En libérant ses données par défaut, ce gouvernement oblige l’ensemble de ses ministères, agences et institutions à prendre les mesures nécessaires pour que les systèmes d’information soient conformes. Un tel changement en profondeur soutenu par le ministère des Finances.

Et ici?

De nombreux organismes, réseaux et initiatives citoyennes interagissent avec des représentants des administrations provinciale et municipales qui sont convaincus du rôle central des données pour le développement socioéconomique du Québec.

Voici deux activités d’intérêt qui auront lieu sous peu :

1. Des normes mondiales pour les contrats publics

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics.

L’adoption de normes communes est essentielle parce qu’elle permet de connecter des ensembles de données et d’analyser de l’information pour prendre de meilleures décisions.

C’est un événement auquel se devraient d’assister les représentants de l’administration, des technologies, des sciences de l’information, du monde des affaires.

2. Des données ouvertes pour se faciliter la ville

Le 22 février prochain, des événements auront lieu simultanément au Québec pour souligner la Journée internationale des données ouvertes. Pour l’occasion, la Ville de Montréal accueillera dans ses locaux de la rue Brennan une rencontre organisée par Québec Ouvert.

Les citoyens, les fonctionnaires, les entrepreneurs, les développeurs et les chercheurs qui souhaitent se tenir à jour sur les récents développements, échanger des informations, présenter des projets ou étendre leur réseau de contacts sont les bienvenus.

Harout Chitilian, le vice-président du comité exécutif de la Ville de Montréal, qui est responsable de la réforme administrative, du dossier de la Ville intelligente ainsi que des technologies de l’information, sera présent.

Amélioration ouverte

Dans le foulée de précurseurs comme les États-Unis et plusieurs pays d’Europe, de nombreuses administrations publiques libèrent des ensembles de données qu’elles mettent à la disposition des citoyens et entreprises.

En plus de la transparence, de telles initiatives permettent d’atteindre plusieurs objectifs, comme favoriser le développement d’applications, améliorer l’accès à l’information, accroître l’offre de services gouvernementaux, contribuer à la recherche et au démarrage d’entreprises.

Surtout, libérer des données c’est améliorer ses processus internes par l’adoption de normes reconnues et de meilleures pratiques. La libération de données est un vecteur de transformation organisationnelle.

Contrats publics: standards de qualité des données ouvertes

Le 31 janvier prochain aura lieu à Montréal un atelier sur le développement de normes pour la divulgation des données des contrats publics. La piètre qualité des données ouvertes du Système électronique d’appels d’offres (SEAO) devrait nous inciter à exiger l’adoption d’une politique pour des données fiables, à jour et exploitables.

Open Contracting est une initiative internationale, parrainée, entre autres, par la World Wide Web Foundation. Il s’agit d’une première action officielle qui a pour objectif le développement de standards pour améliorer la qualité de l’information des marchés publics.

L’atelier est gratuit et ouvert à toux ceux qui s’intéressent aux enjeux de la transparence, de la gouvernance et de l’accès à l’information: citoyens,   professionnels des technologie de l’information, fonctionnaires, entrepreneurs, juristes.

L’activité aura lieu au Hilton Bonaventure, de 9h00 à 15h00, le 31 janvier 2014. Inscription requise pour participer.

Commerce électronique: deux bonnes raisons pour aller voir ailleurs

Initialement publié dans le blogue de Direction informatique, le 18 décembre 2013.

Lorsqu’on parle de commerce électronique au Québec, il est souvent question de stratégie et de technologie, mais rarement d’information. Pourtant, qui n’a déjà fait ou entendu ce genre de commentaire : « C’est plus facile à trouver avec Google que sur le site de [XYZ]! »?

Tout comme l’information stratégique, l’organisation et l’exploitation des données concernant l’offre commerciale ne semblent pas encore faire partie des enjeux prioritaires de trop d’entreprises.

Labyrinthe de la Cathédrale de Reims

Une question d’information

Selon une étude récemment publiée par le CEFRIO, malgré la croissance du nombre d’achats en ligne, ceux-ci sont majoritairement effectués à l’extérieur du Québec. Quel dommage pour notre économie! Parmi les raisons qui pourraient expliquer cette préférence, il y en a deux pour lesquelles il serait tout à fait possible d’apporter des correctifs :

1. Le catalogue de produits n’est pas terrible

Les géants du commerce en ligne, ainsi qu’un nombre croissant de grandes marques américaines, investissent dans la mise en valeur de leur offre commerciale sur Internet en ouvrant aux internautes de très efficaces catalogues de produits.

Cela fait plusieurs années que des sites de commerce européens déploient cette force de frappe numérique. Il suffit, lors d’un séjour outre-mer, de chercher un simple appareil électro-ménager en ligne pour se voir proposer différentes marques et prix à même les résultats affichés par Google. Par ailleurs, plusieurs grandes enseignes s’intéressent au web sémantique afin d’ajuster leur moteur de recherche interne aux besoins exprimés de façon non explicite.

Désolée d’insister : les métadonnées descriptives sont au cœur de la recherche sur Internet. Les moteurs de recherche raffolent particulièrement de celles qui s’appuient sur des formats standards car elles sont faciles à interpréter et à contextualiser. Or, la plupart des catalogues en ligne au Québec ne sont constitués que de fiches d’information qui sont fournies par les manufacturiers. Résultat : il y a aucun format commun et on utilise un vocabulaire qui s’adresse davantage au service de l’approvisionnement qu’à la clientèle cible.

Enrichir les données d’une fiche produit avec des métadonnées permet d’ouvrir un catalogue à un grand nombre d’applications de recherche, et ainsi, de diffuser plus largement une offre qui, autrement, restera confinée au site Internet d’origine.

De tous les secteurs d’activité au Québec, par exemple, seule la musique connaît une initiative liée aux métadonnées. Il s’agit de TGiT, qui promeut l’adoption de métadonnées standards incrustées aux fichiers MP3 afin d’intensifier la présence numérique des créations québécoises.

La concertation autour de normes requiert des efforts considérables de la part de l’ensemble des acteurs d’un écosystème, mais c’est à ce prix que s’acquiert une présence forte et une certaine autonomie face aux géants du web comme Amazon et Apple.

2. La recherche sur ce site est une corvée

L’accessibilité et la qualité de l’information concernant les produits et leurs processus d’achat sont à l’origine de l’insatisfaction de nombreux consommateurs.

Si la partie transactionnelle peut être améliorée par des spécialistes de l’interface utilisateur, l’architecture de l’information devrait être élaborée avec les méthodes des sciences de l’information. De trop nombreux catalogues en ligne, incluant ceux des grandes entreprises, n’ont pas de schéma de classification, de catégorisation et de métadonnées cohérents et évolutifs qui permettraient aux moteurs de recherche internes et externes d’être plus efficaces.

Les moteurs de recherche internes sont rarement paramétrés adéquatement et cela constitue le plus grand irritant : il y a trop de résultats ou bien aucun résultat, le tout sans proposition d’alternative.

Un autre sujet d’amélioration est la recherche à facettes, qui permet de trier des résultats en fonction d’attributs spécifiques. Ces attributs se limitent habituellement au prix et à la marque, alors que d’autres informations plus utiles, comme les caractéristiques propres au type de produit, n’y sont pas.

Par exemple : pour un convecteur de 150 watts, on devrait proposer linéaire, thermostat intégré, puissance, spécialité (p. ex. un chauffe-serviettes). C’est un investissement qui permet de faciliter la recherche et, donc, d’accroître les ventes et de rentabiliser ainsi le coût d’acquisition de la technologie.

De plus, ces attributs permettent non seulement de contextualiser l’offre (p. ex. la variété des options), mais également d’enrichir l’analyse des données sur les besoins de la clientèle.

Le catalogue de produits demeure le maillon faible du commerce électronique au Québec. Pour trop d’entreprises, c’est encore une brochure ou, au mieux, une arborescence de site web. Mais pour les plateformes commerciales à succès, il s’agit plutôt d’un ensemble de données structurées s’adressant aux consommateurs afin de faciliter leurs décisions d’achat. Et pour celles qui sont entrées dans l’économie numérique, c’est aussi la composante d’un système d’information stratégique.

Pour Noël 2014, les sites de commerce en ligne seront-ils enfin passés en mode « information » au Québec?

Contrats publics: des données de qualité pour une meilleure vigilance

Initialement publié dans le blogue de Direction informatique, le 2 décembre 2013.

Par les temps qui courent, on entend souvent dire que des pratiques transparentes et équitables seraient essentielles afin d’accroître la concurrence entre les soumissionnaires et obtenir un meilleur rapport qualité-prix pour réduire les dépenses publiques.

Dans ce contexte, la publication de données relatives au processus d’octroi de contrats publics contribuerait à la transparence de l’appareil gouvernemental et faciliterait la vigilance des citoyens et des fonctionnaires. Encore faut-il que ces données soient structurées, fiables et cohérentes.

Système électronique d'appels d'offres du gouvernement du Québec - SEAO

Le cas du SEAO

Les contrats publics du gouvernement du Québec représentaient, en 2011, un marché de plus de 5 milliards de dollars. En juin dernier, le gouvernement du Québec, par le biais du Conseil du Trésor, libérait les données du Système électronique d’appels d’offres (SEAO). Cette plateforme réunit les appels d’offres du gouvernement du Québec, des municipalités et de divers organismes et agences.

Le 16 novembre dernier, lors d’un hackathon organisé à la Maison Notman, à Montréal, des volontaires se sont penchés sur les données ouvertes du SEAO. Une équipe technique a procédé à l’analyse et au nettoyage de l’ensemble de données. Constat : de nombreux champs sont vides, il n’y a pas d’identifiant unique pour les fournisseurs, ni de formats de métadonnées standards et, surtout, on y trouve un grand nombre de doublons, notamment pour les noms d’entreprise. Ainsi, après « nettoyage », le nombre de fournisseurs est passé de 54 692 à 37 579.

Aussi, le modèle de données fourni est bien insuffisant pour contextualiser l’information et les documents enfermés dans des fichiers PDF ce qui interdit une analyse approfondie de leur contenu.

Intégrité des données et qualité de l’information

Une autre équipe a tenté d’évaluer le système du SEAO en regard des directives sur l’ouverture des données des marchés publics qui ont été publiées par la Sunlight Foundation. Cette association internationale fait la promotion de normes et standards pour la transparence des gouvernements.

Parmi les lacunes identifiées dans le système, voici des éléments qui sont essentiels à la qualité de l’information, mais malheureusement absents des données publiées :

  • Un identifiant unique utilisé de bout en bout du processus de marchés publics, de l’avis d’appel offres jusqu’au rapport des dépenses. Cet identifiant devrait permettre les relations parent-enfant entre les entités à identifier.
  • L’adoption de normes existantes pour la diffusion des données et pour assurer l’interopérabilité de celles-ci entre les unités administratives.
  • Le texte intégral des contrats.
  • L’état des contrats (date d’achèvement prévue, date d’achèvement réelle, dépassements de coût, rendement du contractant).
  • Les données concernant la sous-traitance.

Fonctionnaires et élus mieux équipés et plus vigilants

Ces éléments permettraient de concevoir un tableau de suivi des contrats, depuis la rédaction de l’appel d’offres jusqu’à la livraison des produits/services. Ce serait là, plus qu’une preuve de transparence présentée aux citoyens, un véritable outil de surveillance pour les élus et les fonctionnaires dont la visibilité sur les dossiers et les processus n’est, hélas, souvent guère meilleure que celle des citoyens.

Ce n’est cependant réalisable que si l’on améliore la qualité des données à la source, en imposant des règles concernant la divulgation ainsi que des formats de saisie.

Que pouvons-nous attendre du développement de méga systèmes d’information ou même, de « villes intelligentes », si les administrations publiques n’appliquent pas les méthodes et les normes requises pour assurer la qualité des données ?

Maîtrise des métadonnées: enjeu culturel et économique majeur

The Semantic Web isn’t just about putting data on the web. It is about making links, so that a person or machine can explore the web of data. With linked data, when you have some of it, you can find other, related, data. Tim Berners-Lee, Linked Data

Les 5 règles des données liées (linked data)

Métadonnées: la France est en retard…

Le numérique est avant tout un espace d’échange de métadonnées : si vous ne contrôlez pas les métadonnées, vous laissez à d’autres le pouvoir d’exposer ou non vos œuvres, de vous rémunérer ou pas… Je trouve que nous gérons collectivement cet enjeu des métadonnées avec beaucoup trop de légèreté, le réveil risque d’être douloureux.

Pendant qu’en France nous enchainons les colloques sur la nécessité de s’intéresser aux métadonnées, le gouvernement anglais investit des millions de livres pour faire émerger le plus rapidement possible des acteurs mondiaux sur la gestion des métadonnées.

ÉlectronLibre, entrevue avec Jean-François Bert, fondateur de Transparency, une société qui agit comme un tiers de confiance pour les ayants droit qui veulent surveiller l’exploitation de leurs oeuvres sur le Net.

Le Québec numérique dans son enfance

Pour réaliser à quel point notre retard va nous mettre à la merci des économies numériquement plus avancées, il suffit de visiter des sites comme semanticweb.com. On retrouve très rarement au Québec et au Canada des postes similaires à celui-ci (extrait) :

Core to the work of Pearson International is excellence in information architecture. Information architecture benefits PI businesses by making content reusable through the application of standards; and « smart » by the use of metadata, taxonomies and semantic technologies.

Candidate Profile

Deep understanding of the complex challenges of information and knowledge management.

• Proven success incorporating Taxonomy and Metadata programs within a large enterprise organisation.

• Experience leading teams on taxonomy and metadata strategy projects

• Experience implementing industry taxonomy standards

• Experience implementing metadata standards such as Dublin Core

Un risque pour la culture et l’économie

Les récentes interrogations de l’industrie de la musique illustrent le retard numérique du Québec, notamment en ce qui concerne le web des données:

Au Québec, les ventes d’albums et de pistes numériques représentent 24 % du total; aux États‐Unis, cette proportion passe à 47 %, un peu plus que les 45 % du marché de la musique enregistrée au Canada. /…/ Non seulement la vente d’albums et de fichiers individuels de produits québécois est‐il significativement plus faible qu’en format physique, mais, contrairement à la tendance générale /…/, elle est en recul depuis deux ans.

/…/

Dans un contexte où le format physique semble condamné à perdre du terrain face au commerce numérique de la musique, il appert essentiel que les produits québécois accroissent leur part de marché au courant des prochaines années pour assurer la pérennité du disque québécois. Comment s’y prendre? Est‐ce que le disque (et le « single ») québécois sont assez bien représentés sur les différentes plates‐formes de téléchargement légal (iTunes, eMusic, Zik)? Peut‐on exiger de ces détaillants du Web qu’ils mettent mieux en valeur les produits québécois, voire qu’ils créent une « boutique Québec » sur leurs plates‐formes? Est‐ce que l’industrie de la musique doit investir davantage dans la publicité sur le Web et dans les réseaux sociaux pour mieux diffuser la musique d’ici?

(Philippe Renaud, Un portrait de la chanson québécoise, janvier 2013, pages 19-20)

S’il se vend moins de musique québécoise, c’est, en grande partie, parce qu’elle n’est pas présente/visible là où vont les consommateurs pour trouver de nouveaux contenus culturels (sur Internet). La découverte de contenus culturels québécois sur le Web passe par des métadonnées de qualité (nos catalogues de produits sont en général pitoyables, sémantiquement). De plus, la multiplication des plateformes aux technologies  propriétaires et aux formats non standards (voir la définition des données liées, au début de ce billet) entraîne une balkanisation de l’offre culturelle au détriment des consommateurs.

Plan Nerd : des citoyens-experts passent à l’action au GouvCamp

GouvCamp à Québec, le 22 février 2012

GouvCamp est une initiative de citoyens-experts qui permettra, on le souhaite, de passer à l’action après OpenGouv (16 novembre 2011)J’y retrouverai des amis comme Martin Lessard et des gens qui ne me connaissent pas mais que je suis sur le Net, comme Thierry Goulet.

Dans l’appareil gouvernemental, la technologie souffre d’être seulement entre les mains des responsables financiers, dit-il. Or, on ne peut plus voir ça aujourd’hui uniquement comme un simple outil de production. C’est un enjeu social. (Sylvain Carle, inspirateur de l’évènement, dans un article du journal Le Devoir)

 

De gouvernement en ligne à gouvernement ouvert

Rapport Gautrin 2004 sur le gouvernement en ligne
Rapport sur le gouvernement en ligne ou "Gautrin 2004"

OpenGouv à Montréal, dans le cadre du Webcom, le 16 novembre 2011, OpenGouv était une journée d’échanges webdiffusée en direct et pilotée par le groupe de travail sur le gouvernement ouvert. Ce groupe est sous la direction du député Henri-François Gautrin.

De gouvernement en ligne à gouvernement ouvert

Rapport Gautrin : prise 1 

Le premier rapport Gautrin (juin 2004) a atterri sur les tablettes d’une salle d’archives. Voir billet de Michel Dumais dans le Devoir.

 Rapport Gautrin : prise 2

Nous attendons toujours la version 2011 du rapport Gautrin (ou Gautrin Web 2.0), qui attend l’approbation de Jean Charest, premier ministre et instigateur du Plan Nord (vaste programme d’exploitation des ressources naturelles et de partenariats avec diverses industries et firmes conseils). Pour patienter, voici la vidéo officielle de la présentation du groupe GautrinWeb2.0.

Ailleurs

En décembre dernier, la France a lancé son portail de données ouvertes Étalab . Avec la participation active, sur le Net, de groupes de citoyens dont le blogue Regards citoyens qui propose Aidons le gouvernement à améliorer data.gouv.fr.

De la pertinence des meilleures pratiques Web

Qui pourra inciter les organisations à adopter de meilleures pratiques Web si l’avant-garde technologique (dont la « maison du Web à Montréal ») ne le fait pas ?

L’annonce de la mise en ligne du nouveau site de la Maison Notman, hier sur Facebook, a déclenché une  discussion qui illustre parfaitement la difficulté d’encourager l’adoption de meilleures pratiques pour la réalisation de projets Web.

Il s’agit d’un très petit projet pour lequel il n’y avait que peu ou pas de budget (comme la très grande majorité des sites Internet). Le site, réalisé en toute bonne foi par des bénévoles, comporte des lacunes en regard de la conception et de l’utilisabilité (là aussi, comme la très grande majorité des sites Internet). En commentaires de l’annonce sur Facebook, les échanges ont porté sur la pertinence de mettre en application les meilleures pratiques (planification, conception, production, évolution) dans un contexte de développement rapide, comme c’est le cas dans les jeunes entreprises en TIC.

Ceux qui proposent une mise en ligne rapide, suivie d’une amélioration par itérations soulignent une réalité trop souvent vécue : les projets interminables et coûteux dont les principales caractéristiques sont les suivantes:

  • Lourdeur du processus de réalisation (sur-documentation, lenteur de la prise de décisions, décalage entre le livrable et les besoins qui ont changé depuis l’amorce du projet);
  • Trop nombreux intervenants dans le projet (perte de vue des objectifs d’affaires et des intérêts des utilisateurs finaux);
  • Affectation inadéquate des ressources (les bonnes expertises, au bon moment);
  • Choix technologiques contraignants.

On peut effectivement mettre un site en ligne rapidement, en prévoyant l’améliorer plus tard, version après version. Mais si les problèmes sont de nature conceptuelle ou structurelle, les interventions nécessaires seront trop importantes et on les remettra à une éventuelle refonte. Les utilisateurs du site devront prendre leur mal en patience ou aller voir ailleurs.

Une bonne question

Une question subsiste :  les meilleures pratiques Web sont-elles pertinentes dans une approche de développement rapide («release early, release often») ?

Si la réponse est oui, alors comment s’assurer de la rapidité et de l’agilité de la réalisation ?

Vers une stratégie numérique gouvernementale ?

Ne plus discriminer le logiciel libre au gouvernement est un choix politique. L’éthique, l’autonomie, le partage et la collaboration qui sont valorisées par le logiciel libre pourront-elles changer la culture de l’appareil gouvernemental ?

Voici l’allocution prononcée (sans notes et, il faut le dire, avec naturel) par la présidente du Conseil du trésor, Michelle Courchesne, lors de la clôture du Salon du logiciel libre du Québec, le 7 décembre 2010.

Notes prises au cours de l’allocution:

  • Reconnaissance de la discrimination du logiciel libre dans les processus d’approvisionnement du gouvernement (il aura fallu la poursuite intentée par Savoir-faire Linux pour en arriver là);
  • Constat de l’effet de silo résultant de la décentralisation de la gestion des ressources informationnelles (« la main gauche ne sait pas ce que fait la main droite »);
  • Retard numérique du Québec (le fameux plan numérique, brièvement mentionné);
  • Modernisation des architectures technologiques et des méthodes de gestion de projets (passer de fossile à agile);
  • Attention aux chantiers éléphantesques (projet GIRES, de funeste mémoire) : morceler les projets;
  • La politique cadre ciblera particulièrement les secteurs de la santé et de l’éducation;
  • Il faudra s’armer de patience pour qu’un logiciel libre remplace un logiciel propriétaire lorsqu’il s’avère être la meilleure solution. Le changement n’adviendra pas du jour au lendemain. Il faudra 2 à 3 ans pour la mise en œuvre de la politique cadre;
  • Expertise interne : manque de connaissances informatiques adéquates au sein de l’appareil gouvernemental.
  • Changement organisationnel et culturel (numérique) profond et de très grande ampleur (il affectera les fournisseurs externes) : un nouveau Klondike pour les sociétés conseils ?

Dépôt du projet de loi 133

Le logiciel libre a fait une entrée officielle au gouvernement du Québec, hier, avec le dépôt du projet de loi 133: Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement.

Le texte de loi confirme le retour à une gestion centralisée des ressources informationnelles. Il met en lumière la question du manque de compétences de pointe en informatique, faute d’avoir externalisé graduellement cette expertise, à l’image des services d’ingénierie (contrecoup des partenariats public-privé). Un enjeu aussi stratégique que la maîtrise et l’exploitation des TIC doit demeurer sous la vigilance et le contrôle de spécialistes compétents de l’administration publique.

Souhaitons que cette centralisation améliorera les pratiques de gestion dans l’appareil gouvernemental (moins de silos, plus de collaboration, meilleure communication et surtout, amélioration de la supervision et de la coordination des initiatives).

Politique cadre

Publiée par le Ministère des Services gouvernementaux, la politique cadre contient les principes d’application pour la mise en œuvre des changements qui seront requis et/ou entraînés lorsque le projet de loi aura été approuvé par l’Assemblée nationale.

Il s’agit également de l’annonce d’une première stratégie gouvernementale d’exploitation des technologies de l’information et des communications (on oublie trop souvent le «C» lorsqu’on parle des TI). C’est un appel aux directions technologiques à élargir leur vision notamment en matière d’intégration des nouveaux usages du numérique.

La direction des ressources informationnelles devra faire preuve de vision et de leadership pour piloter ce chantier.

Après la révolution tranquille, la révolution numérique ?

Le choix du logiciel libre est une des manifestations de la révolution numérique. Le gouvernement 2.0 en est une autre. Ce sont des choix qui peuvent changer positivement la façon dont on fait de la politique.

Voici une très intéressante application de gouvernement 2.0 fourni par Bertrand Duperrin (@bduperrin), qui suivait le fil #s2lq malgré le web et le décalage horaire. La Ville de Bordeaux a mis en ligne un environnement interactif pour permettre aux citoyens de participer au processus décisionnel.

***** Mise à jour (10 décembre 2010)

Commentaire critique de Nelson Dumais sur le projet de loi 133 (carnet Technaute) sur l’annonce gouvernementale, certes, c’est une perspective toute personnelle, mais combien intéressante (et réjouissante pour les sceptiques).

Pour un plan numérique ou « Laissez faire le marché »

Le 16 octobre 2010, CommunauTique, un collectif qui soutien la participation citoyenne et  l’appropriation des TIC, lance un nouvel appel au gouvernement du Québec pour un plan numérique. Une prise de position bien documentée.

Depuis longtemps, des spécialistes du web réclament un plan pour que le Québec (citoyens, éducation, industrie, gouvernements) se mette enfin à l’heure numérique et qu’on ne s’en remette pas au marché, la solution miracle.

Prenant la balle au bond, Martin Lessard a aussitôt appuyé le mouvement en relayant l’appel et en y ajoutant son commentaire.

Luc Gendron propose l’organisation d’un Focus20 – Spécial plan numérique (similaire, au Yulbiz, les rencontres Focus20 réunissent les passionnés du web des régions du centre du Québec, et même de Montréal).

Le mouvement repart à nouveau. La lettre ouverte au premier ministre du Québec, rédigée par Patricia Tessier et publiée lors du Yulbiz du 28 octobre 2008, était restée sans effet.

Retard numérique : isolation

Des experts rassemblés par le CEFRIO se sont prononcés, en juin dernier, pour l’adoption d’un plan numérique au Québec. Plusieurs pays en ont déjà un; voici les principales préoccupations qui y sont abordées:

  • Accessibilité aux technologies numériques (notamment, la bande passante).
  • Formation pour accroître et améliorer  l’usage des TIC.
  • Nouveaux services essentiels pour le développement collectif (comme les nouvelles technologies et l’éducation).
  • Enjeux de gouvernance comme la protection des renseignements personnels, le logiciel libre et l’accès aux données publiques.

Cette prise de position, ainsi que de nombreux liens pertinents, ont été publiés sur le blogue du CEFRIO : Pour un Québec numérique… et performant. À la suite de l’assemblée annuelle du CEFRIO, Le Devoir avait publié des entrevues à ce sujet dont celle de Benoît Aubert (Le train numérique passe, le Québec reste à quai) qui affirmait que le retard numérique risque d’isoler le Québec.

Amplifié par les réseaux sociaux, plus populaires et plus intégrés aux canaux de communications traditionnels qu’il y a deux ans, le mouvement atteindra-t-il sa cible ?

Mieux intégrer la cyberéconomie à l’économie globale

Le futur de l’économie Internet. Rapport de la réunion Ministérielle de l’OCDE, Séoul juin 2008.

La réunion précédente, sur le même thème, avait eu lieu à Ottawa en juin 1998. Contenu du document:

  • Mise en évidence des moyens pour stimuler le développement de l’économie Internet.
  • Proposition de principes directeurs pour élaborer des politiques et des pratiques pour préparer cette économie future.

Notés:

Défis du développement de l’économie Internet

  • Rendre l’Internet accessible à tous et partout.
  • Promouvoir l’innovation, la concurrence et le choix de l’utilisateur sur l’Internet.
  • Sécuriser les infrastructures d’information critiques et parer aux nouvelles menaces.
  • Assurer la protection des informations personnelles, le respect des droits de propriété intellectuelle et, de façon plus générale, un espace Internet sécurisé qui offre une protection aux individus, notamment aux mineurs et autres groupes vulnérables.
  • Promouvoir une utilisation sécurisée et responsable de l’Internet.
  • Créer un environnement qui encourage l’investissement dans l’infrastructure, des niveaux plus élevés de connectivité et des applications et services innovants.

Propositions concrètes que la classe politique aurait intérêt à bien intégrer

Propositions visant plus particulièrement les domaines de l’administration publique, de la santé et de l’information (technologie de l’information).

Nos fournisseurs de services de télécommunication devraient médités sur la section consacrée à  l’autonomisation des consommateurs (Les services de communication étant devenus plus complexes, il est de plus en plus difficile pour les onsommateurs d’évaluer et de comparer les offres.)

La neutralité technologique est essentielle pour le développement économique, n’en déplaise aux fournisseurs de plateformes logicielles et services de télécommunication. Dans le traitement des questions technologiques, favoriser la neutralité technologique, l’interopérabilité et l’élaboration de normes ouvertes.

Plus d’adresses IP pour plus d’accessibilité

Il n’y a pas que les numéros de téléphone qui s’épuisent. L’espace actuel d’adresses IP sera épuisé dans quelques années. Il doit être étendu pour permettre à des milliards d’individus et d’ordinateurs de se connecter à l’Internet, et par conséquent, à Internet de s’étendre et à la cyberéconomie de croître. L’OCDE a souligné la nécessité du déploiment d’un nouveau protocole Internet.