Tech Days 2013 – Open Data, la qualité de la donnée avant la quantité

Bernard Ourghanlian est présent aux côtés de plusieurs personnes venues des collectivités locales pour témoigner : un signe fort sur la sécurité et l’interop. Il parlera d’ailleurs à plusieurs reprises de l’importance pour les applications serveurs Open Data de mettre en place des points d’accès suivant le protocole OData, pour atteindre l’interop et la réutilisabilité effective.

Témoignages de la Ville de Bordeaux, du Conseil Général de la Seine Maritime et du Conseil Général de Saône et Loire. Je n’ai pas noté les noms qui étaient nombreux, mais nous les aurons lors de la sortie des webcasts.

Transparence et économie comme premiers facteurs de décision, mais désormais un nouvel enjeu sur la modernisation de l’État par la qualité des données. La mise en place d’un projet Open Data reste avant tout un projet politique. Bordeaux précise qu’ils voyaient dès le début du projet son utilité en termes d’usage interne, ce qui est une constante reconnue sur les projets Open Data : les collectivités y vont pour des raisons politiques, et elles continuent parce qu’elles y voient une opportunité de réutilisation simple et intéressante par elles-mêmes.

Le sujet de la mutualisation entre les CG, CR, et grandes villes est abordée, en ajoutant que cela n’est possible que pour des données à qualité validée (précision de la Seine Maritime). Par contre, personne ne parle de mutualisation au niveau de l’Etat ou de l’Europe.

B. Ourghanlian parle du protocole OData, puis jette un (petit) pavé dans la mare en évoquant le risque de “retombé de soufflé”, avec une utilisation occasionnelle et allant diminuant. Aux USA, par exemple, le mouvement initié par l’arrivée d’Obama au pouvoir marque actuellement le pas. La réponse porte sur la qualité et la pertinence de la donnée, pour apporter de la valeur aux utilisateurs finaux. Il faut donc des applis pour la consommer, et donc normaliser la façon de publier l’information. Un accès temps réel est également nécessaire pour avoir une vraie valeur (ex : transports à l’heure ou pas).

Pour améliorer les usages, Bordeaux part sur de la publication d’information sur la structure de la donnée, en considérant qu’il faut être plus ouvert sur le global, plutôt que d’exposer juste des sources isolées, de façon que les utilisateurs aient une meilleure appréhension globale de ce qu’ils peuvent faire avec la donnée.

Tous les intervenants soulignent qu’ils sont encore au début du mouvement, et qu’ils apprennent au fur et à mesure de la mise en ligne des données.

La faible implication des citoyens finaux est expliquée par plusieurs raisons :

  • La mise à disposition de l’outil de visualisation dans le portail étant censée la favoriser, mais il faut d’abord attirer le citoyen sur le portail.
  • Ce genre d’outil serait presque plus intéressant pour les élus. Malheureusement, ceux-ci sont très peu souvent vus dans le mouvement Open Data : il faut leur donner les outils, et leur faire voir l’intérêt qu’ils peuvent en tirer en terme de communication à leurs administrés.
  • Il est très rare que l’enrichissement des données par le citoyen soit envisagé. Il est en objectif par CG71.

Par contre, l’Open Data reste un succès du point de vue de ceux qui l’ont mis en oeuvre :

  • Une nouvelle voie de valorisation de l’action publique.
  • Valorisation des métiers et services également.
  • Open Data perçu comme une mini BI, même mieux utilisée en interne, car plus moderne et légère.

L’Open Data a également permis le mouvement de mutualisation et agrégation des bibliothèques, qui auparavant n’y arrivaient pas (CG71), par manque d’outillage ou de vision synthétique. A propos d’agrégation, Bernard Ourghanlian rappelle les trois niveaux :

  • publication PDF, sans réutilisation
  • API d’accès, mais risque de couplage type tour de Babel
  • approche protocolaire (comme permet de le faire OData, et c’est la deuxième fois qu’il insiste sur ce point, qui il est vrai est fondamental)

Coût du projet Open Data, quelques chiffres :

  • 8 mois à Bordeaux.
  • A peu près équivalent pour les autres.
  • 2.5 ETP pour le CG71, en comptant la communication, qui est importante.
  • 100 K€ au début, 50 K€ par an depuis.

Les difficultés :

  • Accepter la non maitrise de la réutilisation.
  • Nécessité de changer son fusil d’épaule car on apprend à faire en même temps. Par exemple, arbres en ortho photo, puis GPS pour améliorer la précision.
  • Problème avec les données utilisées commercialement : nécessité de débat citoyen

Il faut parler d’égal à égal avec l’État, et Etalab a visiblement la volonté de mieux collaborer. C’est en tout cas l’orientation perçue par les collectivités du nouveau SGMAP.

Remarques personnelles

Ayant une petite connaissance du sujet, je me permets de compléter le compte-rendu de la session par quelques remarques qui me sont passées par la tête durant cette heure.

  1. Finalement, on n’a pas tellement parlé “qualité plus que quantité” dans cette session. A un moment, un intervenant a cité en exemple les sites français par rapport à leurs homologues anglo-saxons, mais mon impression est inverse, en tout cas pour ce qui concerne le niveau Etat. Il est vrai que les sites Open Data des départements et régions sont de bien meilleure qualité qu’Etalab (ce qui n’est pas très dur), mais il ne faut pas oublier que data.gov.uk bénéficie d’une sémantisation quasi-complète. Le CG71 va faire de la sémantique sur les bibliothèques, mais c’est le seul exemple dont j’ai pris connaissance, justement lors de cette session. A part ça, si on veut du RDF, c’est chez l’INSEE que ça se trouve…
  2. Une réaction a laissé entrevoir une sorte de dépit de ne pas avoir une appropriation aussi forte chez les citoyens que chez les développeurs. Je voulais juste souligner que les développeurs qui participent à des concours d’applications sur les flux Open Data ont en général la citoyenneté chevillée au corps. Vu l’écart entre le travail nécessaire et les prix octroyés ou les gains financiers d’une application, on ne le fait clairement pas pour l’argent.
  3. On a parlé un peu de coût et de mutualisation, mais ce qu’on voit reste de nombreux projets que chacun réalise dans son coin, sans aucune centralisation des développements. Pour un citoyen, il est dur de comprendre pourquoi Etalab ne centralise pas les moyens techniques, et pour un développeur pourquoi une forge n’a pas été mise en place pour diffuser les outils. Il est vrai toutefois que c’est le cas pour le framework OGDI de Microsoft.
  4. Il a très peu été question des risques, sur cette session. Seul Bernard Ourghanlian a rapidement parlé des effets liés à la vie privée. Ils sont pourtant potentiellement énormes. Quand on voit par exemple que l’ouverture des données Infogreffes de création d’entreprise a donné naissance à une grande vague d’arnaques, il est nécessaire de se poser la question de manière technique, mais aussi politique : où doit-on positionner le curseur de la transparence ? Une donnée doit-elle être libérée s’il n’y a pas de demande exprimée pour ?

Bref, une session très intéressante. J’espère que nous aurons encore d’autres témoignages l’an prochain aux Tech Days, et surtout qu’il y aura du temps réservé pour les questions cette fois-ci !

About JP Gouigoux

Jean-Philippe Gouigoux est Architecte Logiciel, MVP Connected Systems Developer. Il intervient régulièrement à l'Université de Bretagne Sud ainsi qu'à l'Agile Tour. Plus de détails sur la page "Curriculum Vitae" de ce blog.
This entry was posted in Retours and tagged , . Bookmark the permalink.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Captcha Captcha Reload