Dépasser l’open data pour construire la « data cité » passe par la coopération avec les acteurs privés

[vc_row][vc_column][vc_column_text]A peine votée, l’open data « par défaut » montre déjà ses limites. Car au-delà du long chemin de la généralisation, c’est l’insuffisance des seules données publiques pour appréhender les territoires qui est criante. Une approche 360° de la donnée locale est désormais nécessaire, approche qui passe par de nouvelles coopérations avec le secteur privé.

 

L’open data fêtait en décembre dernier ses 10 ans. Initié par une poignée d’activistes américains, l’ouverture des données publiques entend renforcer la transparence des administrations et permettre à tous de se saisir des données pour innover ou créer des applications. Une vision qui dépassait la notion française de droit d’accès aux documents administratifs (loi Cada de 1978) en imposant la mise à disposition de données numériques dans des standards réutilisables.

 

Un virage open data en cours

10 ans après, beaucoup de chemin a été fait. Avec la loi Lemaire (2016), l’open data « par défaut » est devenu une obligation applicable à toutes les administrations et aux collectivités locales de plus de 3500 habitants. Et au-delà de la sphère administrative, beaucoup d’entreprises ont adopté l’open data. Un accès aux données de la Poste, de la RATP de l’IGN ou de la SNCF, même partiel et limité, voilà qui était inimaginable il y a 10 ans.

 

200 collectivités sur 3600

Des avancées incontestables mais perfectibles. Tout d’abord parce que dans les faits, le nombre d’administrations « open data compatible » est limité. On compte ainsi moins de 200 collectivités passées à l’open data, sur les 3600 concernées par l’obligation. Mais aussi parce que la qualité des données publiées (fraîcheur, homogénéité, métadonnées,) laisse à désirer. Enfin l’usage d’API, qui facilitent les réutilisations massives, est loin d’être la règle.

 

Manque de motivation ?

L’absence de sanctions en cas de non-respect des obligations, le principe de gratuité des données (sauf à de très rares exceptions) et la réglementation sur les données personnelles expliquent sans doute en partie cet attentisme. L’entrée en vigueur du règlement général de la protection des données personnelles européen, en mai prochain, pourrait du reste encore ralentir la mise à disposition de données (Temps réel, géolocalisation, usage des services publics…).

 

L’open data noyé dans la data

Mais l’open data s’avère surtout bien imparfait pour appréhender les enjeux territoriaux. Il faut dire que depuis 2007, la production de données a littéralement explosé avec la généralisation des smartphones, la multiplication des app’ et des objets connectés. Une part croissante des données « locales » n’est plus produite par des acteurs publics mais par les mobinautes (plus ou moins consentants) et des entreprises privées.

Si certaines, comme les titulaires de délégations de service public, sont soumis à des obligations open data, la majeure partie des producteurs de données sont dédouanés de ces obligations, à commencer par les GAFAM.

 

Le risque de la myopie

Des « trous dans la raquette » qui conduisent les producteurs de la ville – aménageurs, collectivités… – à la myopie : des services touristiques qui se construisent sans connaître l’impact d’AirbnB, des politiques de mobilités qui se font sans données sur Uber, Delivroo ou Obike… Face à cette situation, le premier réflexe pourrait être de renforcer les obligations des entreprises productrices de données « d’intérêt général ».

Une voie ardue tant il est difficile de légiférer sur un actif aussi stratégique et concurrentiel que la donnée. La loi Macron prévoyait du reste des obligations pour les opérateurs privés de mobilité mais le décret fait toujours défaut. Certains, comme Versailles Grand Parc, optent pour le pragmatisme en signant un partenariat avec Waze (Google), troquant données travaux contre remontée des incidents des wazeurs… avec tous les aléas d’ un partenariat ponctuel. D’autres dopent leurs contrats de DSP, comme à Dijon ou Saint-Etienne, en y intégrant un volet data, innovation, smart city.

 

Plateformes régionales, nationales ou européennes

Il y a enfin la stratégie des « biens communs » qui vise à constituer sur des domaines porteurs, comme la mobilité ou le tourisme des giga-plateformes de données réunissant un large spectre d’acteurs, publics et privés à des échelles variables, de la métropole à l’Europe. Basées sur le principe « qui contribue et (re)partage, accède à la totalité des données » et des cercles d’usages réservant l’accès aux données stratégiques aux membres actifs, elles visent à booster l’innovation tout en de contrant les GAFAM. Et plus que des jeux de données, elles peuvent faciliter la mutualisation de briques de services – comme les algorithmes des calculateurs d’itinéraires – sur lesquels la concurrence entre applications franco-françaises profite avant tout aux GAFAM.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_empty_space height= »10px »][/vc_column][/vc_row][vc_row][vc_column][ultimate_heading alignment= »left » margin_design_tab_text= » » el_class= »extra-height-bloc-citation »]Olivier DeveillersOlivier Devillers
Consultant en transformation numérique
Netlocal

Il animera la conférence « Données publiques, données privées, Quel(s) modèle(s) pour la DataCité ? »

 

[/ultimate_heading][/vc_column][/vc_row]

Laisser un commentaire