Comment stocker efficacement les données de santé ?

Normalisation des données de santé

De nombreuses organisations « déchantent » des Data Lakes dans lesquels les données sont stockées massivement sans avoir été préalablement normalisées. Trop de données « non propres » rendent ces Data Lakes inexploitables. Les organisations reviennent alors aux fondamentaux que sont la capture, la normalisation, le stockage et l’exploitation pour la mise en œuvre de Data Fabrics.

Il existe 3 modèles de stockage des données :

Le modèle ADHOC (ou propriétaire) présente l’avantage d’une grande adaptabilité et souplesse vis à vis des besoins métier. Il peut être hyper performant sur certains domaines spécifiques et jouer le rôle de pivot (FHIR, OMOP, …) si nécessaire. Il n’est toutefois pas interopérable automatiquement et ne correspond pas aux standards internationaux (car propriétaire).
Le standard international est le modèle de stockage FHIR, nativement interopérable et offrant des possibilités de personnalisation en complément du standard pour s’adapter aux besoins du métier. Ce modèle est largement utilisé aux E.U. ou en Israël mais encore trop peu répandu en Europe et notamment en France. Un paradoxe de l’action collective ?

Le modèle de stockage FHIR présente toutefois l’inconvénient d’être un modèle de stockage documentaire et donc peu adapter à la construction de cohortes dans le cadre d’études cliniques. Il est alors nécessaire d’utiliser un FHIR SQL Builder pour analyser et exploiter les données.

C’est la raison pour laquelle les modèles OMOP et I2B2 sont souvent utilisés. Ces modèles universitaires sont compatible SQL et donc adaptés à l’analytique. Il ne s’agit toutefois pas de normes même si certains parlent de semi-standards dans la mesure où ces modèles sont très largement répandus. Ces modèles présentent également l’inconvénient de ne pas toujours très bien s’adapter aux spécificités des métiers (cliniques). Ils sont extrêmement contraints et peu souples. A titre d’exemple, ils ne permettent pas de faire évoluer une cohorte et impose pour cela qu’elle soit supprimée puis reconstruite.

Les fonctions clé d’un EDS: Capture, Normalisation, Stockage, Expoitation