0 Abonnés · 4 Publications

Le Big Data est un domaine qui traite des moyens d'analyser et d'extraire systématiquement des informations. Les défis du Big Data comprennent la capture des données, le stockage des données, l'analyse des données, la recherche, le partage, le transfert, la visualisation, les requêtes, la mise à jour, la confidentialité des informations et la source des données.

En savoir plus.

Article Benjamin De Boe · Avr 2 3m read

Nouveautés d’InterSystems IRIS et IRIS for Health 2026.1

InterSystems IRIS 2026.1 est disponible, et il regorge d’améliorations puissantes conçues pour aider les organisations à faire évoluer leur gestion des données comme jamais auparavant. Que vous soyez confronté aux défis opérationnels liés à la gestion de volumes massifs de données ou que vous cherchiez à optimiser les coûts de stockage, cette version apporte de nombreuses fonctionnalités pour simplifier la gestion des données et répondre aux enjeux croissants des très grands ensembles de données.

0
0 3
Article Lorenzo Scalese · Jan 13 12m read

Les architectures de données modernes utilisent des solutions de capture, transformation, déplacement et chargement de données en temps réel pour construire des lacs de données, des entrepôts analytiques et des référentiels de big data. Cela permet l'analyse de données provenant de diverses sources sans impacter les opérations qui les utilisent. Pour y parvenir, il est essentiel d'établir un flux de données continu, évolutif, élastique et robuste. La méthode la plus répandue pour cela passe par la technique CDC (Change Data Capture). Le CDC surveille la production de petits ensembles de données, capture automatiquement ces données et les transmet à un ou plusieurs destinataires, y compris les référentiels de données analytiques. L'avantage majeur est l'élimination du délai J+1 dans l'analyse, car les données sont détectées à la source dès qu'elles sont produites, puis répliquées vers la destination.

Cet article démontrera les deux sources de données les plus courantes pour les scénarios CDC, à la fois comme source et comme destination. Pour la source de données (origine), nous explorerons le CDC dans les bases de données SQL et les fichiers CSV. Pour la destination des données, nous utiliserons une base de données en colonnes (un scénario typique de base de données analytique haute performance) et un topic Kafka (une approche standard pour le streaming de données vers le cloud et/ou vers plusieurs consommateurs de données en temps réel).

 

Aperçu

Cet article fournit un exemple pour le scénario d'interopérabilité suivant:

 

1
0 45
Article Pierre LaFay · Jan 7, 2024 3m read

Dans le monde du Big Data, la sélection du bon format de fichier est cruciale pour un stockage, un traitement et une analyse efficaces des données. Avec la quantité massive de données générées chaque jour, le choix du format approprié peut avoir un impact considérable sur la vitesse, le coût et la précision des tâches de traitement des données. Il existe plusieurs formats de fichiers disponibles, chacun avec son propre ensemble d'avantages et d'inconvénients, ce qui rend complexe le choix de celui à utiliser.

0
0 129