Nouvelle publication

Rechercher

InterSystems officiel
· Avr 30, 2024

Alert: SQL Query using “NOT %INLIST” fails to return results

Alert: SQL Query using “NOT %INLIST” fails to return results

InterSystems has corrected an issue that can cause a small number of SQL queries to return incorrect results.  See below for the specifics on impacted queries.

This issue exists in the listed versions of the following products:

  • InterSystems IRIS® data platform
  • InterSystems IRIS for Health
  • HealthShare® Health Connect

As well as:

  • Other InterSystems products based on the above products.

Impacted versions:

  • 2021.1.3, 2021.1.4
  • 2022.1.3, 2022.1.4
  • 2023.1.0, 2023.1.1, 2023.1.2, 2023.1.3
  • 2024.1.0

 

Only queries with the following conditions could return wrong results:

  • The WHERE clause contains a NOT %INLIST
  • There is a NULL value in the list

 

The correction for this defect is identified as DP-430793 and will be included in all future product releases beginning with:  2022.1.5, 2023.1.4, 2024.1.0.267.2, and 2024.1.1.  It is also available via Ad hoc distribution. 

If you have any questions regarding this alert, please contact the Worldwide Response Center.

NOTE:  Edited 5/16 to reflect that this defect has been corrected in the newly released 2024.1.0.267.2 patch.

Discussion (0)2
Connectez-vous ou inscrivez-vous pour continuer
Annonce
· Avr 30, 2024

Take advantage of personal training at Global Summit!

Meet one-on-one with a personal trainer at Global Summit. Discuss interop, integrations, UCR with Sue O'Leary.   


Attending Global Summit 2024? Sign up for a personal training session with one of our technical trainers.

🌟 This week the spotlight is on @Sue O'Leary, Learning Services Training Manager!

Sign up for a 45-minute session to talk to Sue about interoperability/integrations or Unified Care Record. Refresh your memory on previous classroom training, discuss a technical concept, or start learning about InterSystems technologies.

📧 Email GSTechExchange@intersystems.com or visit the Tech Exchange concierge desk at the Summit.

Find more details about technical trainers and their specialties.

Discussion (0)1
Connectez-vous ou inscrivez-vous pour continuer
Annonce
· Avr 30, 2024

[Video] Introducing Smart Data Services

Hi Community,

Play the new video on InterSystems Developers YouTube:

⏯ Introducing Smart Data Services @ Global Summit 2023

We know how the cloud allows us to quickly find, deploy, and combine services. InterSystems Smart Data Services leverages Kubernetes and provides our customers and partners with a similar app store, where you can find and deploy services that can be combined to build solutions. We want to make it very easy for our partners to publish their solutions in a catalog that all our customers can see. And we want to make it very easy for our customers to quickly find and deploy solutions. Learn this new way of packaging your solution, so it can be deployed and scaled on any cloud or on-prem.

🗣 Presenter: @Amir Samary, Director, Solution Architecture, InterSystems

Enjoy watching it and explore for more videos! 👍

Discussion (0)1
Connectez-vous ou inscrivez-vous pour continuer
Article
· Avr 30, 2024 3m de lecture

Simple démo Low Code transformant les messages HL7 SIU en Kafka, puis consommant les messages Kafka pour les stocker dans IRIS via SQL

Gitter

Configuration de Production

Cette démo comporte une production d'interopérabilité contenant 16 composants. 

Configuration de Production HL7 + Kafka Producer

La première partie de cette démonstration consiste à envoyer un fichier HL7 SIU qui sera transmis aux 2 autres flux HL7 (HTTP et TCP), et transformé et transmis au serveur Kafka. Les flux HTTP et TCP transformeront les messages HL7 de la même manière avant de les envoyer également à Kafka.

  • 3 Services Métier HL7
  • 1 routeur HL7
  • 2 Opérations Métier HL7 
  • 1 Opération Métier envoyant les messages transformés à Kafka

Règle Métier 

La production a un processus métier avec un routeur HL7, qui transforme et envoie le message HL7 à Kafka.

Tranformation de Données

Le Data Transformation Builder permet l'édition de la définition d'une transformation entre sources HL7v2 SIU en Messages Kafka. Data Transformation 

Visual Trace

Après le traitement d'un message HL7, c'est à dire : en copiant certains messages de /data/HL7/test vers le répertoire /data/HL7/in), vous pouvez voir son traitement via Visual Trace   

Vous pouvez voir ici le message avec les E/S et le message HL7 d'acquittement  

Gestionnaire Kafka

Ensuite, vous pouvez vérifier les messages dans Kafka, en utilisant l'interface KafkaManager et en récupérant les données des différents sujets. 

Et le contenu d'un sujet en particulier :

Configuration de Production Kafka Consumer + SQL IRIS

La deuxième partie de cette démonstration consiste à consommer des messages Kafka et à les acheminer vers des tables IRIS via des composants SQL.

  • 3 Service Métier Kafka consommant les 3 Topics de Kafka
  • 1 routeur générique
  • 3 Opérations Métier SQL insérant les données dans la base de données IRIS 

Règle Métier

La production utilise un processus métier avec un routeur Kafka, qui envoie des messages Kafka aux composants IRIS SQL.

Visual Trace

Chaque fois qu'un sujet Kafka est consommé, il est envoyé au processus du routeur Kafka qui effectue le routage basé sur le contenu des messages Kafka vers les tables SQL appropriées dans IRIS. Si vous regardez attentivement les messages, vous remarquerez que le message est envoyé directement à IRIS sans être transformé (même ID de message).

   

Vous pouvez voir ici le message avec les E/S et le résultat de l'insertion SQL :

SQL

Vous pouvez ensuite voir les résultats dans la base de données IRIS via des requêtes SQL.

  • table TrakCare

* table Surg

* Et grâce à l'héritage, vous pouvez également interroger toutes les données en interrogeant simplement la table racine, ici data.kafka

ClassExplorer

L'application Class Explorer vous permet de voir le modèle de données des classes IRIS.

Paramètres Système par Défaut

Afin de simplifier le processus de copie d'une définition de production d'un environnement à un autre, et d'assurer une séparation étanche entre les paramètres des différents environnements, il est recommandé de définir des paramètres en dehors de la classe de production, dans les paramètres par défaut du système.

 

Vous verrez dès lors les paramètres en bleu dans la configuration de production :  

Prérequis

Assurez-vous que vous avez git et Docker desktop installé.

Installation: ZPM

Ouvrez l'espace de noms IRIS avec l'interopérabilité activée. Ouvrez le Terminal et appelez :

USER>zpm "install hl7v2-to-kafka"

Installation: Docker

1. Clone/git l'extrait de dépôt dans n'importe quel répertoire local

$ git clone https://github.com/SylvainGuilbaud/hl7v2-to-kafka.git

2. Ouvrez le terminal dans ce répertoire et exécutez :

$ docker-compose build

3. Exécutez le conteneur IRIS avec votre projet :

$ docker-compose up -d

Comment exécuter l'exemple

  1. copier des messages HL7 de /data/HL7/test vers /data/HL7/in
  2. regarder le résultat dans Visual Trace
  3. regarder une trace complète 
  4. aller dans Kafka Manager et récupérer des données sur les différents sujets
Discussion (0)1
Connectez-vous ou inscrivez-vous pour continuer
Article
· Avr 30, 2024 3m de lecture

LowCode simple demo transforming HL7 SIU messages to Kafka, then consuming Kafka messages to store them into IRIS via SQL

Gitter

Production Configuration

This demo has an interoperability production with 16 items. 

Production Configuration HL7 + Kafka Producer

The first part of this demonstration consists of sending an HL7 SIU file which will be transmitted to the 2 other HL7 flows (HTTP and TCP), and transformed and transmitted to the Kafka server. HTTP and TCP flows will transform HL7 messages in the same way before sending them to Kafka as well.

  • 3 HL7 Business Services
  • 1 HL7 router
  • 2 HL7 Business Operations
  • one Business Operation sending the transformed messages to Kafka

Business Rule

The production has a business process with is a HL7 router, which transforms and sends HL7 message to Kafka. 

Data Transformation

The Data Transformation Builder allows the edition of the definition of a transformation between HL7v2 SIU sources into Kafka Messages. Data Transformation 

Visual Trace

After an HL7 message has been processed, ie: by copying some messages from /data/HL7/test into /data/HL7/in directory), you can see its Visual Trace   You can see here the message with I/O and the HL7 ACK 

Kafka Manager

Then, you can check the messages in Kafka, using KafkaManager interface and fetching data from the different topics.  And the content of one topic : 

Production Configuration Kafka Consumer + SQL IRIS

The second part of this demonstration consists of consuming Kafka messages and route them to IRIS tables through SQL components.

  • 3 Kafka Business Services consuming 3 Topics of Kafka
  • 1 router
  • 3 SQL Business Operations inserting data into IRIS database

Business Rule

The production has a business process with is a Kafka router, which sends Kafka messages to IRIS SQL components. 

Visual Trace

Each time a Kafka topic is consumed, it is sent to the Kafka router process which performs content-based routing of Kafka messages, to the appropriate SQL tables into IRIS. If you look carefully to the messages, you can notice that the message is sent directly to IRIS without being transformed (same message ID).   You can see here the message with I/O and the SQL insert result 

SQL

You can then see the results inside IRIS database through SQL queries.

  • TrakCare table

* Surg table

* And thanks to inheritance, you can also query all the data by just querying the root table, here data.kafka

ClassExplorer

The Class Explorer allow you to see the data model of IRIS classes. 

Default Settings

In order to simplify the process of copying a production definition from one environment to another, and ensure watertight separation between the parameters of the different environments, it is recommended to set settings outside of the production class, in the system default settings.  So you will see the settings in blue in the production configuration 

Prerequisites

Make sure you have git and Docker desktop installed.

Installation: ZPM

Open IRIS Namespace with Interoperability Enabled. Open Terminal and call: USER>zpm "install hl7v2-to-kafka"

Installation: Docker

1. Clone/git pull the repo into any local directory

$ git clone https://github.com/SylvainGuilbaud/hl7v2-to-kafka.git

2. Open the terminal in this directory and run:

$ docker-compose build

3. Run the IRIS container with your project:

$ docker-compose up -d

How to Run the Sample

  1. copy some HL7 messages from /data/HL7/test into /data/HL7/in
  2. check the Visual Trace
  3. see a full trace
  4. go to Kafka Manager and fetch data from the different topics
3 Comments
Discussion (3)1
Connectez-vous ou inscrivez-vous pour continuer