Chest pAIn : Développement d’un modèle multi-paramétrique de réseaux de neurones artificiels de prédictions multiples à partir des données d’accueil des patients présentant une douleur thoracique aux urgences.
Objectif(s) de la recherche et intérêt pour la santé publique
Finalité de l'étude
Objectifs poursuivis
Domaines médicaux investigués
Bénéfices attendus
Nous espérons que le modèle multiparamétrique de réseaux de neurones artificiels de prédictions multiples que nous allons mettre au point sera cliniquement pertinent. Ce modèle conciliant des paramètres démographiques, des données cliniques (description de la douleur, paramètres vitaux) et paraclinique (ECG) pourrait prédire de façon instantanée la probabilité diagnostic du SCA et a fortiori des autres pathologies d’intérêts. Ce modèle permettrait de trier plus finement et de manière instantanée les patients se présentant aux urgences avec douleur thoracique et ainsi potentiellement de mettre en place une surveillance plus précoce (scope), un temps de premier contact médical réduit ou une initiation plus rapide des thérapeutiques adaptées. Cela devra être étudié ultérieurement afin d’en mesurer l’impact sur les performances diagnostiques, la surpopulation aux urgences, la morbidité et la mortalité.
L’outil que nous souhaitons développer utilise l’intelligence artificielle afin de remplir son objectif, plus précisément le machine-learning. Le machine-learning est une catégorie d’intelligence artificielle utilisant des fonctions mathématiques pour obtenir un résultat. Il existe au sein même du machine-learning différentes techniques de calcul, une de ces techniques est appelée « réseaux de neurones artificiels » ou « réseaux de neurones à convolutions ». Les réseaux de neurones artificiels sont des fonctions mathématiques, nécessitant d’être codées sur logiciel informatique (Python) afin d’obtenir une réponse à une équation.
Dans notre cas, l’équation posée à ces fonctions mathématiques (réseaux de neurones artificiels) sera : A l’aide des paramètres donnés (paramètres démographiques, données objectives cliniques, ECG), le résultat correspond-il à la présence d’un SCA ou non ?
Pour répondre à cette question, ces « réseaux de neurones artificiels » qui sont donc des fonctions mathématiques complexes ont besoin d’exemples, c’est ce qu’on appelle « l’apprentissage », se déclinant en trois temps.
• La première partie de l’apprentissage correspond à la phase d’apprentissage supervisée : lors de cette phase nous allons faire analyser notre tableur Excel, où chaque ligne correspond à un patient, ainsi que l’image de l’ECG affilié de chaque patient, aux réseaux de neurones. Les données sont pseudo-anonymisées (voir circuit de la donnée). Chaque ligne du tableur, correspondant à un patient, présente l’ensemble des paramètres recueillis (paramètres démographiques, données objectives cliniques, ECG) et le diagnostic final aux moyens des critères d’évaluation décrits en détails dans le paragraphe ci-dessous (critères d’évaluation). Cette analyse de l’ensemble des lignes du tableur va permettre à ces fonctions mathématiques (IA) de déterminer des caractéristiques propres à chaque pathologie, appelées patterns. Ces caractéristiques, parfois infimes, vont être enregistrées par les réseaux de neurones afin de pouvoir catégoriser un ensemble de paramètres en une réponse à savoir « SCA » ou « EP » etc.
• La deuxième partie correspond à la phase de validation. Lors de cette étape, nous allons présenter un ensemble de paramètres (données démographiques, objectives cliniques, ECG) aux réseaux de neurones artificiels en lui demandant de donner une réponse donc de catégoriser chaque ensemble de paramètres en « SCA », « EP » etc. Une fois les résultats donnés par l’IA, nous lui indiqueront quels étaient ses réponses justes et lesquelles étaient fausses. Nous lui indiquerons la catégorie à laquelle appartenait cet ensemble de paramètres, ainsi l’IA pourra analyser ses réponses incorrectes et ajuster ses caractéristiques.
• La dernière partie correspond à la phase de test, précédant de la même manière que la deuxième mais cette fois sans ajustement. C’est lors de cette phase que nous pouvons évaluer la pertinence de l’IA en calculant sa sensibilité, sa spécificité, les faux négatifs, les faux positifs etc.
Le développement en trois parties des réseaux de neurones nécessite donc un nombre important « d’exemples » donc de données à analyser, c’est pourquoi le caractère multicentrique de cette étude est particulièrement important.
Ainsi notre modèle appelé multi-paramétrique car utilisant différents paramètres (données démographiques, données objectives cliniques et ECG) aux moyens des réseaux de neurones artificiels étant une catégorie d’IA utilisant des fonctions mathématiques complexes, pourra analyser les paramètres d’un patient afin de le catégoriser dans une catégorie de diagnostic étiologique de douleur thoracique. Méthodologie de développement du modèle de prédiction
Une approche de validation du concept sera employée. Dans un premier temps, le modèle sera entraîné et validé sur un ensemble de données rétrospectives d'ECG acquises auprès de divers hôpitaux universitaires (CHU). Ces ECG peuvent présenter une qualité variable, y compris des artefacts potentiels (taches de sang) et un mauvais alignement. Pour résoudre ces problèmes :
Pré-traitement des données :
Suppression des artefacts : Les ECG présentant des artefacts importants (par exemple : des taches, déchirures etc) seront exclus car ils peuvent entraver les performances des réseaux neuronaux, qui s'appuient sur la reconnaissance des formes.
Alignement des images : Pour les ECG mal alignés, un algorithme de détection d'objets avec détection de boites[2], tel que You Only Look Once (YOLO (1)), sera utilisé pour identifier et extraire automatiquement le signal ECG pertinent de l'image scanné.
Numérisation des ECG
Après la sélection et le redimensionnement, les ECG seront soumis A une série d'étapes de prétraitement afin de garantir une représentation cohérente du signal et d'atténuer les biais potentiels introduits par les variations d'acquisition entre les différents hôpitaux (CHU). Ces variations peuvent inclure :
- Le type de machine
- Les caractéristiques du papier (type, couleur)
Ces facteurs n'ont rien à voir avec l'activité électrique cardiaque sous-jacente et peuvent introduire des biais s'ils ne sont pas pris en compte. C'est pourquoi les méthodes suivantes seront appliquées pour normaliser le signal (voir figure 1) :
1. Binarisation : Le signal ECG sera converti en un format d'image binaire, chaque pixel représente soit la présence (1), soit l'absence (0) de la forme d'onde ECG.
2. Opérations morphologiques: La dilatation, une opération morphologique, sera employée pour épaissir les lignes ECG, ce qui pourrait améliorer le rapport signal/bruit et faciliter les étapes de traitement ultérieures.
3. Suppression des artefacts : Des techniques s'appuyant sur la reconnaissance optique de caractères (OCR) et la reconnaissance de texte seront mises en oeuvre pour supprimer les artefacts résultant de marques ou de textes étrangers présents sur les ECG scannés (potentiellement des annotations).
Ces étapes de prétraitement sont cruciales pour atténuer l'impact de l'hétérogénéité de l'acquisition et garantir une extraction cohérente des caractéristiques pour le réseau neuronal. Notamment, la binarisation simplifie la représentation du signal, tandis que la dilatation améliore le signal ECG par rapport au bruit de fond. La suppression des artefacts à l'aide de techniques de reconnaissance optique des caractères et de reconnaissance de texte cible spécifiquement les informations non pertinentes susceptibles de fausser l'interprétation du modèle.
Developpement des modèles
Après le prétraitement de l'ECG et la normalisation du signal pour atténuer les variations d'acquisition, les signaux ECG prétraités seront introduits dans un réseau neuronal convolutif (CNN) pour l'extraction et la classification des caractéristiques. Les CNN excellent dans l'apprentissage des caractéristiques spatiales des données d'image, ce qui les rend adaptés à l'analyse de l'ECG. L'architecture du CNN traitera les ECG sous forme de matrices 2D, les couches convolutives extrayant automatiquement les caractéristiques pertinentes telles que la morphologie du complexe QRS. Des couches entièrement connectées intègrent ensuite ces caractéristiques pour les tâches de classification. Selon l'application, une classification binaire avec une sortie de régression logistique (activation sigmoïde) peut être utilisée pour différencier un ECG normal d'un ECG anormal. Par ailleurs, pour la classification multi-classes de diagnostics spécifiques (par exemple, arythmies), une fonction d'activation SoftMax dans la couche de sortie permettrait une classification probabiliste avec plusieurs sorties possibles. Le modèle utilisera la rétropropagation pour optimiser ses performances en comparant les sorties prédites avec les vraies étiquettes et en ajustant les poids internes pour minimiser l'erreur. Ce processus itératif permet au CNN d'apprendre les relations complexes entre les caractéristiques de l'ECG et les diagnostics correspondants.
Alors que le prétraitement de base des images prépare les données pour un réseau neuronal, l'optimisation de l'architecture du réseau et des hyperparamètres nécessite une approche plus rigoureuse. Ce processus implique de trouver la configuration idéale pour des éléments tels que :
1. La profondeur et la complexité du réseau : La détermination du nombre optimal de couches et des types spécifiques de couches (convolutionnelles, pooling, entièrement connectées) est cruciale pour équilibrer la complexité du modèle avec la capacité d'apprentissage.
2. Nombre de neurones par couche : Le nombre de neurones dans chaque couche a un impact significatif sur la représentation des caractéristiques et la performance du modèle.
3.Taux d'apprentissage et algorithme d'optimisation : La sélection du taux d'apprentissage et de l'algorithme d'optimisation appropriés (par exemple, Adam, SGD) détermine l'efficacité avec laquelle le réseau apprend à partir des données d'apprentissage.
L'exploration manuelle de toutes les combinaisons possibles de ces hyperparamètres peut être inefficace et prendre beaucoup de temps. C'est pourquoi cette étude s'appuiera sur une technique de recherche en grille. Cette technique évalue systématiquement un ensemble prédéfini de valeurs pour chaque hyperparamètre, ce qui permet d'identifier une configuration qui donne des performances supérieures sur l'ensemble de données de validation. En outre, les architectures établies dans le cadre de recherches similaires portant sur la classification des ECG à l'aide de CNN serviront de point de départ au développement du modèle [5, 6]. Ce cadre initial sera affiné par le biais du processus de recherche de grille afin d'obtenir des performances optimales pour la tâche de classification spécifique en question.
Cette étude propose une architecture de fusion tardive pour exploiter les informations complémentaires des données démographiques et des signaux ECG. Cette approche utilise des modèles d'apprentissage profond pré-entraînés pour améliorer l'extraction et la classification des caractéristiques.
Sous-réseaux pré-entraînés :
Un réseau neuronal convolutif (CNN) pré-entraîné sera employé pour l'analyse de l'ECG. L'architecture du CNN sera spécifiquement conçue pour extraire les caractéristiques pertinentes des signaux ECG prétraités, en se concentrant potentiellement sur la capture de caractéristiques telles que la morphologie du complexe QRS ou la variabilité de la fréquence cardiaque.
Un réseau neuronal distinct sera utilisé pour traiter les données démographiques. L'architecture spécifique de ce réseau dépendra de la nature des données démographiques (par exemple, des couches entièrement connectées pour les données catégorielles).
Stratégie de fusion : Après le pré-entraînement indépendant des sous-réseaux, une approche de fusion tardive sera mise en œuvre. Les sorties du CNN pré-entraîné (caractéristiques de l'ECG) et du NN démographique seront concaténées, créant ainsi un vecteur de caractéristiques combiné. Ce vecteur combiné sera ensuite introduit dans un réseau neuronal final à couches entraînables. Ce réseau final sera chargé d'intégrer les caractéristiques des deux modalités (ECG et données démographiques) et d'effectuer la tâche de classification.
Le pré-entraînement des sous-réseaux leur permet d'exploiter les connaissances existantes dans leurs domaines respectifs (analyse ECG et traitement démographique). Cela peut améliorer les performances globales et l'efficacité du modèle par rapport à la formation d'un seul réseau à partir de zéro. En outre, l'architecture de fusion tardive permet d'atténuer les biais potentiels qui pourraient résulter de l'apprentissage d'un seul réseau sur des données combinées. Pour évaluer l'efficacité de l'approche de fusion tardive, les performances du modèle combiné seront comparées à celles des réseaux individuels pré-entraînés (CNN pour l'ECG et NN pour les données démographiques) sur la tâche de classification. Cette comparaison permettra de mieux comprendre la valeur ajoutée de l'intégration des informations démographiques. Prépation des données pour analyse L'ensemble des données colligées de manière pseudo-anonymisée sur Excel et des ECG pseudo-anonymisées correspondant seront préparées pour l'analyse par Maxime Carrière, ingénieur en intelligence artificielle, ayant une compétance sur le "data managment" en intelligence artificielle. La préparation des données en amont pour chaque centre sera optimisée par l'envoi d'un "masque" Excel permettant d'avoir un reccueil homogène de l'ensemble des données. Au vu du caractère retrospectif de l'étude, il semble évident qu'un certains nombre de données seront manquantes. Ceci est une difficultées attendue mais acceptée. En effet, le développement des modèles est prévue avec un certains nombre de données manquante permettant au modèle de fonctionner sans avoir l'ensemble des paramètres, situation qui peut être retrouvée "in situ" dans les situations d'urgences à l'hopital. Par ailleurs, le nombre important de paramètres et de patients inclus permettra de minimiser l'impact de ces données manquantes.
Faisabilité
Le développement de cette IA nécessite une compétence en mathématique et informatique poussée pour le codage sur logiciel Python. Maxime Carrière, est ingénieur en intelligence artificielle et doctorant dans le domaine de l’intelligence artificielle à Berlin, collabore avec nous pour ce projet. L'accord par le CSE permettra la finalisation d'une convention entre le CHU de Montpellier et l'Université de Berlin pour ce projet. Aline Coudry (DRI) est en charge de la rédaction de la convention, déjà pré-établie et en attente de la validation par le CSE. Le matériel utilisé pour le développement est un ordinateur avec une capacité de calcul importante (GPU), appartenant à l'université de Berlin. La protection des données est validé par le DPO (Mas Sandrine) et sera notifié dans la convention entre le CHU de Montpellier et l'Université de Berlin. Nous utilisons des fonctions mathématiques afin de développer ce projet.
Les données utilisées pour le développement de cette IA sont des paramètres cliniques (données démographiques et objectives cliniques) colligés de manière pseudo - anonymisée sur tableur Excel et des images d’ECG anonymes par les centres participants. Les centres transmettront les données de leur patient, ne s’étant pas opposé, sur NextCloud du CHU de Montpellier (espace sécurisé HDS spécifique projet avec accès dédié par centre). La protection des données de cette étude, leur transfert via le NextCloud et leur utilisation par Maxime Carrière a l'université de Berlin ont été validé par une réunion avec le DPO du CHU de Montpellier, ainsi que par Anne Ferrer, directrice générale du CHU de Montpellier. L'ensemble sera notifié sur la convention entre le CHU de Montpellier et l'université de Berlin. Par ailleurs, tous les centres participants à l'étude établiront une convention avec le CHU de Montpellier de manière individuelle, les convention sont déjà rédigé par Aline coudry (DPI du CHU), en attente de validation par le CSE pour signature par les centres participant. Ces conventions ont été approuvées par le DPO du CHU de Montpellier.
L’étude Chest-pAIn est une étude pilote dans ce domaine, il n’est pas prévu d’installation sur les postes informatiques du CHU. En cas de résultats probants, une nouvelle étude, prospective cette fois sera obligatoire afin d’évaluer la pertinence de ce modèle en condition réelle. En cas de résultats probants à cette deuxième étude, il sera question d’une utilisation courante au CHU. Mais ce n’est pas l’objectif de cette étude.
Conventions Ce projet necessitera la mise en place de convention entre le CHU de montpellier et les autres centres participant ainsi que avec l'université de Bzerlin. La rédaction des conventions est en charge par le DPI du CHU de Montpellier, Aline Coudry est en charge de la rédactions des conventions. Les conventions sont d'ores et déjà rédigée et en attente de l'accord du CSE pour envoi aux centres participants et à l'université de Berlin. L'ensemble à été approuvé par le DPO du CHU.
Critères d’évaluation :
Le développement des modèles de machine learning nécessite la catégorisation de chaque patient en diagnostic négatif ou diagnostic positif pour chacune des 6 pathologies ciblées : SCA, EP, SAA, péricardite, myocardite ou pneumothorax.
L’objectif principal de cette étude est de développer un modèle multi-paramétrique de réseaux de neurones artificiels de prédictions multiples à partir des données d’accueil des patients consultant pour un motif principal de douleur thoracique aux urgences pour prédire avec la meilleure pertinence possible la survenue d’un SCA.
Le SCA définit une nécrose des cardiomyocytes dans un contexte clinique compatible avec l’ischémie myocardique. Il comprend le SCA avec élévation du segment ST à l’ECG (SCA ST+) et le SCA sans élévation du segment ST à l’ECG (SCA ST-). Le SCA ST+ est défini par la présence d’une douleur thoracique aigue de durée supérieure à 20 minutes accompagnée d’un sus-décalage du segment ST ≥1mV (≥2 mm en V1,V2 ou V3) dans deux dérivations contiguës ou est suspecté en cas d’apparition d’un bloc de branche gauche complet sur l’ECG et reflète généralement l’obstruction aigue totale ou subtotale d’une coronaire. Le diagnostic de SCA ST- nécessite une combinaison de critères à savoir la détection de l’augmentation et/ou de la diminution d’un biomarqueur cardiaque de préférence la troponine ultrasensible T ou I avec au moins une valeur supérieure au 99e percentile de la limite haute de référence et au moins un critère parmi :
- Des symptômes d’ischémie myocardique (inconfort thoracique aigu à savoir douleur, pression, oppression ou dyspnée, douleur épigastrique, douleur dans le bras gauche) ;
- Des signes d’apparition récente d’ischémie à l’ECG (sus décalage ST transitoire, sous décalage ST transitoire ou persistant, inversion des ondes T, ondes T plates, pseudo-normalisation des ondes T ;
- L’apparition d’ondes Q pathologiques à l’ECG ;
- Une mise en évidence par l’imagerie d’une perte de viabilité du myocarde ou de l’apparition de troubles de la mobilité segmentaire compatible avec une étiologie ischémique ;
- La mise en évidence d’un thrombus intracoronaire à la coronarographie ou à l’autopsie.
Deux médecins praticiens urgentistes jugeront en aveugle l’un de l’autre de la présence de SCA basé sur cette définition et sur le dossier du patient et son évolution durant le mois suivant le passage aux urgences.
Le critère d’évaluation est la performance diagnostique du modèle pour identifier les patients présentant un diagnostic positif. La performance diagnostique intrinsèque du test sera évaluée par la sensibilité et la spécificité en pourcentage. La performance extrinsèque du test sera évaluée par la valeur prédictive négative et positive, en pourcentage.
Les objectifs secondaires de cette étude sont de développer un modèle multiparamétrique de réseaux de neurones artificiels de prédictions multiples à partir de patients présentant une douleur thoracique aux urgences pour prédire les diagnostics de : EP, SAA, péricardite, myocardite, pneumothorax.
Les critères de jugements secondaires seront :
- L’embolie pulmonaire est définie par l’obstruction d’une ou plusieurs artères pulmonaires par un thrombus. Le diagnostic négatif est affirmé par un dosage des Dimères inférieur à 500 (ou inférieur à âge x 10 passé 50 ans) si la probabilité clinique est faible ou intermédiaire, par un angioscanner thoracique négatif ou une scintigraphie négative. Le diagnostic positif est affirmé par une de ces méthodes parmi : un angioscanner thoracique positif, une scintigraphie de ventilation/perfusion positive, une échographie de compression retrouvant une thrombose veineuse profonde (TVP) proximale avec une suspicion clinique d’embolie pulmonaire ;
- Le SAA est défini par une brèche dans la paroi de l’aorte et comprend 3 pathologies principalement : la dissection aortique, l’hématome intramural et l’ulcère asthérosclérotique pénétrant. Le diagnostic négatif est affirmé par un angioscanner thoracique négatif ou par une probabilité diagnostique faible associée à un dosage des DDimères inférieur à 500. Le diagnostic positif est affirmé par un angioscanner positif ou par une échographie trans thoracique ou trans oesophagienne retrouvant un flap intimal à la racine de l’aorte ou de l’aorte descendante ;
- La péricardite aiguë est définie par une inflammation du péricarde avec ou sans épanchement péricardique. Le diagnostic positif est affirmé par la présence d’au moins 2 critères parmi :
- Une douleur thoracique pleurale c’est-à-dire majorée à l’inspiration et soulagée à l’antéflexion ;
- Un frottement péricardique à l’auscultation ;
- Des modifications ECG à savoir un sus décalage diffus du segment ST ou une dépression du segment PR principalement ;
- Un épanchement péricardique à l’échographie trans thoracique ou au scanner
- La myocardite est définie par une infiltration inflammatoire myocardique associée à une nécrose myocytaire d’origine non ischémique. Le diagnostic positif est affirmé par l’IRM cardiaque. Le diagnostic de certitude est affirmé par l’analyse histologique d’une biopsie endomyocardique ;
- Le pneumothorax est défini par un épanchement gazeux dans la cavité pleurale. Le diagnostic négatif de certitude est affirmé par un scanner thoracique. Le diagnostic positif est affirmé par une radiographie thoracique, une échographie pleuro-pulmonaire ou un scanner thoracique.
Dans tous les cas, deux médecins praticiens urgentistes jugeront en aveugle l’un de l’autre de la présence de chaque diagnostic basé sur ces définitions et sur le dossier du patient et son évolution durant le mois suivant le passage aux urgences.
Le critère d’évaluation est la performance diagnostique du modèle pour identifier les patients présentant un diagnostic positif. La performance diagnostique intrinsèque du test sera évaluée par la sensibilité et la spécificité en pourcentage. La performance extrinsèque du test sera évaluée par la valeur prédictive négative et positive, en pourcentage.
Analyse statistique
Une première étude descriptive permettra de vérifier la présence de distribution normale (test de normalité, Shapiro-Wilks) dans les différentes données démographiques (âge, sexe, IMC). Dans un second temps, le data-set sera séparé en data-set d’entrainements (sur lequel les modèles apprendront) et de test (sur lequel la prédiction des modèles sera testée) ayant une distribution similaire de cas positifs et négatifs pour chacune des pathologies.
La performance diagnostique intrinsèque des modèles sera ensuite analysée par la précision des modèles ainsi que par la spécificité et la sensibilité sur les pathologies d’intérêts. La performance extrinsèque du test sera quant à elle évaluée par la valeur prédictive négative et positive, en pourcentage. Ces valeurs seront ensuite comparées avec la littérature et ajustées en fonction de la sensibilité et spécificité pour éviter au maximum les cas de faux négatifs.
La compréhension des données ayant permis un diagnostic correct sera également analysée par une technique de mean-decrease accuracy. Dans cette dernière les données des patients seront tour à tour randomisées pour observer lesquelles font chuter la performance du modèle. Une donnée randomisée ayant un impact hautement négatif sur les performances du modèle indiquera ainsi son importance prédictive. Les interactions entre plusieurs données seront aussi analysées
Le nombre de sujets nécessaires (NSN) est fondé sur différentes` publications récentes. Dans des populations non sélectionnées de patients consultant aux urgences pour une douleur thoracique aiguë la prévalence des diagnostics est environ la suivante : SCA ST+ 5-10%, SCA ST- 15-20%, angor instable 10%, autres causes cardiaques 15% et diagnostics non cardiaques 50%. Les SCA représentent à minima 20% des douleurs thoraciques se présentant aux urgences.
Pour le développement d’un modèle prédictif multiparamétriques, nous estimons sur la base de publications récente similaire, le NSN à un minimum de 1000 sujets présentant un diagnostic positif par pathologie soit 1000 pour le SCA, 1000 pour l’EP, 1000 pour le SAA, 1000 pour la péricardite, 1000 pour la myocardite, 1000 pour le pneumothorax ainsi que 1000 patients présentant une douleur thoracique avec un diagnostic négatif des pathologies d’intérêt cités précédemment soit un total de 7000 NSN. Cette estimation du NSN est un préliminaire dans le but d’évaluer le potentiel de développement de ce modèle. Le NSN définitif pour le développement et perfectionnement en précision du modèle multiparamétrique se portera probablement autour d’un total de 40 000 sujets.
Données utilisées
Catégories de données utilisées
Source de données utilisées
Autre(s) source(s) de donnée(s) mobilisée(s)
Appariement entre les sources de données mobilisées
Plateforme utilisée pour l'analyse des données
Acteurs finançant et participant à l'étude
Responsable(s) de traitement
Type de responsable de traitement 1
Responsable de traitement 1
Localisation du responsable de traitement 1
Représentant du responsable de traitement 1
Calendrier du projet
Base légale pour accéder aux données
Encadrement réglementaire
Durée de conservation aux fins du projet (en années)
2
Existence d'une prise de décision automatisée
Fondement juridique
Article 6 du RGPD (Licéité du traitement)
Article 9 du RGPD (Exception permettant de traiter des données de santé)
Transfert de données personnelles vers un pays hors UE
Droits des personnes
Une note d'information de non opposition a bien été transmise aux patients dans le respect des articles 15 à 20 du RGPD.
Délégué à la protection des données
191 avenue du Doyen Gaston Giraud 34295 MONTPELLIER cedex 5 34295 Montpellier France
dpo@chu-montpellier.fr