Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’ECG ?: revue critique de la littérature. Djebara, M. Ph.D. Thesis, Université de Lille, 2022-...., France, December, 2022. Paper abstract bibtex Contexte : L'électrocardiographie (ECG) est largement utilisée en soins primaires, à des fins de prévention, de diagnostic positif, de diagnostic différentiel, ou de suivi d'une pathologie chronique ou d'un traitement. En France, plus du tiers des médecins généralistes (MG) utilisent un interpréteur automatisé d’ECG (ECG-CI pour ECG computerized interpreter), et font donc confiance à des modules d'IA qui ne sont pas suffisamment fiables. Pourtant, plusieurs articles scientifiques clament le contraire, mais semblent entachés de biais. Matériel et Méthodes : Nous avons sélectionné dans Medline des articles évaluant des ECG-CI, et relevé (double lecture en aveugle, puis consensus) les biais présents dans ces articles. Résultats : La requête a ramené 104 articles, dont 29 ont été inclus. 15 anomalies ou biais récurrents ont été observés, dont les plus fréquents sont : l'absence de tableau de contingence (12 articles, 41.4%), l'absence d'intervalle de confiance (10 articles, 34.5%), l'utilisation du pourcentage de concordance observée (9 articles, 31.0%), l'absence de mesure de validité extrinsèque (6 articles, 20.7%), l'exclusion a posteriori des erreurs d’interprétation (5 articles, 17.2%), un gold standard de piètre qualité (5 papers, 17.2%), un workflow incohérent (4 articles, 13.8%), une exclusion de sujets a posteriori (4 articles, 13.8%), ou des critères d'inclusion et d'exclusion non documentés (3 articles, 10.3%). Des liens d'intérêt ont été retrouvés dans 26 articles (89,7%). Nous avons observé une corrélation positive et significative entre le score de satisfaction et le score de liens d'intérêts (r=0.38, p=0.041). Conclusion : Des bonnes pratiques d'évaluation des modules d'intelligence artificielle devraient être partagées par la communauté scientifique.
@phdthesis{djebara_medecins_2022,
address = {2022-...., France},
type = {Thèse d'exercice},
title = {Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’{ECG} ?: revue critique de la littérature},
shorttitle = {Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’{ECG} ?},
url = {https://pepite-depot.univ-lille.fr/RESTREINT/Th_Medecine/2022/2022ULILM501.pdf},
abstract = {Contexte : L'électrocardiographie (ECG) est largement utilisée en soins primaires, à des fins de prévention, de diagnostic positif, de diagnostic différentiel, ou de suivi d'une pathologie chronique ou d'un traitement. En France, plus du tiers des médecins généralistes (MG) utilisent un interpréteur automatisé d’ECG (ECG-CI pour ECG computerized interpreter), et font donc confiance à des modules d'IA qui ne sont pas suffisamment fiables. Pourtant, plusieurs articles scientifiques clament le contraire, mais semblent entachés de biais. Matériel et Méthodes : Nous avons sélectionné dans Medline des articles évaluant des ECG-CI, et relevé (double lecture en aveugle, puis consensus) les biais présents dans ces articles. Résultats : La requête a ramené 104 articles, dont 29 ont été inclus. 15 anomalies ou biais récurrents ont été observés, dont les plus fréquents sont : l'absence de tableau de contingence (12 articles, 41.4\%), l'absence d'intervalle de confiance (10 articles, 34.5\%), l'utilisation du pourcentage de concordance observée (9 articles, 31.0\%), l'absence de mesure de validité extrinsèque (6 articles, 20.7\%), l'exclusion a posteriori des erreurs d’interprétation (5 articles, 17.2\%), un gold standard de piètre qualité (5 papers, 17.2\%), un workflow incohérent (4 articles, 13.8\%), une exclusion de sujets a posteriori (4 articles, 13.8\%), ou des critères d'inclusion et d'exclusion non documentés (3 articles, 10.3\%). Des liens d'intérêt ont été retrouvés dans 26 articles (89,7\%). Nous avons observé une corrélation positive et significative entre le score de satisfaction et le score de liens d'intérêts (r=0.38, p=0.041). Conclusion : Des bonnes pratiques d'évaluation des modules d'intelligence artificielle devraient être partagées par la communauté scientifique.},
language = {français},
urldate = {2023-04-29},
school = {Université de Lille},
author = {Djebara, Mona},
collaborator = {Chazard, Emmanuel},
month = dec,
year = {2022},
keywords = {Electrocardiographie, Intelligence artificielle -- Dissertation universitaire, Intelligence artificielle en médecine, Revue de la littérature -- Dissertation universitaire, Soins de santé primaires, Soins de santé primaires -- Dissertation universitaire, intelligence artificielle, méthode d’évaluation, Électrocardiographie, Électrocardiographie -- Dissertation universitaire},
}
Downloads: 0
{"_id":"gMqPA4D4dEPoJ4aqH","bibbaseid":"djebara-lesmdecinsgnralistespeuventilssefierauxinterprteursautomatissdecgrevuecritiquedelalittrature-2022","author_short":["Djebara, M."],"bibdata":{"bibtype":"phdthesis","type":"Thèse d'exercice","address":"2022-...., France","title":"Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’ECG ?: revue critique de la littérature","shorttitle":"Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’ECG ?","url":"https://pepite-depot.univ-lille.fr/RESTREINT/Th_Medecine/2022/2022ULILM501.pdf","abstract":"Contexte : L'électrocardiographie (ECG) est largement utilisée en soins primaires, à des fins de prévention, de diagnostic positif, de diagnostic différentiel, ou de suivi d'une pathologie chronique ou d'un traitement. En France, plus du tiers des médecins généralistes (MG) utilisent un interpréteur automatisé d’ECG (ECG-CI pour ECG computerized interpreter), et font donc confiance à des modules d'IA qui ne sont pas suffisamment fiables. Pourtant, plusieurs articles scientifiques clament le contraire, mais semblent entachés de biais. Matériel et Méthodes : Nous avons sélectionné dans Medline des articles évaluant des ECG-CI, et relevé (double lecture en aveugle, puis consensus) les biais présents dans ces articles. Résultats : La requête a ramené 104 articles, dont 29 ont été inclus. 15 anomalies ou biais récurrents ont été observés, dont les plus fréquents sont : l'absence de tableau de contingence (12 articles, 41.4%), l'absence d'intervalle de confiance (10 articles, 34.5%), l'utilisation du pourcentage de concordance observée (9 articles, 31.0%), l'absence de mesure de validité extrinsèque (6 articles, 20.7%), l'exclusion a posteriori des erreurs d’interprétation (5 articles, 17.2%), un gold standard de piètre qualité (5 papers, 17.2%), un workflow incohérent (4 articles, 13.8%), une exclusion de sujets a posteriori (4 articles, 13.8%), ou des critères d'inclusion et d'exclusion non documentés (3 articles, 10.3%). Des liens d'intérêt ont été retrouvés dans 26 articles (89,7%). Nous avons observé une corrélation positive et significative entre le score de satisfaction et le score de liens d'intérêts (r=0.38, p=0.041). Conclusion : Des bonnes pratiques d'évaluation des modules d'intelligence artificielle devraient être partagées par la communauté scientifique.","language":"français","urldate":"2023-04-29","school":"Université de Lille","author":[{"propositions":[],"lastnames":["Djebara"],"firstnames":["Mona"],"suffixes":[]}],"collaborator":"Chazard, Emmanuel","month":"December","year":"2022","keywords":"Electrocardiographie, Intelligence artificielle – Dissertation universitaire, Intelligence artificielle en médecine, Revue de la littérature – Dissertation universitaire, Soins de santé primaires, Soins de santé primaires – Dissertation universitaire, intelligence artificielle, méthode d’évaluation, Électrocardiographie, Électrocardiographie – Dissertation universitaire","bibtex":"@phdthesis{djebara_medecins_2022,\n\taddress = {2022-...., France},\n\ttype = {Thèse d'exercice},\n\ttitle = {Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’{ECG} ?: revue critique de la littérature},\n\tshorttitle = {Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’{ECG} ?},\n\turl = {https://pepite-depot.univ-lille.fr/RESTREINT/Th_Medecine/2022/2022ULILM501.pdf},\n\tabstract = {Contexte : L'électrocardiographie (ECG) est largement utilisée en soins primaires, à des fins de prévention, de diagnostic positif, de diagnostic différentiel, ou de suivi d'une pathologie chronique ou d'un traitement. En France, plus du tiers des médecins généralistes (MG) utilisent un interpréteur automatisé d’ECG (ECG-CI pour ECG computerized interpreter), et font donc confiance à des modules d'IA qui ne sont pas suffisamment fiables. Pourtant, plusieurs articles scientifiques clament le contraire, mais semblent entachés de biais. Matériel et Méthodes : Nous avons sélectionné dans Medline des articles évaluant des ECG-CI, et relevé (double lecture en aveugle, puis consensus) les biais présents dans ces articles. Résultats : La requête a ramené 104 articles, dont 29 ont été inclus. 15 anomalies ou biais récurrents ont été observés, dont les plus fréquents sont : l'absence de tableau de contingence (12 articles, 41.4\\%), l'absence d'intervalle de confiance (10 articles, 34.5\\%), l'utilisation du pourcentage de concordance observée (9 articles, 31.0\\%), l'absence de mesure de validité extrinsèque (6 articles, 20.7\\%), l'exclusion a posteriori des erreurs d’interprétation (5 articles, 17.2\\%), un gold standard de piètre qualité (5 papers, 17.2\\%), un workflow incohérent (4 articles, 13.8\\%), une exclusion de sujets a posteriori (4 articles, 13.8\\%), ou des critères d'inclusion et d'exclusion non documentés (3 articles, 10.3\\%). Des liens d'intérêt ont été retrouvés dans 26 articles (89,7\\%). Nous avons observé une corrélation positive et significative entre le score de satisfaction et le score de liens d'intérêts (r=0.38, p=0.041). Conclusion : Des bonnes pratiques d'évaluation des modules d'intelligence artificielle devraient être partagées par la communauté scientifique.},\n\tlanguage = {français},\n\turldate = {2023-04-29},\n\tschool = {Université de Lille},\n\tauthor = {Djebara, Mona},\n\tcollaborator = {Chazard, Emmanuel},\n\tmonth = dec,\n\tyear = {2022},\n\tkeywords = {Electrocardiographie, Intelligence artificielle -- Dissertation universitaire, Intelligence artificielle en médecine, Revue de la littérature -- Dissertation universitaire, Soins de santé primaires, Soins de santé primaires -- Dissertation universitaire, intelligence artificielle, méthode d’évaluation, Électrocardiographie, Électrocardiographie -- Dissertation universitaire},\n}\n\n","author_short":["Djebara, M."],"key":"djebara_medecins_2022","id":"djebara_medecins_2022","bibbaseid":"djebara-lesmdecinsgnralistespeuventilssefierauxinterprteursautomatissdecgrevuecritiquedelalittrature-2022","role":"author","urls":{"Paper":"https://pepite-depot.univ-lille.fr/RESTREINT/Th_Medecine/2022/2022ULILM501.pdf"},"keyword":["Electrocardiographie","Intelligence artificielle – Dissertation universitaire","Intelligence artificielle en médecine","Revue de la littérature – Dissertation universitaire","Soins de santé primaires","Soins de santé primaires – Dissertation universitaire","intelligence artificielle","méthode d’évaluation","Électrocardiographie","Électrocardiographie – Dissertation universitaire"],"metadata":{"authorlinks":{}}},"bibtype":"phdthesis","biburl":"https://api.zotero.org/users/1597782/collections/38U22IIM/items?key=gxIPM4PJtMVcB8OpssCWodtP&format=bibtex&limit=100&start=0&sort=date","dataSources":["7BjWiasc5PX5QeAjg"],"keywords":["electrocardiographie","intelligence artificielle – dissertation universitaire","intelligence artificielle en médecine","revue de la littérature – dissertation universitaire","soins de santé primaires","soins de santé primaires – dissertation universitaire","intelligence artificielle","méthode d’évaluation","électrocardiographie","électrocardiographie – dissertation universitaire"],"search_terms":["les","decins","ralistes","peuvent","ils","fier","aux","interpr","teurs","automatis","ecg","revue","critique","litt","rature","djebara"],"title":"Les médecins généralistes peuvent-ils se fier aux interpréteurs automatisés d’ECG ?: revue critique de la littérature","year":2022}