Automatisiertes Deep Learning für klinische Forscher ohne Programmierkenntnisse
MEDICAL RETINA London – Deep Learning kann das Gesundheitswesen verändern, jedoch war die Entwicklung von Modellen weitgehend von der Verfügbarkeit fortgeschrittener technischer Expertise abhängig. Edward Korot aus dem NIHR Biomedical Research Center am Moorfields Eye Hospital NHS Foundation Trust in London, Vereinigtes Königreich, ging zusammen mit weiteren Kollegen aus England, Österreich und der Schweiz einen neuen Weg. Sie stellen die Entwicklung eines Deep-Learning-Modells vor, welches Kliniker ohne das Schreiben von Programmcode erstellten und welches das angegebene Geschlecht aus Netzhautfundusfotos vorhersagt. Das Modell wurde auf 84.743 Netzhautfundusfotos aus dem Datensatz der UK Biobank trainiert. Durch ein tertiäres ophthalmologisches Referenzzentrum wurde eine externe Validierung anhand von 252 Fundusfotos durchgeführt. Für die interne Validierung betrug die Fläche unter der Receiver Operating Characteristic Curve (AUROC) des Code Free Deep Learning (CFDL) Modells 0,93. Sensitivität, Spezifität, positiver prädiktiver Wert (PPV) und Genauigkeit (ACC) betrugen 88,8%, 83,6%, 87,3% beziehungsweise 86,5% und für die externe Validierung 83,9%, 72,2%, 78,2% beziehungsweise 78,6%. Klinikern sind derzeit die Unterschiede von Netzhautmerkmalen zwischen Männern und Frauen nicht bewusst, was die Bedeutung des sogenannten „erklärbaren Maschinenlernens“ in diesem Modell für diese Aufgabe hervorhebt. Das Modell schnitt signifikant schlechter ab, wenn eine foveale Pathologie im externen Validierungsdatensatz vorhanden war: ACC 69,4% verglichen mit 85,4% bei gesunden Augen. Das deutet darauf hin, dass die Fovea eine hervorstechende Region für die Modellleistung ist (OR 0,36; p = 0,0022). Wie die Autoren in der Mai-Ausgabe 2021 im Fachjournal SCIENTIFIC REPORTS schreiben, kann automatisiertes maschinelles Lernen die von Klinikern selbst gesteuerte automatisierte Entdeckung neuer Erkenntnisse und Krankheitsbiomarker ermöglichen. (bs)
Autoren: Korot E, Pontikos N, Liu X, Wagner SK, Faes L, Huemer J, Balaskas K, Denniston AK, Khawaja A, Keane PA. Korrespondenz: Pearse A. Keane, NIHR Biomedical Research Center at Moorfields Eye Hospital NHS Foundation Trust and UCL Institute of Ophthalmology, London, UK. E-Mail: pearse.keane1@nhs.net Studie: Predicting sex from retinal fundus photographs using automated deep learning. Quelle: Sci Rep. 2021 May 13;11(1):10286. doi: 10.1038/s41598-021-89743-x. PMID: 33986429; PMCID: PMC8119673. Web: https://www.nature.com/articles/s41598-021-89743-x