Neuronales Netzwerk erkennt symptomatische Alzheimer-Krankheit anhand multimodaler Netzhautbilder
NEUROOPHTHA Durham- An der Duke University in Durham im Bundesstaat North Carolina, USA, beschäftigte man sich interdisziplinär mit der Entwicklung eines künstlichen neuronalen Netzes zur Erkennung der symptomatischen Alzheimer-Krankheit (AD). C. Ellis Wisely et al. verwendeten eine Kombination aus multimodalen Netzhautbildern und Patientendaten für das convolutional neural network (CNN). Farbkarten der Dicke der inneren plexiformen Schicht der Ganglienzellen (GC-IPL), des oberflächlichen Kapillarplexus (SCP) in der optischen Kohärenztomographie-Angiographie (OCTA) sowie Ultra-Weitfeld (UWF)Farb- und Fundus-Autofluoreszenz (FAF)-Bilder der Rasterlaser-Ophthalmoskopie wurden bei Personen mit AD und bei kognitiv Gesunden erstellt. Es wurde ein CNN zur Vorhersage der AD-Diagnose unter Verwendung multimodaler Netzhautbilder, quantitativer OCT- und OCTA-Daten sowie Patientendaten entwickelt. Insgesamt wurden 284 Augen von 159 Probanden (222 Augen von 123 kognitiv gesunden Probanden und 62 Augen von 36 Probanden mit AD) zur Entwicklung des Modells verwendet. Die Fläche unter der Grenzwertoptimierungskurve (AUC) für die vorhergesagte Wahrscheinlichkeit von AD im unabhängigen Testsatz variierte je nach verwendeter Eingabe: UWF-Farbe AUC 0,450, OCTA SCP 0,582, UWF FAF 0,618, GC-IPL-Karten 0,809. Ein Modell, das alle Bilder, quantitativen Daten und Patientendaten enthielt (AUC 0,836) ergab ein vergleichbares Ergebnis wie Modelle, die nur alle Bilder enthielten (AUC 0,829). GC-IPL-Karten, quantitative und Patientendaten ergab eine AUC von 0,841. In der elektronischen Vorab-Publikation beim BRITISH JOURNAL OF OPHTHALMOLOGY im November 2020 konnten die Autoren mitteilen, dass ihr CNN anhand der verwendeten multimodalen Netzhautbilder die Diagnose einer symptomatischen AD in einem unabhängigen Testsatz erfolgreich vorhersagen konnte. GC-IPL-Karten waren die nützlichsten Einzeleingaben für die Vorhersage. Modelle, die nur Bilder enthielten, zeigten ähnliche Ergebnisse wie Modelle, die zusätzlich quantitative und Patientendaten enthielten.(bs)
Autoren: Wisely CE, Wang D, Henao R, Grewal DS, Thompson AC, Robbins CB, Yoon SP, Soundararajan S, Polascik BW, Burke JR, Liu A, Carin L, Fekrat S. Korrespondenz: Dr Sharon Fekrat, Department of Ophthalmology, Duke University, Durham, NC 27708-0187, USA. E-Mail: sharon.fekrat@duke.edu Studie: Convolutional neural network to identify symptomatic Alzheimer’s disease using multimodal retinal imaging. Quelle: Br J Ophthalmol. 2020 Nov 26:bjophthalmol-2020-317659. doi: 10.1136/bjophthalmol-2020-317659. Epub ahead of print. PMID: 33243829. Web: https://bjo.bmj.com/content/early/2020/11/25/bjophthalmol-2020-317659.long