Anonim

Ein neues Modell des maschinellen Lernens kann vorhersagen, wie schnell die diabetische Retinopathie bei einzelnen Patienten fortschreiten wird. Unerwarteterweise stützt sich der Algorithmus auf Informationen, die Kliniker laut einer online in NPJ Digital Medicine veröffentlichten Studie beim routinemäßigen Screening auf diabetische Retinopathie selten berücksichtigen.

Der von Forschern von Roche und Genentech entwickelte Algorithmus kann anhand von Bildern eines einzelnen Arztbesuchs feststellen, ob bei einem Patienten mit Diabetes in den nächsten 1 bis 2 Jahren ein Sehverlust wahrscheinlich ist. Im Gegensatz zu bestehenden Screening-Methoden, die auf Bildern der Fovea und des Sehnervs beruhen, fand das neue System ebenso wichtige Prädiktoren in den peripheren Netzhautfeldern.

Die Forscher trainierten das Modell anhand der Schweregrade der diabetischen Retinopathie, die von maskierten Gradern menschlicher Lesezentren 6, 12 und 24 Monate nach dem Basisbesuch bereitgestellt wurden. Die Bilder für die Studie stammen aus den klinischen Studien RISE und RIDE, die mit der Feldbildgebung mit sieben Standards aufgenommen wurden. Die Forscher testeten das Modell an Basisbildern von Augen mit unbehandelter diabetischer Retinopathie, um festzustellen, ob eine Verschlechterung der Schweregradskala für diabetische Retinopathie in der Frühbehandlung innerhalb von 2 Jahren um zwei oder mehr Schritte vorhergesagt wurde.

"Wir fanden heraus, dass der wichtigste prädiktive Beitrag von den peripheren Netzhautfeldern kam, die Bereiche der Netzhaut umfassen, die sowohl von der Fovea als auch vom Sehnerv entfernt sind", schreibt Dr. Filippo Arcadu von Roche Informatics in Basel, Schweiz, und Kollegen. Die Finanzierung der Studie wurde von Roche und Genentech bereitgestellt.

Insbesondere wenn das Modell unter Verwendung von Bildern aus allen sieben Feldern trainiert wurde, betrug die Fläche unter der Kurve (AUC) nach 6 Monaten 0, 68 und nach 24 Monaten 0, 77. Als die Forscher das Training nur auf Bilder der Fovea und des Sehnervs beschränkten, fiel die AUC auf 0, 62 bzw. 0, 69 (P = 0, 0486 und 0, 0023).

Obwohl typische Untersuchungen möglicherweise nicht die Peripherie betreffen, bestätigt diese Untersuchung, wie wichtig es ist, die gesamte Netzhaut zu untersuchen, sagte Dr. med. Zdenka Haskova, leitende Studienautorin und klinische Augenärztin bei Genentech, gegenüber Medscape Medical News. Wenn der Algorithmus mit neueren Bildgebungstechnologien wie der Ultra-Weitfeld-Fotografie gekoppelt ist, kann eine schnell fortschreitende diabetische Retinopathie möglicherweise noch früher erkannt werden.

"Eine Sache, die untersucht werden muss, ist, ob Läsionen auf der Makula und der Bandscheibe periphere Läsionen vorhersagen", sagt Dr. Paolo Silva, Professor für Augenheilkunde am Joslin Diabetes Center in Harvard, Boston, Massachusetts, der nicht an der Studie beteiligt war . "Wenn [sie nicht], dann ist die Peripherie entscheidend für die Erkennung einer diabetischen Retinopathie."

Obwohl der Datensatz der Studie die Sieben-Feld-Bildgebung verwendete, was in einem populationsbasierten Screening auf diabetische Retinopathie nicht praktikabel ist, besteht laut Haskova ein Teil der Validierung und Erweiterung des Modells darin, den Algorithmus in einer größeren, realen Welt zu testen Datensatz und stellen Sie sicher, dass es mit Ultra-Weitfeld-Bildern arbeiten kann.

Silva, der ausführlich über diese neuartige Bildgebungstechnologie veröffentlicht hat, ist der Ansicht, dass die Ultra-Weitfeldbilder im Algorithmus gut funktionieren sollten, da sie noch mehr Daten liefern als die Bildgebung mit sieben Feldern.

"Bei begrenzten Ressourcen im Gesundheitswesen ist es wichtig zu wissen, welche Patienten die größte Aufmerksamkeit benötigen", sagte Haskova. Die derzeitigen Screening-Methoden sind angesichts der Pandemiegröße der globalen Diabetikerpopulation (ca. 425 Millionen) und der Tatsache, dass die diabetische Retinopathie weitgehend asymptomatisch ist, bis der Verlust des Sehvermögens einsetzt, unzureichend.

Wenn ein Algorithmus Patienten mit höherem Risiko anhand von Bildern identifizieren kann, die bei einem einzelnen Arztbesuch aufgenommen wurden, "könnten Sie die eingeschränkte Gesundheitsversorgung leiten und beispielsweise ihre Besuche häufiger planen", sagte Haskova.

Das einmal validierte System der künstlichen Intelligenz könnte Ärzten eine Möglichkeit bieten, alle vorhandenen Informationen besser zu nutzen. "Wenn Sie all das zusammen integrieren - EMR, systemische Risikofaktoren, retinale Risikofaktoren - können Sie potenziell jedem Patienten Entscheidungsunterstützung in Echtzeit bieten", sagte Silva.

NPJ Digit Med. 2019; 2: 92. Voller Text

Folgen Sie Donavyn Coffey auf Twitter: @donavyncoffey

Folgen Sie Medscape auf Facebook, Twitter, Instagram und YouTube.