Deep Learning för bildkvalitetsutvärdering av optisk koherenstomografi angiografi

Tack för att du besöker Nature.com.Du använder en webbläsarversion med begränsat CSS-stöd.För bästa upplevelse rekommenderar vi att du använder en uppdaterad webbläsare (eller inaktiverar kompatibilitetsläge i Internet Explorer).Dessutom, för att säkerställa fortsatt support, visar vi webbplatsen utan stilar och JavaScript.
Reglage som visar tre artiklar per bild.Använd bakåt- och nästaknapparna för att flytta genom bilderna, eller skjutkontrollknapparna i slutet för att flytta genom varje bild.
Optisk koherenstomografisk angiografi (OCTA) är en ny metod för icke-invasiv visualisering av retinala kärl.Även om OCTA har många lovande kliniska tillämpningar, är det fortfarande en utmaning att fastställa bildkvaliteten.Vi utvecklade ett djupinlärningsbaserat system med hjälp av ResNet152 neurala nätverksklassificerare förutbildad med ImageNet för att klassificera ytliga bilder av kapillärplexus från 347 skanningar av 134 patienter.Bilderna bedömdes också manuellt som sann sanning av två oberoende bedömare för en övervakad inlärningsmodell.Eftersom kraven på bildkvalitet kan variera beroende på kliniska eller forskningsinställningar, utbildades två modeller, en för bildigenkänning av hög kvalitet och den andra för bildigenkänning av låg kvalitet.Vår neurala nätverksmodell visar ett utmärkt område under kurvan (AUC), 95 % CI 0,96-0,99, \(\kappa\) = 0,81), vilket är betydligt bättre än signalnivån som rapporteras av maskinen (AUC = 0,82, 95 % Cl).0,77–0,86, \(\kappa\) = 0,52 respektive AUC = 0,78, 95 % KI 0,73–0,83, \(\kappa\) = 0,27).Vår studie visar att maskininlärningsmetoder kan användas för att utveckla flexibla och robusta kvalitetskontrollmetoder för OCTA-bilder.
Optisk koherenstomografisk angiografi (OCTA) är en relativt ny teknik baserad på optisk koherenstomografi (OCT) som kan användas för icke-invasiv visualisering av näthinnans mikrovaskulatur.OCTA mäter skillnaden i reflektionsmönster från upprepade ljuspulser i samma område av näthinnan, och rekonstruktioner kan sedan beräknas för att avslöja blodkärl utan invasiv användning av färgämnen eller andra kontrastmedel.OCTA möjliggör också vaskulär avbildning med djupupplösning, vilket gör det möjligt för läkare att separat undersöka ytliga och djupa kärllager, vilket hjälper till att skilja mellan korioretinal sjukdom.
Även om denna teknik är lovande, är variationen i bildkvalitet fortfarande en stor utmaning för tillförlitlig bildanalys, vilket gör bildtolkning svår och förhindrar omfattande klinisk användning.Eftersom OCTA använder flera på varandra följande OCT-skanningar är den mer känslig för bildartefakter än standard OCT.De flesta kommersiella OCTA-plattformar tillhandahåller sitt eget bildkvalitetsmått som kallas Signal Strength (SS) eller ibland Signal Strength Index (SSI).Bilder med ett högt SS- eller SSI-värde garanterar dock inte frånvaron av bildartefakter, vilket kan påverka eventuell efterföljande bildanalys och leda till felaktiga kliniska beslut.Vanliga bildartefakter som kan uppstå i OCTA-avbildning inkluderar rörelseartefakter, segmenteringsartefakter, mediaopacitetsartefakter och projektionsartefakter1,2,3.
Eftersom OCTA-härledda mått såsom vaskulär densitet i allt högre grad används i translationell forskning, kliniska prövningar och klinisk praxis, finns det ett akut behov av att utveckla robusta och tillförlitliga processer för bildkvalitetskontroll för att eliminera bildartefakter4.Hoppa över anslutningar, även känd som kvarvarande anslutningar, är projektioner i neurala nätverksarkitektur som tillåter information att kringgå faltningslager samtidigt som information lagras i olika skalor eller upplösningar5.Eftersom bildartefakter kan påverka småskalig och allmän storskalig bildprestanda är neurala nätverk med skip-anslutning väl lämpade för att automatisera denna kvalitetskontrolluppgift5.Nyligen publicerade arbeten har visat något lovande för djupa konvolutionella neurala nätverk som tränas med hjälp av högkvalitativa data från mänskliga estimatorer6.
I den här studien tränar vi ett anslutningshoppande konvolutionellt neuralt nätverk för att automatiskt bestämma kvaliteten på OCTA-bilder.Vi bygger vidare på tidigare arbete genom att utveckla separata modeller för att identifiera bilder av hög kvalitet och bilder av låg kvalitet, eftersom kraven på bildkvalitet kan skilja sig åt för specifika kliniska scenarier eller forskningsscenarier.Vi jämför resultaten av dessa nätverk med konvolutionella neurala nätverk utan att sakna anslutningar för att utvärdera värdet av att inkludera funktioner på flera nivåer av granularitet inom djupinlärning.Vi jämförde sedan våra resultat med signalstyrka, ett allmänt accepterat mått på bildkvalitet från tillverkarna.
Vår studie inkluderade patienter med diabetes som besökte Yale Eye Center mellan 11 augusti 2017 och 11 april 2019. Patienter med någon icke-diabetisk korioretinal sjukdom exkluderades.Det fanns inga inklusions- eller uteslutningskriterier baserade på ålder, kön, ras, bildkvalitet eller någon annan faktor.
OCTA-bilder togs med hjälp av AngioPlex-plattformen på en Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) under 8\(\ gånger\) 8 mm och 6\(\ gånger\) 6 mm avbildningsprotokoll.Informerat samtycke för deltagande i studien erhölls från varje studiedeltagare, och Yale University Institutional Review Board (IRB) godkände användningen av informerat samtycke med global fotografering för alla dessa patienter.Följer principerna i Helsingforsdeklarationen.Studien godkändes av Yale University IRB.
Ytplattans bilder utvärderades baserat på den tidigare beskrivna Motion Artifact Score (MAS), den tidigare beskrivna Segmentation Artifact Score (SAS), foveala centrum, närvaron av mediaopacitet och bra visualisering av små kapillärer som bestämts av bildutvärderaren.Bilderna analyserades av två oberoende utvärderare (RD och JW).En bild har betyget 2 (berättigad) om alla följande kriterier är uppfyllda: bilden är centrerad vid fovea (mindre än 100 pixlar från mitten av bilden), MAS är 1 eller 2, SAS är 1, och mediaopaciteten är mindre än 1. Finns på bilder i storlek / 16, och små kapillärer ses i bilder större än 15/16.En bild får betyget 0 (inget betyg) om något av följande kriterier uppfylls: bilden är förskjuten, om MAS är 4, om SAS är 2, eller den genomsnittliga opaciteten är större än 1/4 av bilden, och de små kapillärerna kan inte justeras mer än 1 bild /4 för att särskilja.Alla andra bilder som inte uppfyller poängkriterierna 0 eller 2 får poäng 1 (klippning).
På fig.1 visar exempelbilder för var och en av de skalade uppskattningarna och bildartefakterna.Interbedömartillförlitligheten för individuella poäng bedömdes med Cohens kappa-viktning8.De individuella poängen för varje bedömare summeras för att få ett övergripande betyg för varje bild, som sträcker sig från 0 till 4. Bilder med en total poäng på 4 anses vara bra.Bilder med ett totalpoäng på 0 eller 1 anses vara av låg kvalitet.
Ett faltningsneuralt nätverk med ResNet152-arkitektur (fig. 3A.i) förtränat på bilder från ImageNet-databasen genererades med hjälp av fast.ai och PyTorch-ramverket5, 9, 10, 11. Ett faltningsneuralt nätverk är ett nätverk som använder det inlärda filter för att skanna bildfragment för att studera rumsliga och lokala funktioner.Vårt utbildade ResNet är ett 152-lagers neuralt nätverk som kännetecknas av luckor eller "restanslutningar" som samtidigt överför information med flera upplösningar.Genom att projicera information med olika upplösningar över nätverket kan plattformen lära sig funktionerna hos bilder med låg kvalitet på flera detaljnivåer.Utöver vår ResNet-modell tränade vi även AlexNet, en välstuderad neural nätverksarkitektur, utan att missa anslutningar för jämförelse (Figur 3A.ii)12.Utan saknade anslutningar kommer detta nätverk inte att kunna fånga funktioner med högre granularitet.
Den ursprungliga 8\(\ gånger\)8 mm OCTA13-bilduppsättningen har förbättrats med hjälp av horisontella och vertikala reflektionstekniker.Den fullständiga datamängden delades sedan slumpmässigt upp på bildnivå i träning (51,2%), testning (12,8%), hyperparameterjustering (16%) och validering (20%) datauppsättningar med hjälp av scikit-learn toolbox python14.Två fall övervägdes, ett baserat på att endast detektera bilder av högsta kvalitet (totalpoäng 4) och det andra baserat på att endast detektera bilder med lägst kvalitet (totalpoäng 0 eller 1).För varje användningsfall av hög kvalitet och låg kvalitet, tränas det neurala nätverket om en gång på vår bilddata.I varje användningsfall tränades det neurala nätverket under 10 epoker, alla utom de högsta lagervikterna frystes och vikterna för alla interna parametrar lärdes in under 40 epoker med användning av en diskriminerande inlärningshastighetsmetod med en kors-entropiförlustfunktion 15, 16..Korsentropiförlustfunktionen är ett mått på den logaritmiska skalan för avvikelsen mellan förutspådda nätverksetiketter och verkliga data.Under träning utförs gradientnedstigning på det neurala nätverkets interna parametrar för att minimera förlusterna.Inlärningshastigheten, avhoppsfrekvensen och viktminskningshyperparametrarna justerades med Bayesiansk optimering med 2 slumpmässiga startpunkter och 10 iterationer, och AUC på datamängden justerades med hjälp av hyperparametrarna som ett mål på 17.
Representativa exempel på 8 × 8 mm OCTA-bilder av ytliga kapillärplexus med poäng 2 (A, B), 1 (C, D) och 0 (E, F).Bildartefakter som visas inkluderar flimrande linjer (pilar), segmenteringsartefakter (asterisker) och mediaopacitet (pilar).Bild (E) är också off-center.
Receiver operating characteristics (ROC)-kurvor genereras sedan för alla neurala nätverksmodeller, och motorsignalstyrkarapporter genereras för varje användningsfall av låg kvalitet och hög kvalitet.Area under the curve (AUC) beräknades med hjälp av pROC R-paketet, och 95% konfidensintervall och p-värden beräknades med hjälp av DeLong-metoden18,19.De kumulativa poängen för de mänskliga bedömarna används som baslinje för alla ROC-beräkningar.För signalstyrkan som rapporterats av maskinen beräknades AUC två gånger: en gång för högkvalitativ skalbarhetsgräns och en gång för lågkvalitetsgräns för skalbarhetspoäng.Det neurala nätverket jämförs med AUC-signalstyrkan som återspeglar dess egna tränings- och utvärderingsförhållanden.
För att ytterligare testa den tränade djupinlärningsmodellen på en separat datamängd användes högkvalitativa och lågkvalitetsmodeller direkt för prestandautvärdering av 32 full face 6\(\times\) 6 mm ytplattor som samlats in från Yale University.Ögonmassan centreras samtidigt som bilden 8 \(\ gånger \) 8 mm.6\(\×\) 6 mm-bilderna bedömdes manuellt av samma bedömare (RD och JW) på samma sätt som 8\(\×\) 8 mm-bilderna, AUC beräknades såväl som noggrannhet och Cohens kappa .lika .
Klassobalansförhållandet är 158:189 (\(\rho = 1,19\)) för lågkvalitetsmodellen och 80:267 (\(\rho = 3,3\)) för högkvalitetsmodellen.Eftersom klassobalansförhållandet är mindre än 1:4 har inga specifika arkitektoniska förändringar gjorts för att korrigera klassobalans20,21.
För att bättre visualisera inlärningsprocessen genererades klassaktiveringskartor för alla fyra utbildade djupinlärningsmodeller: högkvalitativ ResNet152-modell, lågkvalitativ ResNet152-modell, högkvalitativ AlexNet-modell och lågkvalitativ AlexNet-modell.Klassaktiveringskartor genereras från de ingående faltningsskikten i dessa fyra modeller, och värmekartor genereras genom att överlagra aktiveringskartor med källbilder från valideringsuppsättningarna 8 × 8 mm och 6 × 6 mm22, 23.
R-version 4.0.3 användes för alla statistiska beräkningar, och visualiseringar skapades med hjälp av ggplot2-grafikverktygsbiblioteket.
Vi samlade in 347 frontala bilder av det ytliga kapillärplexuset som mätte 8 \(\ gånger \)8 mm från 134 personer.Maskinen rapporterade signalstyrka på en skala från 0 till 10 för alla bilder (medelvärde = 6,99 ± 2,29).Av de 347 förvärvade bilderna var medelåldern vid undersökningen 58,7 ± 14,6 år och 39,2 % var från manliga patienter.Av alla bilder var 30,8% från kaukasier, 32,6% från svarta, 30,8% från latinamerikaner, 4% från asiater och 1,7% från andra raser (tabell 1).).Åldersfördelningen för patienter med OCTA skiljde sig signifikant beroende på kvaliteten på bilden (p < 0,001).Andelen bilder av hög kvalitet hos yngre patienter i åldern 18-45 år var 33,8 % jämfört med 12,2 % av bilder med låg kvalitet (tabell 1).Fördelningen av status för diabetisk retinopati varierade också signifikant i bildkvalitet (p < 0,017).Bland alla bilder av hög kvalitet var andelen patienter med PDR 18,8 % jämfört med 38,8 % av alla bilder av låg kvalitet (tabell 1).
Individuella betyg av alla bilder visade måttlig till stark tillförlitlighet mellan personer som läste bilderna (Cohens viktade kappa = 0,79, 95% CI: 0,76-0,82), och det fanns inga bildpunkter där bedömarna skilde sig med mer än 1 (Fig. 2A)..Signalintensitet korrelerade signifikant med manuell poängsättning (Pearsons produktmomentkorrelation = 0,58, 95 % CI 0,51–0,65, p<0,001), men många bilder identifierades ha hög signalintensitet men låg manuell poängsättning (Fig. .2B).
Under träningen av ResNet152- och AlexNet-arkitekturerna faller korsentropiförlusten vid validering och träning över 50 epoker (Figur 3B,C).Valideringsnoggrannheten i den slutliga träningsepoken är över 90 % för användningsfall av både hög kvalitet och låg kvalitet.
Mottagarens prestandakurvor visar att ResNet152-modellen avsevärt överträffar signaleffekten som rapporteras av maskinen i både låg- och högkvalitativa användningsfall (p < 0,001).ResNet152-modellen överträffar också avsevärt AlexNet-arkitekturen (p = 0,005 och p = 0,014 för fall av låg kvalitet respektive hög kvalitet).De resulterande modellerna för var och en av dessa uppgifter kunde uppnå AUC-värden på 0,99 respektive 0,97, vilket är betydligt bättre än motsvarande AUC-värden på 0,82 och 0,78 för maskinens signalstyrkeindex eller 0,97 och 0,94 för AlexNet ..(Fig. 3).Skillnaden mellan ResNet och AUC i signalstyrka är högre när man känner igen bilder av hög kvalitet, vilket indikerar ytterligare fördelar med att använda ResNet för denna uppgift.
Graferna visar varje oberoende bedömares förmåga att göra poäng och jämföra med den signalstyrka som rapporteras av maskinen.(A) Summan av poängen som ska bedömas används för att skapa det totala antalet poäng som ska bedömas.Bilder med en total skalbarhetspoäng på 4 tilldelas hög kvalitet, medan bilder med en total skalbarhetspoäng på 1 eller mindre tilldelas låg kvalitet.(B) Signalintensitet korrelerar med manuella uppskattningar, men bilder med hög signalintensitet kan vara av sämre kvalitet.Den röda streckade linjen indikerar tillverkarens rekommenderade kvalitetströskel baserat på signalstyrka (signalstyrka \(\ge\)6).
ResNet-överföringsinlärning ger en betydande förbättring av bildkvalitetsidentifiering för både lågkvalitets- och högkvalitativa användningsfall jämfört med maskinrapporterade signalnivåer.(A) Förenklade arkitekturdiagram av förtränade (i) ResNet152- och (ii) AlexNet-arkitekturer.(B) Träningshistorik och mottagarprestandakurvor för ResNet152 jämfört med maskinrapporterad signalstyrka och AlexNet lågkvalitetskriterier.(C) ResNet152-mottagarens träningshistorik och prestandakurvor jämfört med maskinrapporterad signalstyrka och AlexNets höga kvalitetskriterier.
Efter justering av beslutsgränströskeln är den maximala prediktionsnoggrannheten för ResNet152-modellen 95,3 % för fallet med låg kvalitet och 93,5 % för fallet med hög kvalitet (tabell 2).Den maximala prediktionsnoggrannheten för AlexNet-modellen är 91,0 % för fallet med låg kvalitet och 90,1 % för fallet med hög kvalitet (tabell 2).Den maximala noggrannheten för signalstyrka är 76,1 % för användningsfallet med låg kvalitet och 77,8 % för användningsfallet med hög kvalitet.Enligt Cohens kappa (\(\kappa\)) är överensstämmelsen mellan ResNet152-modellen och estimatorerna 0,90 för lågkvalitetsfallet och 0,81 för högkvalitetsfallet.Cohens AlexNet kappa är 0,82 och 0,71 för användningsfall av låg kvalitet respektive hög kvalitet.Cohens signalstyrka kappa är 0,52 och 0,27 för användningsfallen med låg respektive hög kvalitet.
Validering av igenkänningsmodeller med hög och låg kvalitet på 6\(\x\) bilder av en 6 mm platt platta visar den tränade modellens förmåga att bestämma bildkvalitet över olika bildparametrar.Vid användning av 6\(\x\) 6 mm grunda plattor för bildkvalitet, hade lågkvalitetsmodellen en AUC på 0,83 (95 % KI: 0,69–0,98) och högkvalitetsmodellen hade en AUC på 0,85.(95 % KI: 0,55–1,00) (tabell 2).
Visuell inspektion av ingångslagerklassaktiveringskartor visade att alla tränade neurala nätverk använde bildfunktioner under bildklassificering (Fig. 4A, B).För 8 \(\ gånger \) 8 mm och 6 \(\ gånger \) 6 mm bilder följer ResNet-aktiveringsbilderna tätt näthinnans kärl.AlexNet-aktiveringskartor följer också retinala kärl, men med grövre upplösning.
Klassaktiveringskartorna för ResNet152- och AlexNet-modellerna framhäver funktioner relaterade till bildkvalitet.(A) Klassaktiveringskarta som visar koherent aktivering efter ytlig retinal vaskulatur på 8 \(\ gånger \) 8 mm valideringsbilder och (B) utsträckning på mindre 6 \(\ gånger \) 6 mm valideringsbilder.LQ-modell utbildad på låga kvalitetskriterier, HQ-modell utbildad på höga kvalitetskriterier.
Det har tidigare visat sig att bildkvalitet i hög grad kan påverka varje kvantifiering av OCTA-bilder.Dessutom ökar förekomsten av retinopati förekomsten av bildartefakter7,26.Faktum är att i våra data, i överensstämmelse med tidigare studier, fann vi ett signifikant samband mellan ökande ålder och svårighetsgrad av näthinnesjukdom och försämring av bildkvalitet (p < 0,001, p = 0,017 för ålder respektive DR-status; Tabell 1) 27 Därför är det viktigt att bedöma bildkvaliteten innan du utför någon kvantitativ analys av OCTA-bilder.De flesta studier som analyserar OCTA-bilder använder maskinrapporterade signalintensitetströsklar för att utesluta bilder av låg kvalitet.Även om signalintensiteten har visat sig påverka kvantifieringen av OCTA-parametrar, kanske hög signalintensitet ensam inte är tillräcklig för att utesluta bilder med bildartefakter2,3,28,29.Därför är det nödvändigt att utveckla en mer tillförlitlig metod för kontroll av bildkvalitet.För detta ändamål utvärderar vi prestandan för övervakade metoder för djupinlärning mot signalstyrkan som rapporteras av maskinen.
Vi har utvecklat flera modeller för att utvärdera bildkvalitet eftersom olika OCTA-användningsfall kan ha olika bildkvalitetskrav.Till exempel bör bilder vara av högre kvalitet.Dessutom är specifika kvantitativa parametrar av intresse också viktiga.Till exempel beror området för den foveala avaskulära zonen inte på grumligheten hos det icke-centrala mediet, utan påverkar kärlens densitet.Medan vår forskning fortsätter att fokusera på ett allmänt tillvägagångssätt för bildkvalitet, inte kopplat till kraven i något särskilt test, utan avsedd att direkt ersätta signalstyrkan som rapporteras av maskinen, hoppas vi kunna ge användarna en större grad av kontroll så att de kan välja det specifika mått av intresse för användaren.välj en modell som motsvarar den maximala graden av bildartefakter som anses acceptabel.
För scener av låg kvalitet och hög kvalitet visar vi utmärkt prestanda för anslutningssaknade djupa faltningsneurala nätverk, med AUC på 0,97 respektive 0,99 och lågkvalitativa modeller.Vi visar också den överlägsna prestandan hos vår djupinlärningsmetod jämfört med signalnivåer som endast rapporteras av maskiner.Hoppa över anslutningar tillåter neurala nätverk att lära sig funktioner på flera detaljnivåer, fånga finare aspekter av bilder (t.ex. kontrast) såväl som allmänna egenskaper (t.ex. bildcentrering30,31).Eftersom bildartefakter som påverkar bildkvaliteten troligen bäst identifieras över ett brett spektrum, kan neurala nätverksarkitekturer med saknade anslutningar uppvisa bättre prestanda än de utan uppgifter om bildkvalitetsbestämning.
När vi testade vår modell på 6\(\×6 mm) OCTA-bilder märkte vi en minskning av klassificeringsprestanda för både högkvalitativa och lågkvalitativa modeller (Fig. 2), i motsats till storleken på modellen som tränats för klassificering.Jämfört med ResNet-modellen har AlexNet-modellen ett större fall.Den relativt bättre prestandan hos ResNet kan bero på förmågan hos de kvarvarande anslutningarna att överföra information i flera skalor, vilket gör modellen mer robust för att klassificera bilder tagna i olika skalor och/eller förstoringar.
Vissa skillnader mellan 8 \(\×\) 8 mm bilder och 6 \(\×\) 6 mm bilder kan leda till dålig klassificering, inklusive en relativt hög andel bilder som innehåller foveala avaskulära områden, förändringar i synlighet, vaskulära arkader och ingen synnerv på bilden 6×6 mm.Trots detta kunde vår högkvalitativa ResNet-modell uppnå en AUC på 85 % för 6 \(\x\) 6 mm bilder, en konfiguration som modellen inte tränades för, vilket tyder på att bildkvalitetsinformationen kodas i det neurala nätverket är passande.för en bildstorlek eller maskinkonfiguration utanför dess utbildning (tabell 2).Lugnande nog kunde ResNet- och AlexNet-liknande aktiveringskartor på 8 \(\ gånger \) 8 mm och 6 \(\ gånger \) 6 mm bilder framhäva retinala kärl i båda fallen, vilket tyder på att modellen har viktig information.är tillämpliga för att klassificera båda typerna av OCTA-bilder (Fig. 4).
Lauerman et al.Bildkvalitetsbedömning på OCTA-bilder utfördes på liknande sätt med Inception-arkitekturen, ett annat konvolutionellt neuralt nätverk med skip-connection6,32 med djupinlärningstekniker.De begränsade också studien till bilder av den ytliga kapillärplexusen, men endast med de mindre 3×3 mm-bilderna från Optovue AngioVue, även om patienter med olika korioretinala sjukdomar också inkluderades.Vårt arbete bygger på deras grund, inklusive flera modeller för att hantera olika trösklar för bildkvalitet och validera resultat för bilder av olika storlekar.Vi rapporterar också AUC-måttet för maskininlärningsmodeller och ökar deras redan imponerande noggrannhet (90 %)6 för modeller med både låg kvalitet (96 %) och högkvalitativa (95,7 %)6.
Denna utbildning har flera begränsningar.Först togs bilderna med endast en OCTA-maskin, inklusive endast bilder av det ytliga kapillärplexus vid 8\(\ gånger\)8 mm och 6\(\ gånger\)6 mm.Anledningen till att bilder utesluts från djupare lager är att projektionsartefakter kan göra manuell utvärdering av bilder svårare och möjligen mindre konsekvent.Vidare har bilder endast förvärvats hos diabetespatienter, för vilka OCTA framträder som ett viktigt diagnostiskt och prognostiskt verktyg33,34.Även om vi kunde testa vår modell på bilder av olika storlekar för att säkerställa att resultaten var robusta, kunde vi inte identifiera lämpliga datamängder från olika centra, vilket begränsade vår bedömning av modellens generaliserbarhet.Även om bilderna erhölls från endast ett center, erhölls de från patienter med olika etnisk bakgrund och ras, vilket är en unik styrka i vår studie.Genom att inkludera mångfald i vår träningsprocess hoppas vi att våra resultat kommer att generaliseras i en bredare mening och att vi undviker att koda in rasfördomar i de modeller vi tränar.
Vår studie visar att anslutningshoppande neurala nätverk kan tränas för att uppnå hög prestanda för att bestämma OCTA-bildkvalitet.Vi tillhandahåller dessa modeller som verktyg för vidare forskning.Eftersom olika mätvärden kan ha olika bildkvalitetskrav, kan en individuell kvalitetskontrollmodell utvecklas för varje mätvärde med hjälp av den struktur som fastställts här.
Framtida forskning bör inkludera bilder av olika storlekar från olika djup och olika OCTA-maskiner för att få en djupinlärningsprocess för bildkvalitetsutvärdering som kan generaliseras till OCTA-plattformar och bildbehandlingsprotokoll.Aktuell forskning är också baserad på övervakade metoder för djupinlärning som kräver mänsklig utvärdering och bildutvärdering, vilket kan vara arbetsintensivt och tidskrävande för stora datamängder.Det återstår att se om oövervakade metoder för djupinlärning kan skilja mellan bilder av låg kvalitet och bilder av hög kvalitet.
När OCTA-tekniken fortsätter att utvecklas och skanningshastigheterna ökar, kan förekomsten av bildartefakter och bilder av dålig kvalitet minska.Förbättringar i programvaran, såsom den nyligen introducerade funktionen för borttagning av projektionsartefakter, kan också lindra dessa begränsningar.Men många problem kvarstår eftersom avbildning av patienter med dålig fixering eller betydande mediaturbiditet alltid resulterar i bildartefakter.När OCTA blir mer allmänt använt i kliniska prövningar krävs noggrann övervägande för att fastställa tydliga riktlinjer för acceptabla bildartefaktnivåer för bildanalys.Tillämpningen av metoder för djupinlärning på OCTA-bilder lovar mycket och ytterligare forskning behövs inom detta område för att utveckla en robust metod för kontroll av bildkvalitet.
Koden som används i den aktuella forskningen är tillgänglig i octa-qc-förvaret, https://github.com/rahuldhodapkar/octa-qc.Datauppsättningar som genereras och/eller analyseras under den aktuella studien är tillgängliga från respektive författare på rimlig begäran.
Spaide, RF, Fujimoto, JG & Waheed, NK Bildartefakter i optisk koherensangiografi.Retina 35, 2163–2180 (2015).
Fenner, BJ et al.Identifiering av avbildningsegenskaper som bestämmer kvaliteten och reproducerbarheten av densitetsmätningar av retinal kapillär plexus i OCT-angiografi.BR.J. Ophthalmol.102, 509–514 (2018).
Lauerman, JL et al.Inflytande av eye-tracking-teknik på bildkvaliteten av OCT-angiografi vid åldersrelaterad makuladegeneration.Gravbåge.klinisk.Exp.oftalmologi.255, 1535–1542 (2017).
Babyuch AS et al.OCTA kapillär perfusionstäthetsmätningar används för att detektera och utvärdera makulär ischemi.oftalmisk kirurgi.Retinal Laser Imaging 51, S30–S36 (2020).
He, K., Zhang, X., Ren, S. och Sun, J. Deep Residual Learning for Image Recognition.2016 på IEEE-konferensen om datorseende och mönsterigenkänning (2016).
Lauerman, JL et al.Automatiserad OCT angiografisk bildkvalitetsbedömning med algoritmer för djupinlärning.Gravbåge.klinisk.Exp.oftalmologi.257, 1641–1648 (2019).
Lauermann, J. et al.Förekomsten av segmenteringsfel och rörelseartefakter i OCT-angiografi beror på näthinnans sjukdom.Gravbåge.klinisk.Exp.oftalmologi.256, 1807–1816 (2018).
Pask, Adam et al.Pytorch: Ett imperativt, högpresterande djupinlärningsbibliotek.Avancerad bearbetning av neural information.systemet.32, 8026–8037 (2019).
Deng, J. et al.ImageNet: En storskalig hierarkisk bilddatabas.2009 IEEE-konferens om datorseende och mönsterigenkänning.248–255.(2009).
Krizhevsky A., Sutzkever I. och Hinton GE Imagenet-klassificering med hjälp av djupa konvolutionella neurala nätverk.Avancerad bearbetning av neural information.systemet.25, 1 (2012).


Posttid: 30 maj 2023
  • wechat
  • wechat