December 23, 2024

BigNeuron: revolutionaire neuronale reconstructie met kunstmatige intelligentie

BigNeuron: revolutionaire neuronale reconstructie met kunstmatige intelligentie

samenvatting: De onderzoekers publiceerden een paper met details over hun BigNeuron-project. Dit initiatief probeert methoden te standaardiseren voor nauwkeurige en snelle geautomatiseerde reconstructie van neuronen, met behulp van deep learning-algoritmen.

Het project biedt een breed scala aan openbaar toegankelijke beelden van zenuwreconstructie en krachtige tools voor onafhankelijke analyse. Dit kan onderzoekers helpen de hersenfunctie en veranderingen in de loop van de tijd te begrijpen.

Belangrijkste feiten:

  1. BigNeuron is een internationaal initiatief waarbij computerwetenschappers en neurowetenschappers van meerdere instellingen betrokken zijn en heeft tot doel een standaardkader te creëren voor de automatische reconstructie van neuronen.
  2. Het project zal een uitgebreide, openbaar beschikbare dataset van afbeeldingen van neuronale reconstructies opleveren, samen met krachtige hulpmiddelen voor analyse.
  3. Het team ontwikkelde een geautomatiseerd algoritme met behulp van deep learning om de vorm van elk neuron in een afbeelding te onderscheiden, waarbij de uitdagingen van soortendiversiteit, hersenlocatie, ontwikkelingsstadia en wisselende beeldkwaliteit werden overwonnen.

bron: Texas A&M

Dr. Xuyang Jie, professor aan de afdeling Computer Science and Engineering aan de Texas A&M University, maakt deel uit van een samenwerkende onderzoeksgemeenschap die onlangs een paper publiceerde met de titel “BigNeuron: een hulpmiddel voor het meten en voorspellen van de prestaties van algoritmen voor het automatisch volgen van neuronen in datasets van optische microscopie”, gepubliceerd in het nummer van het tijdschrift April natuur manieren.

BigNeuron, gelanceerd in 2015 en geleid door het Allen Institute for Brain Science, is een internationaal initiatief dat computerwetenschappers en neurowetenschappers van tientallen instellingen samenbrengt.

Het doel is om een ​​standaardkader te ontwikkelen om onderzoekers te helpen bij het identificeren van de beste methoden en algoritmen voor het snel en nauwkeurig reconstrueren van neuronen. Vervolgens “benchtest” de algoritmen op grootschalige datasets van afbeeldingen met behulp van supercomputers.

Dit wijst op een zenuwcel.
Het project zal resulteren in een groot aantal openbaar beschikbare afbeeldingen van neurale reconstructiegegevens, samen met krachtige tools en algoritmen die onderzoekers kunnen gebruiken bij hun analysewerk. Krediet: Neuroscience News

Het project zal resulteren in een groot aantal openbaar beschikbare afbeeldingen van neurale reconstructiegegevens, samen met krachtige tools en algoritmen die onderzoekers kunnen gebruiken bij hun analysewerk.

Alleen al in het menselijk brein zijn er honderden miljarden neuronen, en ze zijn onderling verbonden door duizenden dunne “takken”, die een driedimensionale structuur vormen.

Om te begrijpen hoe de hersenen werken en in de loop van de tijd veranderen, moeten wetenschappers deze neurale structuren digitaal kunnen reconstrueren om te zien hoe elk neuron in het beeld eruitziet.

Met behulp van hoge-resolutie microscopen om 3D-beelden van individuele neuronen vast te leggen, ontwikkelen wetenschappers al bijna 40 jaar volledig geautomatiseerde manieren om neuronen te reconstrueren.

Hun reconstitutie bleef een uitdaging vanwege de soortendiversiteit, de locatie van de hersenen, de ontwikkelingsstadia en de kwaliteit van de microfotocollecties.

Deze factoren maken het voor de huidige algoritmen moeilijk om effectief te generaliseren wanneer ze worden toegepast op beeldformaten die door verschillende laboratoria zijn verkregen.

Om dit probleem te verhelpen, ontwikkelde het team een ​​geautomatiseerd algoritme met behulp van deep learning om de vorm van elk neuron binnen een bepaald beeld te leren.

Over dit onderzoek naar kunstmatige intelligentie en de nieuwe neurowetenschap

auteur: Leslie Hinton
bron: Texas A&M
communicatie: Leslie Henton-Texas A&M
afbeelding: Afbeelding gecrediteerd aan Neuroscience News

Oorspronkelijke zoekopdracht: Gesloten toegang.
BigNeuron: een hulpmiddel voor het meten en voorspellen van de prestaties van algoritmen voor het automatisch volgen van neuronen in datasets met optische microscopie.Door Shuiwang Ji et al. natuur manieren


een samenvatting

BigNeuron is een open community-testplatform dat tot doel heeft open standaarden vast te stellen voor het nauwkeurig en snel traceren van neuronen. We hebben verschillende beeldformaten verzameld over verschillende typen die gegevens vertegenwoordigen die zijn verkregen in verschillende neurowetenschappelijke laboratoria die geïnteresseerd zijn in het volgen van neuronen.

Hier rapporteren we de gouden standaard handmatige annotatie van een subset van beschikbare beeldgegevenssets en de kwantitatieve volgkwaliteit van 35 automatische volgalgoritmen. Het doel van het creëren van zo’n diverse set handmatig samengestelde gegevens is om de ontwikkeling van trackingalgoritmen te bevorderen en generaliseerbare benchmarking mogelijk te maken.

Samen met de functies voor beeldkwaliteit hebben we de gegevens geaggregeerd in een interactieve webtoepassing waarmee gebruikers en ontwikkelaars analyses van hoofdcomponenten kunnen uitvoeren, RGedistribueerde inbedding van willekeurige buren, correlatie, aggregatie, visualisatie van beeld- en volggegevens en benchmarking van automatische volgalgoritmen op door de gebruiker gedefinieerde subsets van gegevens. Beeldkwaliteitsmetingen verklaren het grootste deel van de variantie in de gegevens, gevolgd door neuromorfe kenmerken die verband houden met de grootte van neuronen.

We merkten op dat verschillende algoritmen aanvullende informatie kunnen bieden voor nauwkeurige resultaten en ontwikkelden een methode om iteratief methoden te combineren en consensusreconstructies te genereren.

De verkregen consensusbomen bieden grondwaarheidsschattingen van de neuronale structuur die doorgaans beter presteren dan individuele algoritmen in luidruchtige datasets. Specifieke algoritmen kunnen echter beter presteren dan de consensusboomstrategie in specifieke beeldvormingsomstandigheden.

Ten slotte hebben we, om gebruikers te helpen de meest nauwkeurige auto-tracking-resultaten te voorspellen zonder handmatige vergelijkingsannotaties, vectormachine-regressie gebruikt om de reconstructiekwaliteit te voorspellen op basis van de beeldgrootte en een reeks automatische tracking-bewerkingen.