FYI.

This story is over 5 years old.

Tech

Nieuwe algoritmen geven meer inzicht in de complexiteit van het brein

Neurowetenschappers hebben een nieuw algoritme ontwikkeld om de ongekende complexiteit van het brein te versimpelen.

Om het brein te begrijpen moet er meer gebeuren dan het alleen visueel in kaart brengen. Kennis over de hersenen verkrijgen gaat verder dan het beeldende aspect alleen; een kaart van een stad geeft ook maar beperkte informatie en neuronen en hun activiteit in kaart brengen geven ook maar een gelimiteerd beeld van hoe het brein in elkaar zit. Dit is ook wat een aantal onderzoekers stellen in een paper gepubliceerd in Nature Neuroscience dat geschreven werd door teams van de Carnegie Melon University en de Columbia University. Ze beschrijven hierin een aantal zelflerende algoritmen gebaseerd op "dimensionele reductie". Dit zijn algoritmen die zijn gericht op het verkrijgen van diepere en uitgebreidere inzichten in het brein.

Advertentie

Traditionele hersenanalyses onderzoeken maar een aantal neuronen tegelijkertijd en laten daarmee de interacties die in het grotere netwerk van het brein plaatsvinden onderbelicht. Het is mooi om te denken dat deze kleinere observaties bijdragen aan het volledig functioneren van het brein. Dit is ook wat geldt als de basisaanname van het Blue Brain Project en voor het neuro-optimisme in het algemeen, het ligt alleen net allemaal wat ingewikkelder.

"Één van de centrale dogma's van de neurowetenschappen is dat een groot aantal neuronen samenwerkt om een breinfunctie te ondersteunen," stelt Carnegie Mellon's Byron M. Yu. "Echter, de meeste standaard analysemethoden zijn geschikt voor het analyseren van één of twee neuronen tegelijk. Om te begrijpen hoe grote aantallen neuronen interacteren zijn er geavanceerde statistische methoden, zoals dimensionele reductie nodig."

Er is niks magisch aan dimensionele reductie, het is een methode die wordt gebruikt om een situatie met een hoog aantal variabelen te ontleden (of dimensies). Zodra er meer datapunten worden geïntroduceerd aan een algoritme, schiet de benodigde processorkracht omhoog en de statistische ruis ook. Dit is min of meer één van de meest geavanceerde vraagstukken van de informatica.

Dimensionele reductie-algoritmen opereren onder de aanname dat er achter alle dimensies een soort kernproces kan worden gevonden, oftewel één proces dat toch het complexere overkoepelende plaatje verheldert. Stel dat een computer een beeld van een menselijk gezicht binnenkrijgt, dan zijn er een groot aantal datapunten waarmee de computer rekening moet houden (stel je een kaart voor met 3D coördinaten). Als dit beeld zou roteren dan veranderen alle datapunten te snel van plek, wat ervoor zorgt dat de computer wordt overweldigt door de hoeveelheid data. Als je bijvoorbeeld begint met 100 datapunten en je scant het gezicht 100 keer per seconde, dan heeft na vijf seconden de computer dus 50.000 stukjes informatie om te verwerken.

Advertentie

Dimensionele reductie herkent dat al deze stukjes informatie onderhevig zijn aan één gezamenlijke noemer. Wat mag lijken op een onoverkomelijke berg data is eigenlijk gewoon te reduceren tot één variabele. Het lijkt zo voor de hand liggend maar in de wereld van zelflerende algoritmen is dat het niet echt. Het voorbeeld van het roterende gezicht is best wel duidelijk, maar in de echte wereld is de jacht op een subgroep van relevante variabelen een zware zoektocht.

Misschien heb je al door hoe dit toepasbaar is op het brein en haar structuur van intimiderende complexiteit. De eerder genoemde algoritmen helpen neurowetenschappers de onderliggende 'verborgen' hersenprocessen te doorgronden, maar dan wel de processen die geen zintuigelijke interactie vereisen met de buitenwereld. Deze verborgen variabelen worden ingezet om de paden van deze anders verborgen gedachten aan het licht te brengen (voor de liefhebber van lineaire algebra, het concept is vergelijkbaar aan het concept eigenwaarde: een individuele operator met een veelvoud aan effecten.)

"Lineaire dimensionele reductie kan worden gebruikt voor het visualiseren, of het ontdekken van een structuur, in data en kan daarbij betekenisvolle functie ruimtes extraheren en meer." Dit is wat John P. Cunningham, de co-auteur van het bovengenoemde paper eerder dit jaar schreef.

"Een van de kerntaken van de wetenschap is om complexe materie in simpele woorden uit te drukken", zei Cunningham in een statement van vandaag. "Oorspronkelijk hebben neurowetenschappers geprobeerd simpliciteit te vinden in individuele neuronen. Het wordt echter steeds meer duidelijk dat neuronen verschillende eigenschappen vertonen in hun activiteiten die moeilijk zijn uit te leggen als je één neuron per keer bestudeert. Dimensionele reductie verzorgt een manier om een simpele uitleg te geven aan hoe neuronen met elkaar interacteren."

Tot slot is het belangrijk om te begrijpen dat het basisidee hier is dat we een van de meest ingewikkelde structuren nemen en deze reduceren tot een overzichtelijker speelveld, maar dat ondanks dat de complexiteit toch aardig omschrijft. Dit ligt al binnen onze mogelijkheid. Is statistiek geen prachtvak?