12.04.2019
3 min læsetid

Her sætter koncentrationen grænsen: Drone styres af hjernebølger

Takket være et pandebånd fyldt med små sensorer, kan du nu træne en computer i at måle dine hjernebølger og styre droner og kørestole ved tankens kraft. Hvis du altså kan koncentrere dig.

Anne-Cathrine Jensen

af Anne-Cathrine Jensen

Den franske software-udvikler Charlie Gerard koncentrerer sig for at få sin drone til at lette med tankens kraft og et intelligent pandebånd.

”Hvis den rykker til højre, mens jeg tror, at jeg tænker på venstre, så virker det heller ikke i næste forsøg. Så kommer jeg til at tænke på, at jeg gjorde det forkert lige før,” siger den franske softwareudvikler Charlie Gerard.

Så følsomt er udstyret nemlig, når hun med 14 sensorer i et pandebånd om hovedet får en drone til at lette – kun med tankens kraft.
I IDAs teknologipodcast Techtopia forklarer Charlie Gerard, at sensorerne registrerer hendes hjernebølger, så hun kan styre den pc, som pandebåndet er forbundet med. Og med brug af lidt java-kodning har hun også tilføjet en drone til de enheder, der kan styres med hjernens bølger.

Måler, gemmer og genkender hjernens bølger

Pandebåndet hedder et brain-computer-interface (BCI). Det sluttes til en computer, hvor det bruger dine øjnes bevægelser og dine hjernebølger til at lære at afkode, hvad du gerne vil have det til. Til at starte med træner brugeren ved at tænke på bestemte retninger som ’op’, ’frem’ eller ’venstre’ i otte sekunder, mens de fokuserer på en skærm, hvor en lille kasse skal lokkes til at bevæge sig i den rigtige retning. Ansigtets mimik og hjernens bølger i disse sekunder bruges som udgangspunkt for, hvordan computeren reagerer på hjernens tavse kommandoer i fremtiden.

Men det er ikke sådan lige at genskabe bølgerne igen og igen.

”Det store issue er koncentration,” forklarer Charlie Gerard, der blandt andet kæmper med at skulle finde den rette koncentration, når hun demonstrerer BCI’en foran flere hundrede mennesker på en scene.

Det er nemmest, når hun demonstrerer at skrive på en skærm med øjnene, hvor sensorerne mærker ansigtets og øjnenes bevægelser over et visuelt keyboard, og hvert blink betyder, at du vælger det bogstav, der kigges på.

Men når det kommer til de mere komplekse bevægelser – som at få en drone til at flyve – er det straks sværere.

”Man øver sig med en firkant på en skærm, hvor du kan se, om du gør det rigtigt alt efter, hvordan den bevæger sig på skærmen. På den måde kan du træne de kommandoer, som sensorerne skal opfange. Jeg forestiller mig typisk at jeg skubber til dronen eller at den bevæger sig til venstre, når jeg vil have den til at lette,” fortæller Charlie Gerard.

Ren kode, tak

Dronens bevægelser er ikke afhængige af, om du tænker det rigtige. BCI’en er udelukkende afhængig af at kunne genkende dine hjernebølger som noget, der er kodet til at få dronen til at handle på en bestemt måde. Derfor kan dronen sagtens lære at lette, når du tænker til venstre. Men den kan også nægte at handle, flyve til højre eller gøre noget helt tredje, hvis du ikke koncentrerer dig og sender de rigtige bølger.

Netop derfor er Charlie Gerard interesseret i at bruge mere kode, når hun styrer BCI’en. Java-koden ligger tilgængeligt i open source, og hun planlægger at bruge den rene kode til at opnå bedre resultater med droneflyvningen.

”Med data fra mine hjernebølger, koden til dronen og machine learning kan jeg forsøge at skabe mening i den data der opsamles fra min hjerne og forbinde den direkte med de signaler, der får dronen til at flyve. I stedet for at BCI’en skal oversætte, når jeg tænker på retninger og ord, så kan jeg tænke på den del af koden, der får dronen til at gøre noget bestemt. Jeg springer oversættelsen over og anvender rå data,” forudser hun.

Tankerne kan kobles på kørestole

Som det er nu, er hjernen fortsat for svær at styre og tracke til, at Charlie Gerard kan sikre samme resultat, hver gang hun får dronen til at flyve. Men med tiden og en mere databaserede tilgang er håbet, at BCI’en bliver bedre til at opfange, hvad hjernen vil have den til.

”I det store perspektiv kan kørestolsbrugere med forskellige grader af lammelse få mulighed for at skrive beskeder med øjnene og bevæge sig omkring med hjælp fra deres egne hjernebølger,” siger Charlie Gerard.

I ugens episode af Techtopia kan du også høre, hvordan det tyske softwarefirma Brainlab bruger CT, MR og PET-scanninger til at lave 3D-kopier af hjerner i augmented reality. 3D-modellerne skal hjælpe hjernekirurger med at vurdere hjernesvulster og blødninger fra alle sider, så de kan planlægge operationer så sikkert og effektivt som muligt.