Av Ulla Oppermann Blankholm • Illustrasjon Kirsten Knudsen
I løpet av de siste fire årene har ph.d-studenten Mathew Kavalekalam dykket lenger og lenger ned i forskjellige matematiske modeller på Aalborg Universitets laboratorium for lydanalyser i Danmark. Han har tatt utgangspunktet i hvordan lyden beveger seg fra lungene, over strupehodet, inn i munnhulen, via tennene, leppene og ut av munnen – kort sagt: hvordan tale blir produsert. Med det som grunnlag har han beskrevet hvilken type signaler en datamaskin skal ”lytte etter” for å identifisere en talende
stemme.
Deretter satt han programmet i gang med å lytte, lære og spille opp forskjellige opptak av talende stemmer for datamaskinen og la deretter på forskjellige typer bakgrunnsstøy som gradvis ble sterkere og sterkere. Med tiden ”lærte” programmet å kjenne igjen mønster i lyden og regne ut hvordan talende stemmer best kan heves uten å samtidig heve nivået av bakgrunnsstøy. Fremgangsmåten blir kaldt for machine learning, og den algoritmen han har kommet frem til kan altså få en datamaskin til å
skille tale fra støy i forskjellige lydmiljøer slik at talen blir tydeligere. En løsning på nøyaktig det problemet som mange med hørselsproblemer opplever som størst.
Mads Græsbøll Christensen, professor ved Aalborg Universitets laboratorium for lydanalyser, har jobbet sammen med Mathew Kavalekalam om prosjektet. Prosjektet er igangsatt på etterspørsel fra GN Hearing, hvor forskningsleder Jesper Bünsow Boldt har hatt ansvaret for forskningen. Prosjektet ble til i samarbeid med Innovationsfonden.
”Vi fikk vite at det var her skoen trykket aller mest hos folk med høreapparater, og siden vi liker utfordringer, gikk vi i gang med prosjektet”, forteller Mads Græsbøll Christensen og legger til at mange var ganske skeptiske overfor Mathew Kavalekalams modeller for hvordan talen blir produsert, men det har vist seg at de fungerer veldig godt.
Banbrytande resultat
Prosjektet startet sommeren 2014 og ble avsluttet ved utgangen av 2018. I følge Mads Græsbøll Christensen er resultatene spesielt
interessante og banebrytende – også på internasjonalt nivå..
”Mathew Kavalekalam har via matematiske modeller ”lært” dataprogrammet til å kjenne igjen mønster i lyden og fremheve stemmen og dempe bakgrunnsstøyen, og det er kunnskapen fra disse modellene som kan komme til å ligge i fremtidens
høreapparater og gjøre dem enda bedre” sier Mads Græsbøll Christensen.
Mads Græsbøll Christensen og Mathew Kavalekalamhar hele tiden hatt ett tydelig mål: Å gjøre det enklere for folk med høreapparater å høre i større forsamlinger, i selskaper og lignende omgivelser ved å fjerne bakgrunnsstøyen, men så
langt i prosjektet har de egentlig ikke ofret folk med hørselstap en eneste tanke: De har utelukkende tenkt på det som et matematisk og fysisk spørsmål:
”Vi stiller det opp som fysiske og matematiske modeller. Vi tror at tingene kan forbedres, og hvis noe går galt underveis, så er det modellene det er noe galt med og så ser vi på dem og forbedrer dem. Det er denne systematiske tilnærmingen som
utgjør fremgangen og gjør det bedre”, sier Mads Græsbøll Christensen.
Teknologien skal forfines før bruk
Det store spørsmålet er om det kan la seg gjøre å få den nye kunnskapen inn i fremtidens høreapparater og gjøre dem perfekte.
”Det er ikke en del av arbeidet vårt å få den kunnskapen inn i høreapparatene. Nå må eksperter innen audiologi gå videre og jobbe med hvordan den nye teknologien kan brukes best mulig. Teknologien skal forfines og tilpasses ytterligere før den kan brukes. Algoritmen skal optimaliseres slik at den ikke tar mye plass og ikke krever så mye datakraft, for det er begrenset
hvor mye det er plass til i de små høreapparatene”, sier Mads Græsbøll Christensen og fortsetter:
”Neste skritt er å gjøre grundige tester utover de vi allerede har gjort da vi testet på 10 normalthørende personer. De opplevde å bli 15 prosent bedre til å skille ut ord fra veldig støyende omgivelser, og så må man bestemme seg for om man vil fortsette å følge dette sporet eller ikke. Vi har gjort det så godt vi kan”, sier Mads Græsbøll Christensen, som mener at det, ut fra et teoretisk perseptiv, ser veldig lovende ut for fremtidens høreapparater.
Han mener forøvrig at jo flere mikrofoner man kan bruke, jo bedre hørsel får du inn i høreapparatene.
”Vi har jo bare to ører, men vi kan gjøre det bedre enn det med flere mikrofoner. Det er veldig lovende at man kan bruke så mye informasjon som overhode mulig i et akustisk miljø, selv om det kan være vanskelig å få til. Hvis det kan la seg gjøre,
så vil vi også kunne gi normalt hørende mennesker bedre lyd enn det de får nå med ørene. Det er et steg i riktig retning”, hevder Mads Græsbøll Christensen.
Han håper at den nye teknologien vil hjelpe folk med hørselstap, for har de problemer i støyende omgivelser, kan det bety mye for det sosiale livet.
”Mange bruker ikke høreapparatene hvis det ikke hjelper i den typen situasjoner, og noen begynner rent ut å unngå sosiale arrangementer fordi det er mer belastende å ikke kunne høre hva som blir sagt. Det kalles for ”listeners fatigue” hvor man blir veldig trøtt av å måtte konsentrere seg så mye hele tiden”, sier Mads Græsbøll Christensen.
Les også Nysgjerrig på hvordan det er å samarbeide med Google?