Abstract
Populære grensesnitt for musikalsk interaksjon kan være et hinder i komposisjon og fremføring ettersom mange av dem krever at man bruker hendene direkte på grensesnittet, og at mange grensesnitt ikke lar brukeren koble til de sensorer man måtte ønske. Denne oppgaven tar for seg en generell historisk gjennomgang av utviklingen av programmerbare musikalske grensesnitt, og forsøker å peke på noen metoder som kan forenkle menneske-maskin interaksjon. Oppgaven beskriver hvordan man kan lage et Open Sound Control basert sensorgrensesnitt, samt utvikling av DSP-programvare i Max/MSP for å synliggjøre et eksempel på hvilke parameter som kan trenge oppmerksomhet i en musikalsk kontekst. Til slutt tar oppgaven for seg mapping – koblingen mellom menneske og maskin – og viser eksempler på mappingteknikker som kan redusere behovet for å ta hendene eller føttene bort fra hovedinstrumentet.