FYI.

This story is over 5 years old.

Muziek

Wat gebeurt er als een microchip in de hersenen dicteert waar je naar luistert

In een artikel voor Wall Street Journal stelt Stephen Witt zich een toekomst voor van gepersonaliseerde muziek.
Photo by Uwe Hermann

In een nieuw artikel voor de Wall Street Journal filosofeert Stephen Witt—schrijver van How Music Got Free – over hoe muziekconsumptie eruit zou kunnen zien in 2040. In slechts 25 jaar, zo stelt hij zich voor, zal het gewoon zijn dat een "algoritmische dj een set liedjes opent op basis van je locatie, je recente activiteiten en je voorkeuren uit het verleden", die ook updates doorvoert door middel van biofeedback.

Advertentie

Tegen deze tijd "vervaagt zelfs het idee van een 'liedje,'" schrijft hij. "In plaats daarvan zijn er thema's, refreinen, kreten en beats – een palet van muzikale elementen die zijn gemixt en bij elkaar gebracht door de computer, met soms menselijke assistentie." Als dit je interesse wekt moedigen we je aan om de muziek van The League of Automatic Music Composers en TCF te checken.

Witt stelt zich ook de mogelijkheid voor om "dode stemmen uit het verleden digitaal tot leven te brengen" zodat bijvoorbeeld Frank "The Voice" Sinatra nieuwe hits krijgt. Dit type vocale technologie doet ons trouwens denken aan de computer-gegenereerde popster Hitsune Miku.

Lees het hele stuk hier.