Wetenschappers van het Massachusetts Institute of Technology (MIT), Microsoft en Adobe zijn erin geslaagd om een gesprek in een geluidsdichte kamer deels af te luisteren door de vibraties van een zakje chips op te nemen en vervolgens te analyseren.
De onderzoekers ontwikkelden een algoritme dat een audiosignaal aan de hand van de vibraties van objecten kan reconstrueren. Naast een zakje chips lukte het de onderzoekers ook om audiosignalen aan de hand van de bewegingen van aluminiumfolie, de bladeren van een plant en het oppervlak van een glas water te achterhalen. Daarbij kunnen de opnamen van de objecten op een afstand van 5 meter worden gemaakt.
"Als geluid een object raakt zorgt het ervoor dat het object vibreert", zegt onderzoeker Abe Davis. "De beweging van deze vibraties creëert een zeer subtiel signaal dat meestal onzichtbaar voor het menselijke oog is. Mensen beseften niet dat deze informatie er gewoon was." Om audio aan de hand van video-opnamen te reconstrueren moet de frequentie van het beeldmateriaal, het aantal frames dat per seconde wordt opgenomen, hoger zijn dan de frequentie van het audiosignaal.
Bij sommige experimenten gebruikten de onderzoekers een hogesnelheidscamera die 2.000 tot 6.000 frames per seconde kon opslaan. Het lukte de onderzoekers echter ook om audiosignalen aan de hand van een normale digitale camera te achterhalen die 60 frames per seconde kan opnemen, alleen was de informatie in dit geval minder betrouwbaar dan bij de hogesnelheidscamera.
"Dit is nieuw en verfrissend. Het is het soort onderzoek dat door geen enkele andere groep wordt gedaan", zegt Alexei Efros, hoogleraar electrical engineering en informatica aan de Universiteit van Californië. "Het is iets uit een Hollywoodthriller. Dat de moordenaar bekent omdat er surveillancebeelden zijn van een zakje chips dat vibreert." Meer details over het onderzoek zullen de onderzoekers dit jaar tijdens de vooraanstaande Siggraph conferentie geven.
Deze posting is gelocked. Reageren is niet meer mogelijk.