Testers van de slimme stofzuiger Roomba voelen zich misleid nadat gevoelige foto's, waaronder van een vrouw op het toilet, op Facebook verschenen, zo meldt MIT Technology Review. Eind december publiceerde de website een artikel over gevoelige foto's die door Roomba-stofzuigers waren gemaakt en online waren geplaatst.
IRobot, de fabrikant van de Roomba, heeft een testprogramma waarvoor mensen zich kunnen aanmelden. Het gaat om aangepaste versies van de stofzuiger die worden gebruikt voor het trainen van de kunstmatige intelligentie. Beelden die de test-Roomba's maken worden verstuurd naar bedrijven die audio-, foto-, en videomateriaal labelen om zo AI te kunnen trainen. Deze bedrijven werken vaak met ingehuurde krachten.
MIT Technology Review berichtte eind december dat een start-up genaamd Scale AI voor iRobot de Roomba-data verwerkte. Medewerkers uit Venezuela die door het bedrijf waren ingehuurd hadden vijftien afbeeldingen, gemaakt door de Roomba-stofzuiger, op Facebook geplaatst. Na de berichtgeving besloot iRobot het contract met Scale AI te verbreken.
Colin Angle, directeur en oprichter van iRobot, liet vervolgens op LinkedIn weten dat het hier om testers ging die wisten dat hun gegevens werden verzameld en de stofzuigers waren voorzien van een sticker waarop stond dat er opnames werden gemaakt. Na de berichtgeving stapten meerdere testers naar MIT Technology Review en stelden dat ze zich misleid voelden.
Testers moeten een overeenkomst tekenen waarin staat dat hun gegevens kunnen worden gebruikt voor machine learning en het trainen van objectdetectie. Wat echter niet staat vermeld is dat de machine learning-training plaatsvindt via menselijke "data-labelers" die het algoritme klik voor klik trainen om aparte elementen in de verzamelde data te herkennen. Er staat niet expliciet dat gemaakte afbeeldingen waarop de testers zelf te zien zijn door andere mensen worden bekeken en geanalyseerd, aldus MIT Technology Review.
Deze posting is gelocked. Reageren is niet meer mogelijk.