De algoritmes die Meta gebruikt op Facebook hebben een belangrijke rol gespeeld bij het geweld dat het leger van Myanmar tegen de Rohingya in 2017 pleegde, zo stelt Amnesty International in een nieuw rapport. Eerder lieten journalisten Sheera Frenkel en Cecilia Kang in het boek An Ugly Truth en mensenrechtenactivist Thet Swe Win weten dat Facebook een aandeel in de genocide tegen de Rohingya heeft.
In het rapport schrijft Amnesty dat Meta wist of had moeten weten dat de algoritmes van Facebook de verspreiding van schadelijke content gericht tegen de Rohingya versterkten. "Het bedrijf ondernam hiertegen echter geen actie", aldus de mensenrechtenorganisatie. Meta maakt gebruik van algoritmes die zijn gebaseerd op betrokkenheid van de gebruikers. Deze algoritmes sturen de news feed van Facebook, de ranking, aanbevelingen en groepsfuncties, en bepalen wat de gebruiker ziet op het platform.
Meta profiteert ervan als Facebookgebruikers zo lang mogelijk op het platform aanwezig zijn door het verkopen van gerichte advertenties. "Het tonen van opruiende en schokkende content – zoals berichten die haatzaaien, aanzetten tot geweld, of kwaadaardig of discriminerend zijn – is een effectieve manier om mensen langer op het platform te houden", claimt Amnesty. "Als zodanig is de verspreiding en versterking van dit type content belangrijk voor het op surveillance gebaseerde model van Facebook."
In de maanden en jaren voorafgaand aan de etnische zuivering van de Rohingya werd Facebook in Myanmar een ‘echokamer’ van tegen de Rohingya gerichte content, stelt Amnesty. Mensen met banden met het leger uit Myanmar en radicale boeddhistische nationalistische groepen overspoelden het platform met berichten die aanzetten tot geweld tegen de Rohingya.
Tussen 2012 en 2017 kreeg Meta herhaaldelijk bezoek van lokale activisten of deden zij pogingen om met Meta in contact te komen. In die tijd werd het bedrijf gewaarschuwd dat het mogelijk bijdroeg aan extreem geweld. In 2014 blokkeerden de autoriteiten van Myanmar zelfs tijdelijk Facebook vanwege de rol van het platform bij het geweldsexplosie in Mandalay. "Meta sloeg de waarschuwingen echter herhaaldelijk in de wind en slaagde er niet in om zijn eigen beleid op het gebied van haatzaaien uit te voeren", claimt Amnesty. Volgens de mensenrechtenorganisatie moeten Meta's algoritmes worden aangepast om herhaling te voorkomen.
"In 2017 werden Rohingya gedood, gemarteld, verkracht en moesten ze vluchten na een campagne van etnische zuivering door de Myanmarese veiligheidsdiensten. In de maanden en jaren voorafgaand aan de schendingen, wakkerden de algoritmes van Facebook een storm van haat aan tegen de Rohingya die bijdroeg aan het geweld", zegt Agnès Callamard, secretaris-generaal van Amnesty International. "Terwijl het leger van Myanmar schendingen tegen de mensheid beging, profiteerde Meta van de haat die werd gecreëerd door de haatzaaiende algoritmes."
Deze posting is gelocked. Reageren is niet meer mogelijk.