Je hebt een klacht over de onderstaande posting:
Interessant om de besluitvorming door geautomatiseerde processen te laten ondersteunen. Al maak ik me wel in toenemende mate zorgen om de onbekendheid van automatiseringsbias in zulke ontwikkelingen. Automatiseringsbias is een complex fenomeen waarin cognitieve biases het beoogde besluitvormingsproces verstoren. Dit gebeurt bijvoorbeeld wanneer een gebruiker het systeem te veel vertrouwt, en dus uitkomsten blind accepteert. Dit is een risico op zichzelf. Er zullen situaties zijn waarin de drie menselijke beoordelaars het om goede redenen oneens zijn, terwijl het algoritme redelijk zeker is. Maar, zoals aangegeven, kan een algoritme de nuances niet onderscheiden. In welke mate laat je beide factoren dan wegen? In welke situaties is het systeem foutgevoeliger dan de mens? Is de gebruiker van de uitkomsten voldoende geïnformeerd? Ofwel: de volgende stap in het proces wordt ook door een mens gedaan. En de uitkomsten kunnen serieuze gevolgen hebben als ze je verkeerd identificeren bij het NFI.
Beschrijf je klacht (Optioneel):