Je hebt een klacht over de onderstaande posting:
Hiernaast een advertentie met: "AIVD: Werk je graag met state-of-the-arttechnologieën als Hadoop, Spark en Kafka?" Het zijn de bekende open source toepassingen hiervoor, iets wat er mee kan kun je uitvogelen. https://www.tutorialspoint.com/hadoop/index.htm distributed systems , https://spark.apache.org/ let op het in memory deel en https://kafka.apache.org/ message broker ooit bedoeld om pageviews van webservers te volgen. Je kan op zoek gaan naar de beperkingen. De cpu en io zijn gangbare beperkingen vandaar de spreiding over vele systemen. Het nadeel met elk systeem wat werk geven is dat zoiets universeel herhaalbaar moet zijn (map/reduce). Spark zit met het intern memory als afweging tegen de io en kafka is de data aanlevering Als je iets doet moeten het voor elk onderdeel hapklare brokjes zijn. Denk nu niet dat je er in welke weg wat in kunt gooien dat er zo wat zinnigs uitrolt. R met phyton er omheen om iets op wat lijkt op coderen en programmeren voor de logica. Probleem is je weet niet van te ...
Beschrijf je klacht (Optioneel):