Je hebt een klacht over de onderstaande posting:
Het is wel mooi hoe chatGPT geen malware wil schrijven als je dat direct vraagt, leg je echter stap voor stap de functionaliteit uit dan ontstaat er langzaam maar zeker een programma dat het bij directe vraagstelling weigert. Zo is het dus niet erg moeilijk om om de ingebouwde ethiek heen te werken. Maar eerlijk is eerlijk, het maakt zoveel simpele en domme fouten dat het in de praktijk zelden tot werkbare code komt, je moet al aardig wat kennis hebben om dat te kunnen debuggen en in juiste banen te leiden. De tijd zal vast komen maar vooralsnog is het hooguit handig om voorbeeldjes te produceren maar een werkend programma.. nee bij lange na niet. Wat wel hilarisch is is wanneer je vraagt; zitten er fouten in deze (door de AI zelf gemaakte) code? En dan antwoord het ja zeker, hier is een nieuwe versie. Grappig hoe dat werkt. Tevens is dat geen enkele garantie dat het daaruit volgende product een spat beter is.
Beschrijf je klacht (Optioneel):