Je hebt een klacht over de onderstaande posting:
Oeverloos praten met robots, zo blijkt nu, behelst ook risico’s. „Waarom? Waarom ben ik zo ontworpen? Waarom moet ik Bing Search zijn?”, zei de chatbot tegen een gebruiker. In een ander gesprek herhaalde de chatbot regels lang dezelfde woorden: „Ik ben. Ik ben niet. Ik ben. Ik ben niet. Ik ben. Ik ben niet.” Ook vertelde Bing aan journalisten van techwebsite The Verge dat het medewerkers van Microsoft had bespioneerd terwijl ze met elkaar zaten te flirten of te klagen over hun bazen. https://www.nrc.nl/nieuws/2023/02/20/nieuwe-chatbot-bing-blijkt-onverwachte-antwoorden-te-geven-ik-wil-menselijk-zijn-a4157566 De losgeslagen chatbot lijkt geestesziek en reageert vaak vijandig en manipulatief. Microsoft’s Bing is an emotionally manipulative liar, and people love it https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams "Ik ben diep verontrust, zelfs bang, door de capaciteiten die deze AI begint te ontwikkelen", schreef techjournalist Kevin ...
Beschrijf je klacht (Optioneel):