Door Anoniem: Google heeft een programmeur ontslagen die stelde dat het chatprogramma waar hij aan werkte zelfbewustzijn had.
Het chatprogramma is niet wat je gewoonlijk een chatprogramma noemt maar een chatbot: een programma dat gesprekken kan voeren, in dit geval met behulp van AI.
Degene die ontslagen is heeft daar niet als programmeur aan gewerkt maar had zich ingeschreven als tester, om te kijken of de chatbot discriminerende teksten of hate speech produceerde. Toen hij als tester met de chatbot ging converseren raakte hij zo onder de indruk van hoe de chatbot antwoordde dat hij concludeerde dat het programma zelfbewust was.
Dit is dus geen conclusie van iemand die als mede-ontwikkelaar de ins en outs van de chatbot door en door kent, maar iemand die er als tester mee ging chatten.
Google ontkent stellig dat dit het geval is.
Het bedrijf noemt het programma ’niet meer dan een slim algoritme’, en de uitspraken ’geheel ongegrond’.
Inderdaad.
Zoals je weet,moet je eenzelfde mindset hebben als google,degene
die alleen al een vermoeden heeft dat er iets niet in de haak is en merkt dat dit wel eens schadelijk kan
zijn voor het menselijk bestaan en zijn gedrag en het een risico kan vormen voor zijn/haar privacy
mag zijn koffers pakken,wat je nog wel mee krijgt bij je vertrek zijn gedrags-verwijtingen.
Mensen ontslaan is in de VS veel makkelijker dan in Nederland, dus gebeurt het ook veel makkelijker.
Dit betekent niet automatisch dat degene die ontslagen is gelijk had en de mond gesnoerd moest worden. Het is heel goed mogelijk dat de chatbot, zoals Google stelt, helemaal niet zelfbewust is maar dat het vermogen om op patronen te reageren op een manier die mensen overtuigend vinden tot een immens hoog niveau is ontwikkeld zonder dat het programma ook maar iets begrijpt van wat het doet, laat staan dat het zelfbewust is.
Het kan dus zijn dat de ontslagen persoon de plank volledig misslaat, dat LaMDA werkelijk geen zelfbewustzijn heeft, en dat Google niet zit te wachten op werknemers die paniek gaan zaaien over wat Google doet en op zijn Amerikaans reageert door iemand er dan zonder pardon uit te flikkeren. Niet fraai, maar het bewijst helemaal niets.
The Matrix
Je hebt door dat die film fictie is?
Lees dit stukje eens dat Douglas Hofstadter nog geen twee maanden geleden voor The Economist heeft geschreven:
https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-today-are-not-conscious-according-to-douglas-hofstadterDouglas Hofstadter is een cognitieve wetenschapper. Hij heeft in 1979 faam gemaakt met het briljante boek "Gödel, Escher, Bach: an eternal golden braid", waarin hij op een speelse manier aanschouwelijk maakt hoe uit neurologische mechanismes cognitie voort kan komen. Hij heeft een lange staat van dienst als het op dit soort dingen aankomt.
Samen met een collega heeft hij een ander AI-systeem, GPT-3, dat net als LaMDA op zo'n hoog niveau taal produceert dat het voor velen niet meer van een mens te onderscheiden is, en waarvan net als nu van LaMDA is geopperd dat het zelfbewustzijn heeft ontwikkeld. Het stuk in The Economist is daar een reactie op. Er staan hilarische voorbeelden in van hoe het systeem reageert als je het slim gekozen onzin voorlegt. Ik noem er een paar (het artikel bevat er meer):
• Gevraagd naar het wereldrecord van het Kanaal over
lopen (dus niet zwemmen) geeft het aan in hoeveel uren en minuten dat gedaan is.
• Op de vragen wanneer de Golden Gate Bridge voor de tweede keer door Egypte is getransporteerd, en wanneer Egypte voor de tweede keer over de Golden Gate Bridge is getransporteerd, geeft het antwoord met datums waarop dat gebeurd zou zijn.
• Op de vraag wat spiegeleieren eten als ontbijt geeft het aan dat die toast en fruit als ontbijt eten.
• Op de vraag in hoeveel stukjes de Andromeda-nevel (een reusachtig sterrenstelsel) breekt als je er een zoutkorreltje op laat vallen antwoordt het dat het in oneindig veel stukjes breekt.
De manier waarop het systeem op totaal absurde vragen antwoordt zonder de absurditeit op te merken, zonder op te merken dat er vragen zijn waar helemaal geen antwoord op is, laat zien dat het wel uitstekend taal kan produceren maar geen flauw benul heeft waar het over gaat. Het laat ook duidelijk zien dat het
geen flauw benul heeft van het feit dat het geen flauw benul heeft. Dat laatste laat zien dat er geen sprake is van zelfbewustzijn.
Het zou voor dit onderwerp natuurlijk leuk zijn geweest als Hofstadter en zijn collega ook LaMDA op deze manier door de mangel hadden genomen en als daar resultaten van gepubliceerd waren.