Google heeft personeel gewaarschuwd om geen vertrouwelijke code en informatie als invoer voor chatbots zoals ChatGPT te gebruiken, zo meldt persbureau Reuters op basis van anonieme bronnen. Ook werden engineers en ontwikkelaars bij het techbedrijf opgeroepen om geen code te gebruiken die door chatbots is gegenereerd.
Bij het gebruik van chatbots kan op verschillende manieren informatie lekken. Zo kan de invoer van gebruikers door menselijke reviewers van de chatbot worden gelezen. Een andere mogelijkheid is dat de chatbot de data die voor de training is gebruikt aan andere gebruikers doorgeeft. Iets dat onderzoekers eerder al aantoonden (pdf). Eerder bleek al dat voor het trainen van ChatGPT data van website Stackoverflow is gebruikt, waar gebruikers allerlei vragen over hun code kunnen stellen.
Dat brengt het risico met zich mee dat door ChatGPT gegenereerde code kwetsbaarheden bevat. In een reactie stelt Google dat chatbot Bard "ongewenste codesuggesties" kan doen, maar programmeurs wel kan helpen. Eerder lieten ook Samsung, Amazon.com, Deutsche Bank en Apple aan personeel weten dat ze voorzichtig met chatbots moesten zijn. In het privacybeleid van chatbot Bard stelt Google dat gebruikers geen vertrouwelijke of gevoelige informatie aan de gesprekken met de chatbot moeten toevoegen.
Deze posting is gelocked. Reageren is niet meer mogelijk.