Je hebt een klacht over de onderstaande posting:
Je zou de AI/scrape kwaliteit/waarde kunnen inperken(daarvoor moet de site wel unieke/gewilde content hebben) met een paar woorden inleiding en een haCapcha o.d voor de volledige content. (maar dat is voor de gewone bezoeker ook vaak hinderlijk). Misschien kunnen fatsoenlijke/wenselijke index/scrapers zich kenbaar maken met de user-agent info, deze met een ID die je zelf bij ze aandraagt. Anders zou het misschien nog wat zijn om wanneer men AI/bots weet te detecteren dan gewoon random meuk te voeren op basis van content sleutelwoorden, wat je zelf dan weer eenmalig genereert (ook met AI) bij de publicatie van de data, zo deze content zijn eigen leven kan gaan lijden van/voor AI en Bing zich in een scrape trash bubbel gaat begeven. Maar dan moet je niet de enige zijn die dit doet, zoiets als dat user-agent gebeuren hebben en je bezoekers kenbaar/statement maken dat de je de Bing zoekmachine verwerpt niet erkent als fatsoenlijke dienst daar deze het bestaan van de site in gevaar brengt. Je moet dan wel ...
Beschrijf je klacht (Optioneel):