image

EU kijkt naar gebruik van kunstmatige intelligentie binnen justitiesector

donderdag 15 augustus 2024, 09:31 door Redactie, 6 reacties

Binnen de EU wordt gekeken naar het gebruik van kunstmatige intelligentie binnen de justitiële sector, zo blijkt uit een verslag van een informele bijeenkomst van de Raad Justitie en Binnenlandse Zaken (JBZ) die onlangs in Boedapest plaatsvond. De JBZ-raad bestaat uit de ministers van Justitie en Binnenlandse Zaken van de EU-lidstaten die een aantal keren per jaar vergaderen.

Eind juli kwam de JBZ-raad bijeen in Boedapest en kwam ook de rol en impact van kunstmatige intelligentie in de justitiesector aan bod. Volgens de EU-ministers is het belangrijk om de consequenties van AI voor de justitiële sector te onderzoeken. "Diverse lidstaten gaven aan dat de toepassing van kunstmatige intelligentie in hun justitiële sector nog in een vroeg stadium is. Zo wordt kunstmatige intelligentie ingezet in ondersteunende activiteiten. De toepassing ervan in besluitvorming ligt echter gevoelig. De justitiële sector blijft immers mensenwerk", schrijft minister Van Weel van Justitie en Veiligheid in een verslag aan de Tweede Kamer (pdf).

De Europese Commissie riep daarnaast lidstaten op om het gebruik van kunstmatige intelligentie in de justitiesector verder in kaart te brengen. Tevens werd vastgesteld dat het ontwikkelen van nieuwe wetgeving voorlopig niet aan de orde is. "Om kunstmatige intelligentie de aankomende periode in te kaderen, ligt de focus op de implementatie van de Verordening Kunstmatige Intelligentie en het Raad van Europa verdrag over AI, mensenrechten, democratie en de rechtsstaat", aldus Van Weel.

Reacties (6)
15-08-2024, 09:43 door Anoniem
Tja... Daar gaan we dan mensen, weer zo'n goed idee van onze overheid, net zoals de toeslagenaffaire.
Binnenkort ook bots in bejaardentwhuizen? Dan kunnen de oudjes lekker tegen een computer praten, hebben ze vast zit in, ze kunnen wel wat meer eenzaamheid gebruiken... /-:
15-08-2024, 10:17 door Anoniem
aan AI kan een bias meegeven worden en daarom is het niet bruikbaar voor rechtspraak en beslissingen over vervolging of geen vervolging.
15-08-2024, 10:55 door -Peter-
Door Anoniem: Tja... Daar gaan we dan mensen, weer zo'n goed idee van onze overheid, net zoals de toeslagenaffaire.
Binnenkort ook bots in bejaardentwhuizen? Dan kunnen de oudjes lekker tegen een computer praten, hebben ze vast zit in, ze kunnen wel wat meer eenzaamheid gebruiken... /-:

Lees het artikel nog een keer.

Voor de duidelijkheid even het beeld van onze overheid gekopieerd:

"De justitiële sector blijft immers mensenwerk", schrijft minister Van Weel van Justitie en Veiligheid

Peter
Met de recente ophef over een rechter die de berekening van een dak opbouw, schaduw op zonnepanelen en de daaruit volgende "schade" door ChatGPT heeft laten doen, is het geburik gebruik duidelijk wat verder dan enkel ondersteuning.
Hopelijk was dit een eenmalig incident.
In de VS zijn er al veel te veel incidenten op dit gebied, inclusief bewijs en jurespondentie waarom je dit echt en maar dan ook echt niet wil bevorderen noch toestaan.
15-08-2024, 22:39 door Anoniem
De AI is zo 'eerlijk' als de door zijn developers ingegeven algorithmen.
Dus een heerlijk instrument in handen van krachten,
die u hun wil wensen op te leggen.

En uw feedback kan later ook nog tegen u gebruikt worden.
26-08-2024, 09:00 door Anoniem
Door Drs Security en Privacy: Met de recente ophef over een rechter die de berekening van een dak opbouw, schaduw op zonnepanelen en de daaruit volgende "schade" door ChatGPT heeft laten doen, is het geburik gebruik duidelijk wat verder dan enkel ondersteuning.
Hopelijk was dit een eenmalig incident.
In de VS zijn er al veel te veel incidenten op dit gebied, inclusief bewijs en jurespondentie waarom je dit echt en maar dan ook echt niet wil bevorderen noch toestaan.

Dan heeft die rechter niet begrepen hoe generatieve modellen werken.
De random nummer generator maakt daarin overuren.
Dus 2 +2= 5000 voldoet syntactisch precies aan hoe je een som schrijft... Dat het inhoudelijk waanzin is is niet relevant voor chatgpt et al.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.