AI-regelgeving in de EU: de lobbyinspanningen van OpenAI

Elwin Hodžić
0

Het Europese Parlement heeft nieuwe diensten zoals ChatGPT niet vanaf het begin geclassificeerd als risicovolle technologie, ondanks de inspanningen van OpenAI om de AI-regelgeving van de EU te beïnvloeden.

Met kunstmatige intelligentie foto resolutie verbeteren

OpenAI’s standpunt over het risiconiveau van GPT-3

OpenAI benadrukt in het document van zeven pagina’s dat het grote taalmodel GPT-3 op zichzelf geen risicovol systeem is. Ze stellen dat het model mogelijkheden heeft die potentieel kunnen worden gebruikt in situaties met een hoog risico, maar het is niet intrinsiek gevaarlijk.

Zo maakte OpenAI zich zorgen dat de voorgestelde formuleringen in de regelgeving per ongeluk alle modellen van OpenAI als risicovol zouden kunnen classificeren.

OpenAI pleit voor bepaalde toepassingen van generatieve AI

OpenAI pleit ook voor mogelijkheden om bepaalde toepassingen van generatieve AI, zoals ChatGPT, mogelijk te maken in het onderwijs en op de arbeidsmarkt, terwijl de oorspronkelijke wetsontwerp van de Europese Commissie deze sectoren als risicovol beschouwde.

Beheersbare gevaren van ChatGPT

Tijdens een bijeenkomst met EU-wetgevers en -regelgevers in maart beweerde OpenAI volgens het rapport dat de gevaren van ChatGPT beheersbaar waren. Ze suggereerden dat instructies aan de AI aangepast konden worden, zodat deze bijvoorbeeld weigerde informatie door te geven over gevaarlijke stoffen. Echter, onderzoekers en gebruikers hebben aangetoond dat dergelijke beperkingen gemakkelijk kunnen worden omzeild door het invoeren van specifieke vragen.

Koers van het Europees Parlement ten aanzien van AI-regelgeving

Volgens de koers die is overeengekomen door de leden en waar de onderhandelaars van het EU-parlement nu naar streven voor een definitief compromis met de Raad van Ministers en de Europese Commissie, worden ChatGPT en vergelijkbare diensten niet automatisch geclassificeerd als risicovolle technologie.

Echter, exploitanten van AI-basismodellen die grootschalig zijn getraind op niet-gecategoriseerde gegevens en bedoeld zijn voor algemene output, moeten wel risicoanalyses uitvoeren met betrekking tot gezondheid, veiligheid, grondrechten, milieu, democratie en rechtsstaat.

Reactie van burgerrechtenorganisaties

Sarah Chander, beleidsadviseur bij de burgerrechtenorganisatie European Digital Rights (EDRi), merkt op dat OpenAI heeft gekregen wat het wilde. Ze stelt dat OpenAI, net als andere grote technologiebedrijven, het argument van het algemeen belang van AI heeft gebruikt om zijn eigen financiële belangen bij deregulering te verbergen.

Daniel Leufer van Access Now voegt eraan toe dat OpenAI in feite beweert: “Vertrouw ons, we reguleren onszelf.” Voorafgaand aan de stemming heeft de CEO van OpenAI, Sam Altman, herhaaldelijk opgeroepen tot specificaties voor de technologie, en hij dreigde zelfs om de dienstverlening in de EU te staken, maar later heeft hij deze dreiging ingetrokken.


Altijd op de hoogte blijven van alles omtrent kunstmatige intelligentie en een eventuele AI-regelgeving? Schrijf je in voor de gratis nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

Deel dit artikel

Elwin Hodžić
Elwin Hodžić(Web)redacteur bij c't. Ondanks de studie geschiedenis, altijd al een passie gehad voor alles wat met IT te maken heeft. Sleutelt in zijn vrije tijd graag aan pc’s, van de hardware tot het uitpluizen van de BIOS-instellingen om een pc zo optimaal mogelijk te laten werken.

Lees ook

Linux-kernel 6.13 verfijnt onder andere multitasking en meer

De nieuwe Linux Kernel (6.13) introduceert fijnmazige timestampsen verbeterde virtualisatiebeveiliging voor ARM64.

Samsung kondigt nieuwe Galaxy S25-serie aan

Samsung frist zijn S-serie op: in de 2025-editie krijgen alle modellen een Qualcomm-chip. Verder blijft de hardware grotendeels ongewijzigd, met de na...

0 Praat mee
avatar
  Abonneer  
Laat het mij weten wanneer er