AI-regelgeving in de EU: de lobbyinspanningen van OpenAI

Elwin Hodžić
0

Het Europese Parlement heeft nieuwe diensten zoals ChatGPT niet vanaf het begin geclassificeerd als risicovolle technologie, ondanks de inspanningen van OpenAI om de AI-regelgeving van de EU te beïnvloeden.

Met kunstmatige intelligentie foto resolutie verbeteren

OpenAI’s standpunt over het risiconiveau van GPT-3

OpenAI benadrukt in het document van zeven pagina’s dat het grote taalmodel GPT-3 op zichzelf geen risicovol systeem is. Ze stellen dat het model mogelijkheden heeft die potentieel kunnen worden gebruikt in situaties met een hoog risico, maar het is niet intrinsiek gevaarlijk.

Zo maakte OpenAI zich zorgen dat de voorgestelde formuleringen in de regelgeving per ongeluk alle modellen van OpenAI als risicovol zouden kunnen classificeren.

OpenAI pleit voor bepaalde toepassingen van generatieve AI

OpenAI pleit ook voor mogelijkheden om bepaalde toepassingen van generatieve AI, zoals ChatGPT, mogelijk te maken in het onderwijs en op de arbeidsmarkt, terwijl de oorspronkelijke wetsontwerp van de Europese Commissie deze sectoren als risicovol beschouwde.

Beheersbare gevaren van ChatGPT

Tijdens een bijeenkomst met EU-wetgevers en -regelgevers in maart beweerde OpenAI volgens het rapport dat de gevaren van ChatGPT beheersbaar waren. Ze suggereerden dat instructies aan de AI aangepast konden worden, zodat deze bijvoorbeeld weigerde informatie door te geven over gevaarlijke stoffen. Echter, onderzoekers en gebruikers hebben aangetoond dat dergelijke beperkingen gemakkelijk kunnen worden omzeild door het invoeren van specifieke vragen.

Koers van het Europees Parlement ten aanzien van AI-regelgeving

Volgens de koers die is overeengekomen door de leden en waar de onderhandelaars van het EU-parlement nu naar streven voor een definitief compromis met de Raad van Ministers en de Europese Commissie, worden ChatGPT en vergelijkbare diensten niet automatisch geclassificeerd als risicovolle technologie.

Echter, exploitanten van AI-basismodellen die grootschalig zijn getraind op niet-gecategoriseerde gegevens en bedoeld zijn voor algemene output, moeten wel risicoanalyses uitvoeren met betrekking tot gezondheid, veiligheid, grondrechten, milieu, democratie en rechtsstaat.

Reactie van burgerrechtenorganisaties

Sarah Chander, beleidsadviseur bij de burgerrechtenorganisatie European Digital Rights (EDRi), merkt op dat OpenAI heeft gekregen wat het wilde. Ze stelt dat OpenAI, net als andere grote technologiebedrijven, het argument van het algemeen belang van AI heeft gebruikt om zijn eigen financiële belangen bij deregulering te verbergen.

Daniel Leufer van Access Now voegt eraan toe dat OpenAI in feite beweert: “Vertrouw ons, we reguleren onszelf.” Voorafgaand aan de stemming heeft de CEO van OpenAI, Sam Altman, herhaaldelijk opgeroepen tot specificaties voor de technologie, en hij dreigde zelfs om de dienstverlening in de EU te staken, maar later heeft hij deze dreiging ingetrokken.


Altijd op de hoogte blijven van alles omtrent kunstmatige intelligentie en een eventuele AI-regelgeving? Schrijf je in voor de gratis nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

Deel dit artikel

Elwin Hodžić
Elwin Hodžić(Web)redacteur bij c't. Ondanks de studie geschiedenis, altijd al een passie gehad voor alles wat met IT te maken heeft. Sleutelt in zijn vrije tijd graag aan pc’s, van de hardware tot het uitpluizen van de BIOS-instellingen om een pc zo optimaal mogelijk te laten werken.

Lees ook

Teufel brengt nieuwe draadloze CAGE PRO gaming-headset uit

Teufel heeft de CAGE PRO uitgebracht, een draadloze gamingheadset die volgens de fabrikant vrijwel latentie-vrije geluid biedt. Verder beschikt de hea...

Bepaalde Windows 11-builds naderen einde van ondersteuning

Microsoft herinnert gebruikers eraan dat de ondersteuning voor bepaalde builds van Windows 11 over ongeveer drie weken eindigt. Het is daarom aan te r...

0 Praat mee
avatar
  Abonneer  
Laat het mij weten wanneer er