Het Europese Parlement heeft nieuwe diensten zoals ChatGPT niet vanaf het begin geclassificeerd als risicovolle technologie, ondanks de inspanningen van OpenAI om de AI-regelgeving van de EU te beïnvloeden.
OpenAI’s standpunt over het risiconiveau van GPT-3
OpenAI benadrukt in het document van zeven pagina’s dat het grote taalmodel GPT-3 op zichzelf geen risicovol systeem is. Ze stellen dat het model mogelijkheden heeft die potentieel kunnen worden gebruikt in situaties met een hoog risico, maar het is niet intrinsiek gevaarlijk.
Zo maakte OpenAI zich zorgen dat de voorgestelde formuleringen in de regelgeving per ongeluk alle modellen van OpenAI als risicovol zouden kunnen classificeren.
OpenAI pleit voor bepaalde toepassingen van generatieve AI
OpenAI pleit ook voor mogelijkheden om bepaalde toepassingen van generatieve AI, zoals ChatGPT, mogelijk te maken in het onderwijs en op de arbeidsmarkt, terwijl de oorspronkelijke wetsontwerp van de Europese Commissie deze sectoren als risicovol beschouwde.
Beheersbare gevaren van ChatGPT
Tijdens een bijeenkomst met EU-wetgevers en -regelgevers in maart beweerde OpenAI volgens het rapport dat de gevaren van ChatGPT beheersbaar waren. Ze suggereerden dat instructies aan de AI aangepast konden worden, zodat deze bijvoorbeeld weigerde informatie door te geven over gevaarlijke stoffen. Echter, onderzoekers en gebruikers hebben aangetoond dat dergelijke beperkingen gemakkelijk kunnen worden omzeild door het invoeren van specifieke vragen.
Koers van het Europees Parlement ten aanzien van AI-regelgeving
Volgens de koers die is overeengekomen door de leden en waar de onderhandelaars van het EU-parlement nu naar streven voor een definitief compromis met de Raad van Ministers en de Europese Commissie, worden ChatGPT en vergelijkbare diensten niet automatisch geclassificeerd als risicovolle technologie.
Echter, exploitanten van AI-basismodellen die grootschalig zijn getraind op niet-gecategoriseerde gegevens en bedoeld zijn voor algemene output, moeten wel risicoanalyses uitvoeren met betrekking tot gezondheid, veiligheid, grondrechten, milieu, democratie en rechtsstaat.
Reactie van burgerrechtenorganisaties
Sarah Chander, beleidsadviseur bij de burgerrechtenorganisatie European Digital Rights (EDRi), merkt op dat OpenAI heeft gekregen wat het wilde. Ze stelt dat OpenAI, net als andere grote technologiebedrijven, het argument van het algemeen belang van AI heeft gebruikt om zijn eigen financiële belangen bij deregulering te verbergen.
Daniel Leufer van Access Now voegt eraan toe dat OpenAI in feite beweert: “Vertrouw ons, we reguleren onszelf.” Voorafgaand aan de stemming heeft de CEO van OpenAI, Sam Altman, herhaaldelijk opgeroepen tot specificaties voor de technologie, en hij dreigde zelfs om de dienstverlening in de EU te staken, maar later heeft hij deze dreiging ingetrokken.
Altijd op de hoogte blijven van alles omtrent kunstmatige intelligentie en een eventuele AI-regelgeving? Schrijf je in voor de gratis nieuwsbrief: