Is 2028 het kantelpunt voor AI?
OpenAI-CEO Sam Altman waarschuwt dat AI in de vorm van superintelligentie een gevaar kan vormen en pleit voor internationaal toezicht. Die waarschuwing is tegelijk een strategische boodschap.
Lees verder na de advertentie
Pleidooi voor een wereldwijde toezichthouder
Tegen de achtergrond van waarschuwingen voor een zogenoemde ‘super-AI’ die een bedreiging voor de mensheid zou kunnen vormen, heeft OpenAI-topman Sam Altman opnieuw gepleit voor de oprichting van een wereldwijde toezichthouder naar het voorbeeld van het International Atomic Energy Agency (IAEA). Het is volgens hem evident dat er dringend regels en veiligheidsmaatregelen nodig zijn, zei hij op de AI-top in New Delhi.
Tip
Met connectiviteit van Odido Business maakt Firefly verlichting slimmer, efficiënter en beter beheersbaar.
Toenemende waarschuwingen voor superintelligentie
De afgelopen maanden klonken de waarschuwingen voor een mogelijk ontwrichtende AI opnieuw luider, vooral als systemen zichzelf steeds verder zouden verbeteren en uitgroeien tot (een vorm van) superintelligentie. Critici betwijfelen echter dat zo’n doorbraak op korte termijn realistisch is.
Tijdshorizon en impact op arbeid
Volgens Altman zijn vroege versies van zo’n intelligentie mogelijk nog maar enkele jaren verwijderd. Als zijn inschatting uitkomt, zou tegen het einde van 2028 een groter deel van de wereldwijde denkcapaciteit in datacenters geconcentreerd zijn dan daarbuiten. Dat vooruitzicht vraagt volgens hem om serieuze reflectie, mede omdat AI de arbeidsmarkt fundamenteel zal hertekenen.
Risico’s en maatschappelijke discussie
Altman schetste daarnaast een reeks risico’s en onzekerheden: een super-AI in handen van autoritaire regimes, inzet als biowapen via nieuw ontworpen pathogenen of zelfs nieuwe vormen van oorlogsvoering. Volgens hem is een breed maatschappelijk debat noodzakelijk om niet overvallen te worden door de gevolgen. Tegelijk is voor misbruik geen superintelligentie vereist; ook minder geavanceerde systemen kunnen al schade aanrichten, wat de roep om toezicht nu al begrijpelijk maakt.
Spanningen rond veiligheid en marktintroductie
Tegelijk heeft Altman er belang bij AI snel en met minimale restricties te commercialiseren. Veiligheidsafwegingen lijken daarbij niet altijd voorop te staan, wat intern tot spanningen en het vertrek van medewerkers zou hebben geleid.
Altijd op de hoogte van kunstmatige intelligentie?
Superintelligentie als marketingnarratief
Achter de waarschuwingen voor een superintelligentie schuilt bovendien ook een marketingbelang. Een zo groot mogelijk dreigingsscenario getuigt immers van bijzonder krachtige technologie. Door de risico’s van AI steeds te benadrukken, vergroot OpenAI dus impliciet ook zijn eigen waarde. Dat moet uiteindelijk ook investeerders en waarnemers overtuigen.
Twijfel onder AI-experts
Dat we daadwerkelijk op korte afstand van superintelligentie staan, wordt door minstens evenveel experts betwist als gevreesd. Onder anderen Turingprijswinnaar Yann LeCun en neurowetenschapper Gary Marcus betogen dat grote taalmodellen, de huidige generatie AI-systemen, principieel ongeschikt zijn om tot werkelijk algemene intelligentie te komen. Een architectuur die primair op taal is gebaseerd, zou daarvoor te beperkt zijn.
Tot slot
De discussie over superintelligentie schuurt daardoor tussen oprechte veiligheidsvragen en strategische positionering. Of het kantelpunt nabij is, valt te bezien, maar de roep om toezicht en scherp afgebakende kaders zal onvermijdelijk luider worden.
Tip!
Dit is het moment om jouw droomdevice aan te schaffen.
Praat mee