Nieuw AI-model van Anthropic doorbreekt grenzen van cybersecurity
Het nieuwe AI-model van Anthropic genaamd Mythos zou zo effectief zijn in het opsporen en misbruiken van beveiligingslekken dat het uitsluitend moet worden ingezet voor het beveiligen van IT-infrastructuur.
Lees verder na de advertentie
Beperkte toegang tot krachtig model
Het nieuwe AI-model van Anthropic genaamd Mythos wordt als zo potentieel gevaarlijk beschouwd dat het niet publiek beschikbaar wordt gemaakt. In plaats daarvan zal Claude Mythos Preview binnen een initiatief genaamd Project Glasswing voorlopig uitsluitend beschikbaar zijn voor een selecte groep bedrijven die actief zijn in IT-beveiliging.
Zij moeten de technologie inzetten om de meest kritieke software te beschermen. Volgens Anthropic heeft het model al duizenden hoogrisico zero-day-kwetsbaarheden geïdentificeerd. Zulke kwetsbaarheden zouden zijn gevonden in alle grote besturingssystemen, in webbrowsers en in tal van andere software. Met name zou Mythos Preview aanzienlijk vaker in staat zijn om een werkende exploit te ontwikkelen.
Tip
Download nu en lees alles over de specifieke eisen voor CAD-toepassingen en toekomstbestendige workstations.
Voorbeelden van gevonden kwetsbaarheden
Als voorbeeld noemt Anthropic onder meer een al 27 jaar onopgemerkte kwetsbaarheid in OpenBSD, waarmee een systeem op afstand kan worden gecrasht door er simpelweg verbinding mee te maken. Ook wordt een 16 jaar oude kwetsbaarheid in FFmpeg genoemd die bij vijf miljoen geautomatiseerde scans met gespecialiseerde tools niet werd gevonden.
Daarnaast bleek het model in staat meerdere tot dusver onbekende kwetsbaarheden in de Linux-kernel te combineren tot een aanval waarmee een gewone gebruiker volledige controle over een systeem kan krijgen. Deze en andere kwetsbaarheden zijn gemeld aan de verantwoordelijke partijen. Anthropic publiceerde daarover een blogbericht.
Project Glasswing en deelnemende partijen
Tot het initiatief Project Glasswing behoren onder meer Amazon Web Services (AWS), Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, de Linux Foundation, Microsoft, NVIDIA en Palo Alto Networks. Daarnaast nemen nog eens 40 organisaties deel die software voor kritieke infrastructuur ontwikkelen of beheren.
In totaal stelt Anthropic gebruiksrechten ter waarde van maximaal 100 miljoen dollar beschikbaar voor het nieuwe AI-model. Daarvan gaat 4 miljoen dollar direct naar beheerders van open-sourcesoftware. Het doel is hen in staat te stellen systemen systematisch op kwetsbaarheden te onderzoeken en die te verhelpen voordat andere AI-modellen vergelijkbare capaciteiten bereiken.
Context en politieke spanningen
Anthropic is vooral bekend van Claude, een concurrent van ChatGPT van OpenAI. Recent kwam het bedrijf in het nieuws door een conflict met het Pentagon: Anthropic weigerde de AI in te zetten voor autonome wapens of massale surveillance in de VS en werd daarop als veiligheidsrisico bestempeld. Het bedrijf vecht die kwalificatie juridisch aan.
Tegenover het Amerikaanse tijdschrift Platformer gaf Anthropic aan de Amerikaanse overheid te kunnen ondersteunen bij de noodzakelijke evaluatie van Mythos, maar het is nog onduidelijk of dat aanbod wordt geaccepteerd. Ook is onzeker of de strategie om beveiligingslekken met steeds krachtigere AI-systemen vóór kwaadwillenden te ontdekken op de lange termijn houdbaar is.
Tot slot
Het model onderstreept het groeiende belang van AI in zowel offensieve als defensieve beveiliging. Tegelijkertijd roept het de vraag op in hoeverre zulke systemen beheersbaar blijven zodra vergelijkbare capaciteiten breder beschikbaar komen en ook door minder goedwillende partijen kunnen worden ingezet.
Tip
Krijg direct toegang tot alle beschikbare edities op je laptop, tablet of smartphone.
Praat mee