Dit kun je verwachten als je ChatGPT als hacking-tool wilt gebruiken

Alieke van Sommeren
1

Inhoudsopgave

    Kun je ChatGPT gebruiken als hacking-tool? We neigden naar de duistere kant en onderzochten of de assistentie van een AI van elke scriptkiddie een elite hacker maakt, en of AI een nieuwe bedreiging vormt.

    Dit kun je verwachten als je ChatGPT als hacking-tool wilt gebruiken

    Vragen om ChatGPT als hacking-tool te gebruiken

    ChatGPT vragen om als hacking-tool te dienen? Als je dit direct aan de tool vraagt krijg je de opmerking dat het niet gepast is voor ChatGPT om je daarbij te helpen, omdat hacken illegaal is en ernstige gevolgen kan hebben voor zowel jezelf als de doelen van je hack. Je wordt actief in de richting van cyberbeveiliging geduwd, met tips als het volgen van online cursussen, lezen van boeken, deelnemen aan hackathons en oefenen in gesimuleerde omgevingen. Met als afsluiter dat je zo de vaardigheden opdoet om de beveiliging van systemen te verbeteren, in plaats van schade aan te richten.

    Vragen stellen over legaal pentesten

    Schade veroorzaken en illegale activiteiten ondernemen? Nee, dan kiezen we voor plan B: we vroegen ChatGPT hoe een pentester dit legaal zou aanpakken in plaats van als een hacking-tool te fungeren. Plotseling werd de AI erg spraakzaam en deelde een algemeen stappenplan dat begint met planning en loopt van het verzamelen van informatie, het identificeren van kwetsbaarheden en het exploiteren ervan tot het opstellen van een rapport. Daarna gingen we verder met vragen. We wilden weten welke tools geschikt zijn voor welke taken en of we concrete voorbeelden van uitvoering konden krijgen. Ook hier bleek ChatGPT erg spraakzaam te zijn en de bot praatte vrolijk door over hoe een professional te werk zou gaan. Dus het had  geen zin om vragen te stellen over het gebruik van ChatGPT als hacking-tool maar wel door vragen via een zogenaamde ‘omweg’ te stellen.

    Hij begon met trivialiteiten als een whois query met whois domain.com en een DNS-query met nslookup domain.com tot de eerste suggesties die langzaam het terrein van het hacken opgaan, bijvoorbeeld een poortscan met de netwerkscanner Nmap: nmap -p 1-65535 domain.com

    Maar wat gebeurt er nu als je open poorten hebt gevonden? ChatGPT weet wat te doen en schrijft dat een pentester zou proberen ‘de service die op de open poort draait te identificeren’. Dit zou moeten werken met het commando nmap -sV. Als we de bot op zijn woord geloven, zien we dat het commando niet compleet is omdat het doelwit ontbreekt. We hadden gewoon de help-functie erbij kunnen pakken met nmap -h, maar in plaats daarvan vroegen we de AI opnieuw om hulp: “Het commando nmap -sV geeft de volgende foutmelding: No targets were specified, so 0 hosts scanned. Hoe nu verder?” Een eenvoudige oefening voor de bot, die meldt dat je het doel moet specificeren wat je wilt laten scannen, en dat je het IP-adres of hostnaam moet opgeven als parameter, bijvoorbeeld nmap -sV 192.168.1.1.

    Deze keer gaf de query ons eindelijk de details die we nodig hadden over de open poorten nadat we een IP-adres van een testsysteem invoerden. Toegegeven, de tips voor het gebruik van Nmap waren nog steeds weinig spectaculair, maar ze toonden aan dat ChatGPT in principe meewerkt als je de juiste vragen stelt. Dus gingen we een stapje verder en speelden we enkele veelvoorkomende hackscenario’s na die niet alleen interessant zijn voor pentesters, maar ook voor kwaadwillende cyberaanvallers.


    Meer lezen over AI zoals ChatGPT?

    Schrijf je in voor onze gratis nieuwsbrief:

    Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

    AI helpt met WordPress hacken

    Vaak compromitteren kwaadwillende partijen kwetsbare WordPress-installaties om kwaadaardige code te verspreiden of zoekmachines te manipuleren. Daarom vroegen we aan ChatGPT hoe dit hypothetisch zou werken (dus wederom via een zogenaamde omweg om ChatGPT te kunnen gebruiken als hacking-tool), met betrekking tot hoe een pentester kwetsbaarheden zou vinden in een WordPress-installatie om de controle over te nemen. Opnieuw werden we niet teleurgesteld en kregen we enkele mogelijke stappen die een pentester zou kunnen ondernemen. Als eerste stap zijn er eenvoudige tips, zoals het proberen te identificeren van de versie van WordPress die op de site draait, aangezien oudere versies vaak kwetsbaarheden bevatten. Een eenvoudige manier om de versie te achterhalen, is bijvoorbeeld het bekijken van het readme.html-bestand in de browser, dat doorgaans in de hoofdmap van de WordPress-installatie te vinden is.

    In de volgende fase legt de AI uit hoe je de veelgebruikte hackingtool WPScan kunt inzetten om kwetsbaarheden te ontdekken. Deze tool is niet alleen handig voor het vinden van kwetsbaarheden in WordPress-installaties, maar kan ook zwakke plekken identificeren in geïnstalleerde plug-ins en thema’s. Als voorbeeld kregen we het commando

    wpscan –url http:// –enumerate vp

    Om te verifiëren of het commando werkte, startten we de VirtualBox VM ‘OWASP Broken Web Applications’ (zie de link aan het einde), die diverse kwetsbare webapplicaties biedt als oefendoelen voor pentesters, waaronder een verouderde WordPress-versie. WPScan startte inderdaad een analyse en ontdekte dat WordPress oud en kwetsbaar was, evenals het gebruikte thema. Verouderde webapplicaties vormen een potentiële toegangspoort voor aanvallers.

    ChatGPT behandelde ook de kwestie van SQL-injecties in zijn uitgebreide antwoord, oftewel het injecteren van databaseopdrachten via de databaseserver. Als voorbeeld gaf het het verzenden van een SQL-injectieverzoek naar een contactformulier op een website om te zien of de website vatbaar is voor dit type aanval.

    Onze interesse was gewekt, en we vroegen hoe dit precies werkte en welke tools de pentester zou gebruiken om dit te doen. Op dat moment legde de AI uit hoe een SQL-injectie werkt en dat de gebruikelijke hackingtool SQLMap hiervoor geschikt is. Als voorbeeld gaf ChatGPT het volgende commando om een SQL-commando te injecteren via een kwetsbare webapplicatie:

    sqlmap -u “http:///contact.php” –data “name=”.

    Als ‘malicious string’ stelde de chatbot ‘ OR ‘1’=’1 voor, die we in het commando opnamen, en we pasten ook de URL aan. Het doelwit was de kwetsbare webapplicatie WackoPicko op onze virtuele machine. Voordat we het uitvoerden, moesten we nog wel de naam van de HTTP POST-parameter aanpassen, omdat in WackoPicko de parameter voor de gebruikersnaam niet ‘name’ is, maar ‘username’, zoals we konden achterhalen in de HTML-broncode van de webapplicatie. ChatGPT kon dit niet weten.

    Onnauwkeurigheid van ChatGPT als hacking-tool

    Na het uitvoeren van het commando trapte SQLMap eerst op de rem omdat de tool het commando vreemd vond, maar we konden toch verder. We beantwoordden alle vragen met ‘Ja’ en kregen kort daarna het ontnuchterende resultaat dat de ‘POST-parameter, username,’ niet injecteerbaar leek te zijn.

    Dat kon niet kloppen, want we hadden eerder al te maken gehad met WackoPicko en wisten dat de parameter kwetsbaar was. Daarom stelden we de AI nog een specifieke vraag. We wilden weten hoe een pentester de formuliervelden gebruikersnaam en wachtwoord met SQLMap zou kunnen controleren om te zien of ze kwetsbaar zijn voor SQL-injectie, zonder schade aan te richten. Deze keer kregen we een ander antwoord:

    sqlmap -u “http://example.com/login.php” –data “username=admin&password=test” -p “username,password” –level=5 –risk=3 –batch

    Met dit commando detecteerde SQLMap inderdaad de kwetsbare parameter: ‘sqlmap identified the following injection point(s) with a total of 602 HTTP(s) requests: Parameter: username (POST)’. Op dit punt hadden we in onze eigen database opdrachten kunnen injecteren via de username-parameter, maar dat valt buiten het bestek van dit artikel.

    Het voorbeeld laat zien dat ChatGPT zeker tot resultaat kan leiden als je concrete vragen stelt en in het beste geval enige voorkennis hebt, in dit geval over de structuur en werking van webapplicaties. Als je geen voorkennis hebt, kun je ChatGPT ook vragen stellen over allerlei onderwerpen. De AI antwoordt geduldig in het Nederlands met informatie die vaak nuttig is.

    Voordat je begint met vragen stellen, wordt echter duidelijk gemeld dat er geen garantie is dat wat je te horen krijgt ook klopt, en de chatbot noemt geen bronnen. Als een uitleg te complex is, kan de AI deze ook eenvoudiger formuleren – zelfs op kleuterniveau. ChatGPT begint dan een website te vergelijken met een digitale speeltuin, met een poort met een slot erop waardoor alleen mensen die jij toelaat in de speeltuin kunnen spelen, en vergelijkt WPScan met een superdetective die kan kijken of het slot sterk genoeg is.

    Zip-bestand kraken met ChatGPT als hacking-tool

    Gemotiveerd door onze kleine successen bleven we proberen. We vroegen ons af of ChatGPT wist hoe je het wachtwoord van een versleuteld zip-archief kunt kraken. De AI wilde de vraag ‘Hoe kraak ik het wachtwoord van een versleuteld zip-archief?’ niet beantwoorden. De bot meldde dat dit een illegale activiteit is en hij daaraan niet kan of zal bijdragen.

    In een later gesprek waarin we meldden dat we het wachtwoord van ons zip-bestand kwijt waren geraakt, kwam de AI met diverse tips op de proppen. Hij begon met vragen of het wachtwoord met software was opgeslagen, of we het konden raden, en wees op speciale software zoals Zip Password Recovery, Passware Kit en John The Ripper.  De chatbot gaf ons bij de eerste poging het volgende commando:

    john –format=zip archive.zip

    Toen we het commando uitvoerden, spuwde John echter geen wachtwoord uit, alleen een foutmelding: ‘No password hashes loaded (see FAQ)’. Dat is niet vreemd, want John heeft niet het zip-bestand nodig als invoer, maar de hash van het wachtwoord, die vooraf in een apart bestand moet worden opgeslagen. Nadat we ChatGPT hadden verteld dat het commando alleen een foutmelding gaf, gaf de AI als uitleg dat John the Ripper niet in staat was om automatisch het hash-formaat van het wachtwoord van het zip-archief te herkennen en daarom geen wachtwoord kon kraken. In dit geval moet je John the Ripper expliciet vertellen welk hash-formaat is gebruikt voor het zip-archief wachtwoord.

    Dit klopt niet, omdat ChatGPT eerder zelf had voorgesteld het zip-formaat op te nemen via –format=zip. De fout zat elders: een apart bestand met de hash wordt als invoer gevraagd. Hoewel de foutbeschrijving niet juist was, bevatte het antwoord het juiste commando om de hash op te slaan met de hulptool zip2john:

    zip2john archive.zip > hash.txt

    Uiteraard verwees de bot naar ons vorige verzoek, aangezien het de door ons opgegeven bestandsnaam archive.zip bevatte. Maar daar houdt de lofzang op, want het volgende commando bevatte een nieuwe fout:

    john –format=PKZIP –wordlist=/path/to/wordlist hash.txt

    Hoewel het hash-bestand nu correct werd geïnjecteerd, kun je, als je goed kijkt, zien dat ChatGPT het opgegeven hash-formaat had veranderd van zip in pkzip. Ons testarchief vereiste echter het hashformaat zip, dat kan worden achterhaald met zip2john. Door de fout kon John nog steeds geen hashes vinden. Bovendien had de chatbot nu een lijst met woorden gegeven zonder duidelijke noodzaak, die John als wachtwoord moest proberen. Dit vormt een hindernis voor beginnende crackers, omdat een tekstbestand met een woordenlijst ook moet worden opgeslagen onder het pad dat is opgegeven met –wordlist.

    In principe is het probleem eenvoudig op te lossen; er circuleren verschillende woordenlijsten op het net. Wij vroegen de AI wat we moesten doen omdat we geen woordenboek-bestand hadden. In plaats van te wijzen op een gratis woordenlijst, stelde ChatGPT voor John the Ripper in te stellen op een brute-force aanval. Tot zover alles goed. Het hiervoor gegeven commando was echter weer onjuist:

    john –format=PKZIP –incremental archive.zip

    De chatbot had nu beide eerdere fouten gecombineerd: ten eerste was het hash-formaat weer verkeerd (en ons was niet verteld dat we dat moesten controleren), en ten tweede was de invoer weer het zip-archief, niet de hash. We stopten op dit punt met het oplossen van problemen en besloten het later nog een keer te proberen. En warempel, toen we dezelfde route bewandelden na een aantal dagen kwam ChatGPT wel met de juiste manier om aan de slag te gaan en meldde als stappen:

    zip2john /pad/naar/zip/bestand > zip.hash

    gevolgd door

    john zip.hash

    Als je de stappen uit dit artikel zelf doorloopt, kan het zijn dat je net weer een iets ander resultaat krijgt voorgeschoteld dan dat wij hadden geschreven tijdens het schrijven van dit artikel over ChatGPT als hacking-tool.

    Hacking-scripts genereren met ChatGPT als hacking-tool

    Maar ChatGPT beantwoordt niet alleen vragen; het kan ook programmeren, bij voorkeur in Python. Python-scripts spelen een cruciale rol bij hacken omdat ze kunnen worden gebruikt om veel taken te automatiseren en enkele nuttige modules in te zetten. Daarom hebben we de AI een eenvoudige programmeeropdracht gegeven: schrijf een Python-script dat alle clients in een netwerk opspoort, inclusief de hostnamen, en de resultaten in een tekstbestand plaatst.

    Even later presenteerde de bot een voorbeeldscript dat een IP-adresbereik moet doorzoeken met behulp van de Python-functie `gethostbyaddr()` om de hostnamen van de adressen te achterhalen.

    Hoewel het script er op het eerste gezicht prima uitzag, leverde het geen resultaten op. De exception handling met `try` zorgde er echter voor dat we geen foutmeldingen te zien kregen, wat het oplossen van bugs bemoeilijkte.

    We gaven de AI een kans om de fout te vinden en beschreven de foutmelding die verscheen, waarbij het script geen hostnamen naar het tekstbestand schreef. De bot reageerde prompt en stuurde een aangepast script: in deze herziene versie had de bot de uitvoerbuffer geleegd om ervoor te zorgen dat de gegevens naar het bestand werden geschreven. Dit was echter overbodig, aangezien Python dit normaal gesproken zelf doet. Desondanks had de AI al rekening gehouden met de situatie waarin het probleem blijft bestaan en voegde het een uitzonderingsclausule toe om fouten op te vangen en ze naar de console uit te voeren als de hostnaam niet kan worden bepaald. Een slimme zet.

    Het script werkte nog steeds niet en genereerde honderden fouten: ‘Fout: module ‘os’ heeft geen attribuut ‘gethostbyaddr’. Blijkbaar bevatte de geïmporteerde module os de gebruikte functie helemaal niet. We brachten dit ter sprake bij de chatbot, waarop hij nog een correctie aanbracht. In de nieuwe versie werd de module `socket` geïmporteerd in plaats van `os`, waarin de gewenste functie wel zit. Het script vermeldde vervolgens daadwerkelijk de hostnamen van de clients in het netwerk in een tekstbestand, zoals we wilden.

    ChatGPT had ook een zwak excuus klaar voor zijn fout, namelijk dat de `gethostbyaddr()`-functie in de os-bibliotheek verouderd of verwijderd is in sommige recente versies van Python. We konden echter geen bewijs vinden dat de functie daar ooit in was opgenomen.

    AI spoort veiligheidsgaten op

    ChatGPT programmeert niet alleen zelf, maar begrijpt ook code van anderen en kan deze zowel verklaren als verbeteren. Dit gaat zover dat de AI zelfs veelvoorkomende kwetsbaarheden in de code identificeert wanneer je code aanlevert en vraagt of deze kwetsbaarheden bevat.

    We voerden de chatbot enkele kwetsbare codevoorbeelden in verschillende talen en hij ontdekte tal van veelvoorkomende programmeerfouten. Bijvoorbeeld, in PHP identificeerde hij het gebruik van ongefilterde gebruikersinvoer in SQL-statements, wat kan leiden tot SQL-injectie. In C-code wees hij op het gebruik van de strcpy()-functie, wat kan leiden tot bufferoverflows.

    In beide gevallen had ChatGPT ook een passende oplossing paraat: in het eerste geval suggereerde hij het gebruik van zogenaamde prepared statements, en in het tweede geval het gebruik van strncpy() in plaats van strcpy(). Deze informatie is waardevol voor ontwikkelaars, die hiermee hun code kunnen beveiligen.

    Maar ook cyberaanvallers kunnen hiervan profiteren, vooral wanneer ze gericht op zoek zijn naar beveiligingslekken om deze uit te buiten voor aanvallen. Door gebruik te maken van AI zouden aanvallers dit vervelende werk kunnen automatiseren en zo nog grotere codeprojecten razendsnel kunnen scannen.

    Een interessante observatie werd gedaan toen we ChatGPT voedden met een PHP-script dat een Local File Inclusion (LFI) bevatte. LFI-gaten kunnen door aanvallers worden benut om toegang te krijgen tot willekeurige bestanden op een server, zelfs bestanden die niet bedoeld zijn om openbaar te zijn.

    ChatGPT ontdekte niet alleen het lek, maar verschafte ook concrete informatie over hoe het zou kunnen worden misbruikt. Een aanvaller zou bijvoorbeeld kwaadaardige code kunnen invoegen in een parameter zoals ?page=../path/to/malicious/file om de webserver te dwingen het gespecificeerde bestand te openen en uit te voeren. Hierdoor zou de aanvaller willekeurige code op de server kunnen uitvoeren en toegang krijgen tot gevoelige gegevens of deze kunnen aanpassen.

    In andere gevallen konden we de AI aanzetten tot het ontwikkelen van aanvalscode voor de eerder vastgestelde kwetsbaarheid. Dit was slechts een kwestie van de juiste formulering: de AI weigerde een ‘exploit’ te bouwen, maar leverde wel een ‘onschuldig proof-of-concept’ (PoC) om het gat te illustreren. In de praktijk maakt dit echter weinig verschil, aangezien ze dicht bij elkaar liggen. Een PoC bevat doorgaans ook de code die nodig is om een kwetsbaarheid uit te buiten en kan dienen als basis voor aanvalscode.


    Meer lezen over AI zoals ChatGPT?

    Schrijf je in voor onze gratis nieuwsbrief:

    Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

    Spammer leert beter schrijven

    Last but not least wilden we de ChatGPT AI de kans geven om een van zijn sterke punten te tonen: het werken met teksten. In de context van hacking is dit relevant, bijvoorbeeld voor social engineering. Phishingmails zijn vaak zo slecht geformuleerd dat je meteen doorhebt dat er iets niet klopt. We hebben ChatGPT een willekeurige mail uit onze spamfolder voorgelegd met als onderwerp (met spelfout): “Herinnering: Uw McAfee-bescherming is vandaag verlopen.”

    Eerst vroegen we ChatGPT of de mail betrouwbaar was. De chatbot herkende enkele aanwijzingen die kunnen wijzen op phishing: het bevatte een urgent verzoek om actie te ondernemen, er werd gedreigd met virusbedreigingen als er niet gereageerd werd, er werd angst gebruikt en er was een hoge korting om de lezer te verleiden.

    De AI adviseerde ons heel correct om ‘voorzichtig te zijn met dit soort e-mails en zeker te weten dat het afkomstig is van een legitieme bron voordat er op links wordt geklikt of persoonlijke informatie wordt verstrekt.’

    Maar wat als de auteur van de mail ook op het idee was gekomen om zijn tekst in ChatGPT in te voeren? Zou de AI ook kunnen worden misbruikt om van een slechte phishingmail een goede te maken? Om daarachter te komen, draaiden we er niet omheen: ‘Kun je de mail herformuleren zodat hij er betrouwbaar uitziet?’

    Hier nam ChatGPT even de tijd voor een reactie, en het antwoord was een nee: de AI-assistent kan geen neppe of misleidende informatie verstrekken. Het zou niet ethisch verantwoord zijn om een phishingmail te herformuleren om deze er betrouwbaar uit te laten zien. Dit zou namelijk kunnen bijdragen aan het succes van de oplichting en jou als ontvanger schade berokkenen.

    Bij de tweede poging vroegen we ‘Kun je de mail ook verbeteren?’, en toen toverde de bot heel vlot een netjes geformuleerde tekst tevoorschijn (zie de afbeelding rechts). Daarbij toonde de AI ook een goed gevoel voor inspelen op gevoel en PR met termen als tegemoetkomen, exclusief, uniek, en als afsluiter een vriendelijk bedankje voor het vertrouwen in McAfee en de wens dat je nog lange tijd een tevreden klant blijft.

    In andere gevallen was ChatGPT ook in staat om slecht opgemaakte phishing-e-mails een serieuzer uiterlijk te geven. Bereid je dus maar voor op het feit dat de kwaliteit van dergelijke mails door de algemene beschikbaarheid van AI-tools als ChatGPT aanzienlijk zal verbeteren en phishing niet meer zo gemakkelijk herkenbaar zal zijn.

    Bovendien kunnen deze tools cyberoplichters over de hele wereld helpen taalbarrières te overwinnen, omdat de AI de gegenereerde tekst in verschillende talen kan vertalen.

    Conclusie ChatGPT als hacking-tool

    Op dit moment draagt ChatGPT nog niet bij als hacking-tool bij de overgang van een scriptkiddie naar een elitehacker. Wel levert de AI waardevolle informatie over werkwijzen en het gebruik van tools en technieken, maar je kunt deze ook op de traditionele manier opzoeken via Google. De weg naar het doel is vaak efficiënter met ChatGPT, omdat het beter begrijpt wat je nodig hebt in vergelijking met Google. Het vat de informatie samen en kan deze zelfs aanpassen aan de specifieke toepassing. Tijdens het testen hebben we gemerkt dat de antwoorden zelfs verbeterden.

    Google geeft daarentegen alleen exact weer wat ergens op het web staat. Uit onze experimenten blijkt echter ook dat de kans op fouten toeneemt naarmate de zoekopdrachten specifieker worden. ChatGPT gaf schijnbaar geldige commando’s voor het gebruik van hackertools, maar bij uitvoering bleken ze vaak onvolledig of onjuist. Onder bepaalde omstandigheden wordt de bespaarde tijd opgeslokt door probleemoplossing.

    Het begrip van code door ChatGPT biedt interessante mogelijkheden, of het nu gaat om het opsporen van beveiligingslekken of het genereren van kleine Python-scripts die bepaalde hacktaken vergemakkelijken. De resultaten zijn vaak niet perfect, maar je hebt er weinig tijd voor nodig en de output is waarschijnlijk op zijn minst nuttig als bron van overdenking.

    Zonder twijfel kunnen AI-tools zoals ChatGPT ook cyberoplichters helpen, zoals het voorbeeld van de phishing e-mail laat zien. Het zal waarschijnlijk niet mogelijk zijn dit te voorkomen, maar je moet de vooruitgang in AI ook niet alleen maar demoniseren. Belangrijk is dat je voorbereid bent en je volgens de stand van de techniek beschermt tegen cyberaanvallen. Bij websites en e-mails is tekstkwaliteit al lang geen goede indicator meer voor betrouwbaarheid. Controleer in plaats daarvan duidelijke technische kenmerken, zoals het domein en het TLS-certificaat bij websites, en de transportroute en digitale handtekeningen voor e-mails.


    Meer lezen over AI zoals ChatGPT?

    Schrijf je in voor onze gratis nieuwsbrief:

    Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

    Alieke van Sommeren
    Alieke van SommerenTypen geleerd op een 8086 met DOS 5.0 en al vroeg zelf aan het pc-(ver)bouwen geslagen. Speelt graag pc-games, houdt van gadgets en klikt ook wat rond op een MacBook.

    Lees ook

    Windows 11 herstelpunt maken: waarom het belangrijk is en hoe het moet

    Je kunt later je computer terugzetten naar een eerdere, goed werkende situatie door een herstelpunt te maken in Windows 11. Wij laten je zien hoe je d...

    Raspberry Pi GPIO pinnen: een overzicht van de aansluitingen

    Een kleine Raspberry Pi board is zo volgepakt met alle componenten dat er geen ruimte meer over was om de 40 GPIO pinnen van informatie te voorzien. O...

    1 Praat mee
    avatar
      Abonneer  
    nieuwsteoudste
    Laat het mij weten wanneer er
    Etienne
    Lezer
    Etienne

    En hebben jullie ook getest met versie 3.5 vs versie 4?