CNET betrapt op het gebruik van AI zoals ChatGPT voor hun teksten

Elwin Hodžić
0

De nieuwswebsite CNET zal in de toekomst duidelijk aangeven welke artikelen door een computer gegenereerd zijn. Dit is na kritiek omdat er fouten in de artikelen stonden. Bovendien was men niet transparant over het gebruik van AI zoals ChatGPT voor deze artikelen.

CNET betrapt op het gebruik van AI zoals ChatGPT voor hun teksten

Uit de hand gelopen experiment

De hoofdredacteur van CNET, een Amerikaans nieuwsportaal, beschouwt teksten geschreven door kunstmatige intelligentie als een experiment en heeft aangegeven dat de technologie verder zal worden getest. Er zijn echter al enkele dagen geen artikelen gepubliceerd die op deze manier zijn geschreven, de meest recente dateren van vorige vrijdag.

Een eerder prominent geadverteerde tekst is nu volledig gecorrigeerd. Hoofdredacteur Connie Guglielmo van CNET heeft geen opmerkingen gemaakt over de kritiek dat het gebruik van de AI-tekstgenerator weinig transparant was. De technologie wordt nu verder getest “om te onderscheiden tussen hype en werkelijkheid”.

CNET gebruikt AI voor publicatie van artikelen, ondanks kritiek op fouten

Het Amerikaanse technologieportaal CNET had gedurende enkele weken artikelen gepubliceerd die door kunstmatige intelligentie waren geschreven. Guglielmo legt nu uit dat de AI-tool informatie verzamelde voor de adviesartikelen en dat net als alle andere artikelen, de teksten werden nagekeken en bewerkt door een professionele redacteur.

CNET blijft AI gebruiken voor verhalen, maar benadrukt controle en correctie van fouten

CNET gebruikt diverse tools en technologie om verhalen te creëren, maar dit verandert niets aan de manier waarop de artikelen gecontroleerd en geredigeerd worden. Als er later fouten worden gevonden, worden deze gecorrigeerd. In het geval van een van de door Guglielmo gelinkte artikelen was een uitgebreide correctie nodig. Zoals nu vermeld staat in de toelichting over samengestelde rente, stond eerder dat met een spaarsaldo van 10.000 dollar en een rente van 3% aan het einde van het eerste jaar, je 10.300 dollar zou kunnen verdienen, maar dit is niet correct, het moet $300 zijn.


Gratis het laatste nieuws ontvangen over ChatGPT? Schrijf je in voor de nieuwsbrief:

Ontvang elke week het laatste IT-nieuws, de handigste tips en speciale aanbiedingen.

”Cruciale fouten”ontdekt volgens Futurism

Het Amerikaanse portaal Futurism heeft meerdere fouten ontdekt in dezelfde tekst die door CNET gepubliceerd werd. Sommige hiervan zijn eenvoudige fouten die deskundigen meteen zouden herkennen, maar het adviesartikel richt zich voornamelijk op mensen met weinig voorkennis en voor hen kunnen deze fouten problematisch zijn.

De zelfverzekerde presentatie van fouten door ChatGPT leidt tot problemen

Daarnaast presenteert de kunstmatige intelligentie de fouten met een aanzienlijke zelfverzekerdheid. Bijvoorbeeld, ChatGPT werd betrapt op het verstrekken van niet-bestaande bronnen wanneer er om ondersteunend bewijs werd gevraagd. Zo heeft Buzzfeed de ChatGPT bot laten schrijven over de AI-teksten van CNET en moest de opdracht meerdere keren aanpassen “om feitelijke fouten te voorkomen”.

Gebruik van geautomatiseerde artikelen in het verleden

Al met al is het idee van geautomatiseerde artikelen niet nieuw, maar met de komst van ChatGPT is het onderwerp recentelijk relevant geworden. Al jaren worden er artikelen gepubliceerd die deels geautomatiseerd zijn, zoals aardbevingswaarschuwingen of samenvattingen van jaarverslagen. In deze artikelen worden alleen bepaalde nummers en termen op de juiste plaatsen ingevoegd. CNET, daarentegen, liet volledige teksten over een grote diversiteit aan onderwerpen door de AI genereren.

Lees meer over kunstmatige intelligentie in c't 05/2024

Deel dit artikel

Elwin Hodžić
Elwin Hodžić(Web)redacteur bij c't. Ondanks de studie geschiedenis, altijd al een passie gehad voor alles wat met IT te maken heeft. Sleutelt in zijn vrije tijd graag aan pc’s, van de hardware tot het uitpluizen van de BIOS-instellingen om een pc zo optimaal mogelijk te laten werken.

Lees ook

ChatGPT: malware laten programmeren door de bot van OpenAI

Volgens beveiligingsonderzoekers kunnen cybercriminelen gebruikmaken van de ChatGPT bot van OpenAI om malware te produceren. De eerste pogingen hierto...

Kunstmatige intelligentie en praktische problemen

De meeste succesverhalen over AI zijn oppervlakkig en er wordt verzwegen waar er overal nog problemen zijn bij kunstmatige intelligentie. Zo kan bias ...

0 Praat mee
avatar
  Abonneer  
Laat het mij weten wanneer er