Elon Musk waarschuwt dat ChatGPT gebruikers verslaafd maakt. Sam Altman, CEO van OpenAI, pareert die kritiek en wijst op cijfers die het tegendeel aantonen. Volgens hem gaat het om een minieme minderheid.
Volgens Altman gaat het om minder dan 1% van de gebruikers die tekenen van overmatig gebruik vertonen. De meeste mensen gebruiken ChatGPT net als een hulpmiddel: om sneller te werken, te leren of creatief te schrijven. Toch raakt de discussie een gevoelige snaar, want de grens tussen nuttig gebruik en afhankelijkheid blijft moeilijk te trekken.
Altman nuanceert met cijfers
Minder dan 1% van de gebruikers vertoont signalen van overmatig gebruik. Volgens onder meer Forbes en Sherwood News gebruikt de overgrote meerderheid ChatGPT op een functionele en gematigde manier. OpenAI voert daarnaast intern toezicht op langdurig gebruik en onderzoekt de ethische grenzen daarvan.
Altman voegt eraan toe dat de meeste interacties kort en praktisch zijn. Studenten gebruiken ChatGPT om moeilijke concepten beter te begrijpen, ondernemers om sneller teksten op te stellen en programmeurs om code te testen.
Wat zegt Musk precies?
Musk waarschuwt al langer voor de maatschappelijke risico’s van kunstmatige intelligentie. Volgens de Wall Street Journal en Reuters vreest hij dat mensen te afhankelijk kunnen worden van AI en dat langdurige interacties met chatbots emotionele of sociale effecten kunnen hebben. Ook wijst hij geregeld op privacyrisico’s: wie persoonlijke gesprekken voert met een AI, deelt gevoelige informatie die in theorie misbruikt kan worden door bedrijven of overheden.
Zijn kritiek past in een breder patroon. In een interview met Time (2023) stelde Musk dat geavanceerde AI de rol van menselijke arbeid en interactie kan ondermijnen. Sinds zijn vertrek bij OpenAI uit hij daarom geregeld zorgen over de koers van het bedrijf en over de bredere impact van kunstmatige intelligentie op de samenleving, gaande van privacy tot geopolitieke macht en het behoud van menselijke controle.
Wat doet OpenAI om misbruik te voorkomen?
OpenAI probeert deze kritiek te counteren door te tonen dat het gebruik van ChatGPT actief wordt gemonitord. Anonieme gebruiksdata worden geanalyseerd om patronen van extreem lang of obsessief gebruik te detecteren. Daarnaast volgt een interne ethische commissie hoe de tool wordt ingezet door verschillende doelgroepen.
Een van de gevoeligste punten is het gebruik door jongeren. Daarom test OpenAI mechanismen zoals tijdslimieten of waarschuwingen bij te intensief gebruik. Altman stelt dat dit vergelijkbaar is met hoe sociale media limieten introduceren voor schermtijd. Het doel is niet om vrijheid te beperken, maar om vroegtijdig signalen van afhankelijkheid te ondervangen.
Hij benadrukt dat OpenAI hierin transparant wil zijn. Er wordt samengewerkt met externe onderzoekers en universiteiten om de effecten van langdurig gebruik in kaart te brengen. Volgens Altman toont dit dat OpenAI niet blind is voor mogelijke risico’s, maar actief zoekt naar oplossingen.
Complexe discussie
Hoewel minder dan 1% problematisch gebruik vertoont, blijft de discussie gevoelig. Voorstanders zien ChatGPT als een neutrale productiviteitstool, terwijl critici zoals Musk waarschuwen voor emotionele en sociale effecten. Altman wil tegelijk geruststellen en verantwoordelijkheid nemen, maar de ethische discussie over AI-gebruik zal niet snel verstommen.