Docent waarschuwt nieuwe lichting studenten: 'Gebruik ChatGPT niet'

maandag, 1 september 2025 (07:44) - de Stentor

In dit artikel:

Tom van Dijk, docent Computer Science aan de Universiteit Twente, waarschuwt vlak voor de start van het collegejaar dat studenten te veel leunen op ChatGPT en vergelijkbare taalmodellen. Waar hij vorig jaar nog veel vragen rechtstreeks van studenten kreeg, merkt hij nu vooral stilte: veel studenten laten AI het voorwerk doen. Van Dijk vermoedt dat ongeveer tachtig procent van zijn eerstejaars (hij krijgt er dit jaar 280) AI gebruikt om taken te klaren. Zijn zorg: het gemak ondermijnt het leerproces, leidt tot uniforme, "kleurloze" werkstukken en verhindert dat studenten echt leren analyseren, programmeren en creatief denken.

Als reactie heeft de opleiding Computer Science van de UT toetsen en beoordeling aangepast. Projecten worden niet langer met cijfers als 6 of 8 beoordeeld maar met een pass/fail-systeem om AI-opgepoetste inzendingen minder aantrekkelijk te maken. Daarnaast wordt meer geleerd en getoetst in gesuperviseerde of afgesloten situaties — schriftelijke tentamens en mondelinge examens — waar AI geen hulp kan bieden. Programmadirecteur Vadim Zaytsev benadrukt dat het niet alleen om het eindresultaat mag gaan; studenten moeten kunnen aantonen dat zij de onderliggende principes en keuzes begrijpen. Scripties blijven voorlopig onderdeel van het curriculum; studenten moeten nog steeds eigen onderzoek doen en data analyseren, aldus adviseur Robin van Emmerloot.

Op bedrijfsniveau rukt AI ook op — bedrijven als Nedap gebruiken het al voor programmeertaken — maar Van Dijk wijst op praktische beperkingen: onveilige of foutieve code, datalekken en het risico op 'hallucinaties'. Hij gelooft dat ervaren programmeurs die kritisch kunnen beoordelen noodzakelijk blijven.

Hogeschool Saxion kiest een andere, meer open benadering: AI-tools mogen worden gebruikt onder strikte voorwaarden. Studenten moeten gebruik transparant maken inclusief gebruikte prompts; docenten toetsen en passen toetsen aan op basis van AI-gedrag (bijvoorbeeld met mondelinge aanvullingen). Saxion vermijdt AI-detectietools vanwege betrouwbaarheid en juridische bezwaren en legt strikte regels op rondom persoonsgegevens, bedrijfsdata en auteursrechtelijk materiaal. Volgens Saxion moet onderwijs studenten leren zowel met als over AI te werken, zodat mens en technologie elkaar versterken zonder het menselijk oordeel te vervangen.