“Wat bedoelen we eigenlijk als we zeggen: ‘we moeten hier iets mee’?” vraagt Arjen Heijstek, procesregisseur Ondersteunen Doceren en Leren, die de morele beraden mede organiseerde. “Wat betekent AI voor gelijkwaardigheid, beroepsethiek, onze academische waarden? AI roept niet alleen technische of didactische vragen op, maar vooral morele.”
In groepen van circa vijftien onderwijsmedewerkers – uit verschillende faculteiten, diensten en functies – gingen VU-collega’s met elkaar in gesprek over deze vragen.
“Veel deelnemers verwachtten iets als een commissie die gewoon ‘ja’ of ‘nee’ zegt”, vertelt gespreksleider en onderwijsspecialist Lucho Rubio Repáraz bij het VU Centre for Teaching & Learning (CTL). “Maar een moreel beraad werkt anders. Je onderzoekt samen wat we belangrijk vinden en wat goed onderwijs vraagt.”
Moreel beraad 1: AI-tutorbots
De eerste sessie begon met de vraag: moeten we een AI-tutorbot inzetten? Zo’n digitale assistent kan studenten 24/7 helpen met vragen over de stof of hun studie. Maar al snel schoof het gesprek op naar de grotere kwesties: wie is er verantwoordelijk als we AI in ons onderwijs toelaten? En waar ligt de grens van onze eigen verantwoordelijkheid?
Docent, beleidsmaker of universiteit?
Tijdens het moreel beraad bracht iedereen een eigen perspectief over wat verantwoordelijk is, en soms liepen de invullingen over wat dit woord betekent sterk uiteen. Voor de een betekende het: zorgen voor studenten en voorkomen dat ze afhankelijk worden van AI. Voor een ander ging het om het bewaken van kwaliteit: hoe houden we feedback, opdrachten en toetsen waardevol in een tijd van AI? En wie draagt die eindverantwoordelijkheid eigenlijk: de docent, de beleidsmaker of de universiteit als geheel?
Experimenten vs. afhankelijkheid Big Tech
Voor sommigen betekende verantwoordelijkheid juist: durven experimenteren met AI. “We moeten studenten voorbereiden op een toekomst waarin AI een rol speelt, en dus moeten we ermee experimenteren, ermee leren werken”, klonk het. Anderen waren kritischer en wezen op risico’s zoals bevooroordeelde algoritmes, grotere ongelijkheid en het risico dat het onderwijs afhankelijk wordt van Big Tech. “Vooruitgang is niet vanzelf goed”, zei een deelnemer. “Als we zomaar meebewegen met een hype zonder goed na te denken, kunnen de gevolgen groot zijn.”
Moreel beraad 2: AI en nakijken
De tweede sessie begon met een herkenbaar dilemma: een docent moet 200.000 woorden aan essays nakijken in tien dagen. Mag hij AI inzetten om dat werk te verlichten en wil hij dat eigenlijk wel?
Tijd over voor menselijk contact
Voor veel docenten raakt feedback geven aan hun beroepsethiek: “Ik zie het als vakmanschap en mijn verantwoordelijkheid als begeleider”, vertelt een docent. Ze willen feedback geven die persoonlijk, inhoudelijk en verantwoord is. Tegelijkertijd is de werkdruk hoog. “En als AI me helpt om efficiënter te werken, houd ik tijd over voor menselijk contact.”
Studentenperspectief
Studenten brachten een ander perspectief in: “Als de feedback inhoudelijk klopt, maakt het me niet uit wie het geeft. Maar de docent moet er wel achter staan, als eindverantwoordelijke.” Sommige studenten kregen nu helemaal geen feedback door tijdgebrek. “In dat licht is AI misschien niet het grootste risico; geen feedback is dat wel.”
Het gesprek verschoof naar bredere vragen: wat betekent feedback geven voor de rol van de docent? Wat is goede feedback? Wat is de plek van schrijven, nu AI meeschrijft? Hoe bereiden we studenten voor op een toekomst die we zelf nog niet goed overzien? En overschatten we de impact van AI?
Lijnrecht tegenover elkaar, of toch niet?
Wat op het eerste gezicht tegengestelde perspectieven leken, bleek vaak geworteld in gedeelde zorgen. “Deelnemers dachten aan het begin van de sessie dat ze lijnrecht tegenover elkaar stonden”, zegt Lucho Rubio. “Totdat ze hoorden waar de ander wakker van ligt. Blijf dit soort gesprekken vooral voeren, ook buiten het AI-domein. Niet om het overal over eens te worden, maar om de verschillende perspectieven op een fenomeen samen te verkennen en te blijven nadenken over wat goed onderwijs is.”
Plan ook een moreel beraad
Overweeg je een moreel beraad over AI, of een ander complex thema binnen je team of opleiding? Het VU Centre for Teaching and Learning helpt je graag bij de voorbereiding en begeleiding. Mail naar: ctl@vu.nl.