ĢƵ

Onderwijs Onderzoek Actueel ĢƵ EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Biodiversiteit aan de VU
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Organisatie Samenwerking Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

Moreel beraad over AI aan de ĢƵ

Delen
2 december 2025
Twee middagen lang gingen VU-onderwijsmedewerkers met elkaar in gesprek tijdens morele beraden over Kunstmatige Intelligentie (AI): één over AI-tutorbots en één over AI bij nakijken. Geen pitches over tools of lijstjes met do’s & don’ts, maar een bewuste vertraging van het gesprek: “AI roept technische en didactische vragen op, maar vooral morele.”

“Wat bedoelen we eigenlijk als we zeggen: ‘we moeten hier iets mee’?” vraagt Arjen Heijstek, procesregisseur Ondersteunen Doceren en Leren, die de morele beraden mede organiseerde. “Wat betekent AI voor gelijkwaardigheid, beroepsethiek, onze academische waarden? AI roept niet alleen technische of didactische vragen op, maar vooral morele.” 

In groepen van circa vijftien onderwijsmedewerkers – uit verschillende faculteiten, diensten en functies – gingen VU-collega’s met elkaar in gesprek over deze vragen. 

“Veel deelnemers verwachtten iets als een commissie die gewoon ‘ja’ of ‘nee’ zegt”, vertelt gespreksleider en onderwijsspecialist Lucho Rubio Repáraz bij het VU Centre for Teaching & Learning (CTL). “Maar een moreel beraad werkt anders. Je onderzoekt samen wat we belangrijk vinden en wat goed onderwijs vraagt.” 

Moreel beraad 1: AI-tutorbots

De eerste sessie begon met de vraag: moeten we een AI-tutorbot inzetten? Zo’n digitale assistent kan studenten 24/7 helpen met vragen over de stof of hun studie. Maar al snel schoof het gesprek op naar de grotere kwesties: wie is er verantwoordelijk als we AI in ons onderwijs toelaten? En waar ligt de grens van onze eigen verantwoordelijkheid? 

Docent, beleidsmaker of universiteit? 
Tijdens het moreel beraad bracht iedereen een eigen perspectief over wat verantwoordelijk is, en soms liepen de invullingen over wat dit woord betekent sterk uiteen. Voor de een betekende het: zorgen voor studenten en voorkomen dat ze afhankelijk worden van AI. Voor een ander ging het om het bewaken van kwaliteit: hoe houden we feedback, opdrachten en toetsen waardevol in een tijd van AI? En wie draagt die eindverantwoordelijkheid eigenlijk: de docent, de beleidsmaker of de universiteit als geheel? 

Experimenten vs. afhankelijkheid Big Tech  
Voor sommigen betekende verantwoordelijkheid juist: durven experimenteren met AI. “We moeten studenten voorbereiden op een toekomst waarin AI een rol speelt, en dus moeten we ermee experimenteren, ermee leren werken”, klonk het. Anderen waren kritischer en wezen op risico’s zoals bevooroordeelde algoritmes, grotere ongelijkheid en het risico dat het onderwijs afhankelijk wordt van Big Tech. “Vooruitgang is niet vanzelf goed”, zei een deelnemer. “Als we zomaar meebewegen met een hype zonder goed na te denken, kunnen de gevolgen groot zijn.” 

Moreel beraad 2: AI en nakijken

De tweede sessie begon met een herkenbaar dilemma: een docent moet 200.000 woorden aan essays nakijken in tien dagen. Mag hij AI inzetten om dat werk te verlichten en wil hij dat eigenlijk wel?

Tijd over voor menselijk contact 
Voor veel docenten raakt feedback geven aan hun beroepsethiek: “Ik zie het als vakmanschap en mijn verantwoordelijkheid als begeleider”, vertelt een docent. Ze willen feedback geven die persoonlijk, inhoudelijk en verantwoord is. Tegelijkertijd is de werkdruk hoog. “En als AI me helpt om efficiënter te werken, houd ik tijd over voor menselijk contact.” 

Studentenperspectief 
Studenten brachten een ander perspectief in: “Als de feedback inhoudelijk klopt, maakt het me niet uit wie het geeft. Maar de docent moet er wel achter staan, als eindverantwoordelijke.” Sommige studenten kregen nu helemaal geen feedback door tijdgebrek. “In dat licht is AI misschien niet het grootste risico; geen feedback is dat wel.” 

Het gesprek verschoof naar bredere vragen: wat betekent feedback geven voor de rol van de docent? Wat is goede feedback? Wat is de plek van schrijven, nu AI meeschrijft? Hoe bereiden we studenten voor op een toekomst die we zelf nog niet goed overzien? En overschatten we de impact van AI? 

Lijnrecht tegenover elkaar, of toch niet? 
Wat op het eerste gezicht tegengestelde perspectieven leken, bleek vaak geworteld in gedeelde zorgen. “Deelnemers dachten aan het begin van de sessie dat ze lijnrecht tegenover elkaar stonden”, zegt Lucho Rubio. “Totdat ze hoorden waar de ander wakker van ligt. Blijf dit soort gesprekken vooral voeren, ook buiten het AI-domein. Niet om het overal over eens te worden, maar om de verschillende perspectieven op een fenomeen samen te verkennen en te blijven nadenken over wat goed onderwijs is.” 

Plan ook een moreel beraad

Overweeg je een moreel beraad over AI, of een ander complex thema binnen je team of opleiding? Het VU Centre for Teaching and Learning helpt je graag bij de voorbereiding en begeleiding. Mail naar: ctl@vu.nl.  

Onderwijs geven aan de VU

VU EduNews & Stories

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

ĢƵ

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookie instellingen Webarchief

Copyright © 2025 - ĢƵ