
Hoe GPT-5 de dynamiek verandert
De afspraak was simpel: de arts luistert, de patiënt vertelt. GPT-5 luistert mee, denkt mee en stuurt soms ongemerkt het gesprek. Met aantoonbaar betere prestaties op medische benchmarks zoals HealthBench is het niet langer een neutraal hulpmiddel – het is een machtsfactor in de relatie.
Maar laten we niet naïef zijn. OpenAI claimt minder hallucinaties, minder jaknikkend gedrag en betere instructievolging. Dat is mooi, maar benchmarks zijn geen poli. Tussen “model kan het” en “zorgsysteem doet het” zit governance, context en gedrag.
De empathieparadox
Onderzoek laat zien dat patiënten chatbot-antwoorden soms empathischer vinden dan artsenantwoorden. Dat opent deuren: een rustiger, vollediger gesprek vanaf het begin. Maar het schept ook risico’s: gevoelde empathie kan tekortkomingen in inhoud maskeren of grenzen doen vervagen. Empathie zonder grenzen is geen zorg – het is schijnzekerheid.
Regelgeving en toezicht
Sinds 2 augustus 2025 gelden in Europa GPAI-verplichtingen uit de EU AI Act. Transparantie, logging en audit zijn geen optionele luxe maar wettelijke plicht. De Inspectie Gezondheidszorg en Jeugd (IGJ) vraagt expliciet om zorgvuldige invoering van generatieve AI, met aandacht voor doel, datakwaliteit en risico’s.
Lees ook: AI in de zorg: jou AI collega kent de patiënt beter dan jijzelf
Kansen in de spreekkamer
- Vooraf: GPT-5 vat voorgeschiedenis samen, stelt verdiepende vragen.
- Tijdens: vertaalt jargon naar begrijpelijke taal, zonder haast.
- Na afloop: stelt nazorgbrieven op, checkt begrip, herinnert aan rood-vlag-symptomen.
Als dit goed wordt ingezet, wint de relatie. Gaat het fout, dan schuift AI tussen arts en patiënt in als onzichtbare derde.
De hypefilter
Sommigen noemen GPT-5 “overhyped” of “benchmark-maxxing”. Dat is nuttige ruis. Het dwingt om voorbij de demo te kijken en lokaal te meten: wat doet het met vertrouwen, begrip en veiligheid in jóuw populatie en setting?
Lees ook: De beste arts is geen mens – maar ook geen machine
Slot
De vraag is niet of GPT-5 artsen vervangt – dat doet het niet. De vraag is of het onze relatie met patiënten verandert. Dat doet het wél. Transparantie, duidelijke grenzen en lokaal bewijs maken het verschil tussen GPT-5 als katalysator voor beter gesprek of als sluier die ertussen schuift.
Lees ook: Waarom AI negeren netto dom is als een paraplu weggooien in een regenstorm
Veelgestelde vragen over GPT-5 in de arts-patiëntrelatie
1. Vervangt GPT-5 de arts?
Nee. GPT-5 kan consulten voorbereiden, jargon vertalen en nazorg verbeteren, maar blijft afhankelijk van de klinische context en beoordeling door een mens. Het is een hulpmiddel, geen vervanger.
2. Hoe beïnvloedt GPT-5 het vertrouwen van patiënten?
Dat hangt af van transparantie. Als patiënten weten wanneer en hoe GPT-5 wordt gebruikt, kan het vertrouwen toenemen. Gebeurt dit stiekem of zonder uitleg, dan kan het juist afnemen.
3. Wat zegt de wet over GPT-5 in de zorg?
In de EU geldt de AI Act: sinds 2 augustus 2025 moeten aanbieders van grote AI-modellen transparant zijn. In de zorg vraagt de Inspectie Gezondheidszorg en Jeugd (IGJ) om zorgvuldige invoering, met duidelijke doelen, risicoanalyse en controle.