Hoe om te gaan met ethische dilemma's bij innovatie in de zorg?

Tenzinger | JEpodcast

Tenzinger Talk

Hoe om te gaan met ethische dilemma's bij innovatie in de zorg?

Tenzinger Talk

Dit is Tenzinger Talk, de podcast van en voor zorgverslimmers.

This is Tenzinger Talk, the podcast by and for care innovators.

We praten met experts over de kansen en oplossingen die zij zien om de zorg te verslimmen.

We are talking to experts about the opportunities and solutions they see for smartening up healthcare.

Want in de toekomst is er meer tijd, aandacht en geld voor zorg als we nu verslimmen.

Because in the future there will be more time, attention, and money for care if we become smarter now.

Word zelf slimmer, luister mee.

Become smarter yourself, listen along.

Mijn naam is Melina Geluk, welkom bij Tenzinger Talk.

My name is Melina Geluk, welcome to Tenzinger Talk.

TENZINGER TALK

TENZINGER TALK

Marike, welkom in de studio.

Marike, welcome to the studio.

Dankjewel, Willië.

Thank you, Willië.

Doei.

Goodbye.

Dankjewel.

Thank you.

Karin, jij hebt een achtergrond in sociale wetenschappen en bent nu bezig met een proefschrift met als thema implementeren van innovaties in de GGZ.

Karin, you have a background in social sciences and are currently working on a thesis with the theme of implementing innovations in mental health care.

Kun je ons daar iets over vertellen?

Can you tell us something about that?

Jazeker.

Certainly.

Ik ben inderdaad bezig met een proefschrift over verandering en het implementeren van die verandering binnen de GGZ.

I am indeed working on a dissertation about change and implementing that change within mental healthcare.

De GGZ is best een heel complex landschap waarin bijvoorbeeld alleen al het concept mentaal gezondheid,

The mental health care system is quite a complex landscape, for instance, just the concept of mental health,

mens zijn en mentaal ziek zijn ingewikkeld is.

Being human and being mentally ill is complex.

Afhangt van heel veel verschillende factoren die mensen meemaken, die mensen met zich meedragen.

Depends on many different factors that people experience, that people carry with them.

Tegelijkertijd hebben we de zorg voor mensen met psychische problematiek ook ingewikkeld gemaakt.

At the same time, we have also complicated the care for people with mental health issues.

Veel echelons, veel verschillende organisaties.

Many echelons, many different organizations.

En we zien dat mentale gezondheid enorm beïnvloed wordt door allerlei maatschappelijke ontwikkelingen die onontkoombaar zijn en waarmee we te dealen hebben.

And we see that mental health is greatly influenced by various societal developments that are inevitable and that we have to deal with.

En wat ik probeer te leren in mijn proefschrift is hoe kunnen we nou veranderen?

And what I am trying to learn in my thesis is how can we change?

Binnen die complexe en continu veranderende omgeving, om verandering sneller te laten slagen en vaker te laten slagen.

Within that complex and continuously changing environment, to make change succeed faster and more often.

En de hypothese is eigenlijk dat de manier waarop we nu vaak veranderen, statisch en planmatig, daar minder goed bij past.

And the hypothesis is actually that the way we often change now, statically and according to a plan, is less suited to that.

En uiteraard is data een heel belangrijke component bij het innoveren door de mogelijkheden van nu en ben ik daar ongelooflijk in geïnteresseerd.

And of course, data is a very important component in innovating through the possibilities of today, and I am incredibly interested in that.

Ja, en je gebruikt het ook veel in je werk denk ik.

Yes, and I think you use it a lot in your work as well.

Je bent nu teamlead innovatie bij het UMC Utrecht.

You are now team lead of innovation at UMC Utrecht.

Ja.

Yes.

Aan wat voor soort project werk je op dit moment?

What kind of project are you working on at the moment?

Ja, ik ben inderdaad ook teamleider innovatie op de afdeling psychiatrie en een van de innovatielijnen is data science in de psychiatrie.

Yes, I am indeed also the team leader for innovation in the psychiatry department, and one of the innovation lines is data science in psychiatry.

En ons PsyData team gebruikt eigenlijk data uit ons elektronische patiëntendossier op een slimme manier om zorg te verbeteren.

And our PsyData team actually uses data from our electronic patient records in a smart way to improve care.

Bijvoorbeeld door te voorspellen welke patiënten grote kansen hebben om op te knappen van bepaalde behandelingen.

For example, by predicting which patients have a good chance of recovering from certain treatments.

Of bijvoorbeeld om te voorspellen welke patiënten de kans groot is dat ze agressie gaan laten zien, zodat we de zorg daar ook beter op kunnen inrichten.

For example, to predict which patients are likely to exhibit aggression, so we can better tailor the care accordingly.

Interessant.

Interesting.

Marieke, jij bent functionaris gegevensbescherming bij Tenzinger en dus ook voor de data scale op zes gorilla's.

Marieke, you are the data protection officer at Tenzinger and therefore also for the data scale of six gorillas.

Innoveren met data is een van Tenzingers grootste speerpunten.

Innovating with data is one of Tenzinger's main priorities.

Kun je iets vertellen over jouw rol daarin?

Can you tell me something about your role in it?

Jazeker Eveline, kan ik dat.

Yes, Eveline, I can do that.

Nou, als functionaris gegevensbescherming is je belangrijkste rol daarin.

Well, as a data protection officer, your primary role in that is.

Ja, zeker Eveline, kan ik dat.

Yes, of course Eveline, I can do that.

Als functionaris gegevensbescherming is je belangrijkste rol daarin.

As a data protection officer, your primary role is in that.

Door je onaandoening te zien op het rechtmatige gebruik van data

By seeing your condition on the rightful use of data.

binnen de organisatie.

within the organization.

Nou, dat is bij Tenzinger een prachtige rol.

Well, that is a magnificent role at Tenzinger.

Wij hebben natuurlijk ontzettend veel data en innovatie is een ontzettend belangrijk speerpunt.

Of course, we have a tremendous amount of data, and innovation is an incredibly important focus area.

Mensen willen die data die beschikbaar zijn gebruiken om de zorg te verslimmen.

People want to use the available data to make healthcare smarter.

En daar gaat het om hoe doen we dat,

And that's about how we do that,

en hoe doen we dat op een goede manier.

And how do we do that in a good way?

Op een rechtmatige manier.

In a lawful manner.

Samen met studenten en leiders.

Together with students and leaders.

Outdoorlopen Bellevue die minder jaren tele hydrateda.

Outdoor running Bellevue that has less years dehydrated.

Of kijkend naar de belangen van onze opdrachtgevers.

Or looking at the interests of our clients.

Kijkend naar de belangen van cliënten en patiënten.

Looking at the interests of clients and patients.

En als FG ben je dan vaak een kritische luizende pels.

And as an FG, you are often a critical louse in the fur.

Je stelt lastige vragen.

You ask difficult questions.

Mensen vinden het vaak ingewikkeld om daar antwoorden op te geven.

People often find it complicated to give answers to that.

Maar het is wel ontzettend belangrijk dat je die vragen stelt.

But it is very important that you ask those questions.

En het gesprek aangaat met juist de innovatieve teams binnen onze organisatie.

And engages in conversation with the innovative teams within our organization.

En dan is de uitdaging om ervoor te zorgen.

And then the challenge is to ensure.

Dat we samen op de goede manier met data innovatieve ontwikkelingen inzetten.

That we together use data in the right way for innovative developments.

En dat ik als FG die innovatie niet blokkeer.

And that I, as FG, do not block that innovation.

Het wordt een interessant gesprek.

It will be an interesting conversation.

Jullie werken natuurlijk allebei heel intensief met data.

Of course, you both work very intensively with data.

Maar vanuit een totaal andere rol.

But from a completely different role.

En jullie komen elkaar in de dagelijkse praktijk natuurlijk ook tegen.

And you encounter each other in daily practice, of course.

Karin, jij komt ongetwijfeld regelmatig een luizende pels.

Karin, you undoubtedly come across a lice-infested fur regularly.

Zoals Marieke zichzelf noemt, tegen.

As Marieke calls herself, against.

En andersom, Marieke, zie jij ook...

And conversely, Marieke, do you also see...

ook vaak de innovatiemanager die juist heel veel tempo wil maken.

also often the innovation manager who wants to make a lot of progress quickly.

Maar voordat we nu verder gaan...

But before we continue now...

wil ik jullie eerst nog vragen of jullie de afgelopen week...

I would like to ask you first if you... over the past week.

misschien iets heel slims hebben gezien.

maybe seen something very clever.

Wat ook inspirerend zou kunnen zijn voor de zorg.

What could also be inspiring for healthcare.

Karin, heb jij iets slims gezien afgelopen week?

Karin, have you seen anything clever last week?

Nou, wij hadden toevallig een barbecue afgelopen week.

Well, we happened to have a barbecue last week.

En wat mij daar zo enorm opviel...

And what struck me so much about that...

was dat er een iemand een partytent mee had genomen...

was there someone who had brought a party tent...

die je eigenlijk met één persoon op kon zetten.

that you could actually set up with just one person.

We kennen allemaal dat gehandels met palen en doeken wel.

We all know that trading with poles and cloths well.

En eigenlijk was deze tent zo ontworpen...

And actually, this tent was designed like this...

in een harmonica-vorm die je uit elkaar kon trekken.

in a harmonica shape that you could pull apart.

En dat je al heel laag het doek erop kon spannen.

And that you could stretch the fabric very low.

Zodat zelfs ik, ik ben nogal klein...

So even I, I am quite small...

die tent eigenlijk heel makkelijk op kon zetten.

that tent could actually be set up very easily.

En wat ik er zo slim aan vond...

And what I found so clever about it...

is dat het design heel erg uitnodigd...

is that the design is very inviting...

om er op een makkelijke manier gebruik van te maken.

to use it in an easy way.

Dus ik vond het een hele slimme partytent.

So I thought it was a very clever party tent.

Ja, en is die ook meerdere keren te gebruiken?

Yes, and can it be used multiple times?

Zeker, ja.

Sure, yes.

Is het ook nog een beetje duurzaam?

Is it also a bit sustainable?

Het is super duurzaam.

It is super sustainable.

En heel veel gasten, ook bij ons, die zeiden allemaal van...

And a lot of guests, including us, all said...

nou, dat is nog eens een handig apparaat.

Well, that's quite a handy device.

Ja, leuk.

Yes, nice.

Marieke, heb jij iets slims gezien?

Marieke, have you seen something clever?

Ik heb wat slims gelezen in de krant.

I've read some clever things in the newspaper.

Ik had hem niet gezien, maar het was een heel leuk plaatje.

I hadn't seen it, but it was a very nice picture.

Het was van een robot.

It was from a robot.

En dat was een robot die was ontwikkeld met ChatGPT.

And that was a robot that was developed with ChatGPT.

Dus dat vond ik wel grappig.

So I found that quite funny.

Ik denk, als normaal gesproken met het in elkaar zetten van een robot...

I think, when normally assembling a robot...

heb je toch echt mensenhanden nodig?

Do you really need human hands?

Maar er waren wetenschappers geweest die hadden...

But there had been scientists who had...

gewoon eigenlijk middels het stellen van vragen in ChatGPT...

just actually by asking questions in ChatGPT...

eigenlijk op basis van die antwoorden een robot ontwikkeld.

actually developed a robot based on those answers.

En dat was een apparaat dat dus inderdaad zelf kon zien...

And that was a device that could indeed see by itself...

wanneer tomaten rijp waren en wanneer die dus geplukt moesten worden.

when the tomatoes were ripe and when they needed to be harvested.

Dus ik vond het wel heel grappig hoe je inderdaad...

So I found it really funny how you indeed...

eigenlijk een mensenhandenwerk door zo'n robot uit handen kunt nemen...

actually a manual task that you can take out of human hands with such a robot...

maar dat ook gelijk ontwikkeld op basis van iets wat net nieuw...

but that also developed immediately based on something that was just new...

de lucht in is gegooid, ChatGPT.

The sky has been thrown up, ChatGPT.

En dan denk je, hoe snel kun je zoiets ontwikkelen...

And then you think, how quickly can you develop something like this...

met deze technologie?

with this technology?

Dat vind ik wel heel grappig.

I find that very funny.

Een tomatenplukrobot dus.

A tomato picking robot, then.

Een tomatenplukrobot, ja.

A tomato picking robot, yes.

Grappig.

Funny.

Nou, dan gaan we nu echt beginnen.

Well, then let's really get started now.

Marieke, wat is dataethiek eigenlijk?

Marieke, what is data ethics actually?

Ja, Wiline, dat is een hele moeilijke vraag.

Yes, Wiline, that is a very difficult question.

Wat is dataethiek?

What is data ethics?

Bij dataethiek gaat het vooral om het stellen van vragen.

Data ethics primarily revolves around asking questions.

En die vragen zijn er eigenlijk op gericht om te achterhalen...

And those questions are actually aimed at uncovering...

wanneer je het goede doet.

when you do the right thing.

Bij de ethiek draait het natuurlijk om van...

In ethics, it is of course about...

wat doe je en wanneer doe je het goede?

What do you do and when do you do the right thing?

En dat zijn hele ingewikkelde vragen.

And those are very complicated questions.

Ik merk vaak als ik met mensen over een gesprek ga...

I often notice when I engage in a conversation with people...

dat mensen graag antwoorden willen.

that people are eager to receive answers.

Bij ethiek gaat het juist om het stellen van kritische vragen.

Ethics is precisely about asking critical questions.

Waarom doe je iets?

Why do you do something?

Kun je uitleggen wat je doet?

Can you explain what you do?

Welk verhaal hoort erbij?

What story goes with it?

En kun je voor jezelf verantwoorden wat jij doet met data?

And can you justify to yourself what you do with data?

Dus als je dan hebt over data van...

So if you are talking about data from...

hé, welke data heb ik nodig?

Hey, what data do I need?

Waarom heb ik het nodig?

Why do I need it?

Welke impact heeft dit op cliënten?

What impact does this have on clients?

Als ik met hun data aan de slag ga om innovatie toe te passen?

If I start working with their data to apply innovation?

Kom ik tot discriminerende uitkomsten of niet?

Am I arriving at discriminatory outcomes or not?

En wat doe ik daarmee?

And what do I do with that?

Dus dataethiek is vooral een kwestie van vragen stellen.

So data ethics is mainly about asking questions.

Ja, maar als we het over data hebben...

Yes, but when we talk about data...

dan zien we data ook vooral als een bron van kansen om te innoveren.

Then we see data mainly as a source of opportunities to innovate.

Toch, Karin?

Right, Karin?

Nee, zeker.

No, certainly not.

Ik denk dat we data ook nodig hebben om tot innovatie...

I think we also need data to achieve innovation...

te komen.

to come.

Data, als je daar goed mee omgaat...

Data, if you handle it well...

dan bevalt het informatie en kennis daarmee.

then it pleases the information and knowledge with that.

En daarmee kun je leren en verbeteren.

And with that, you can learn and improve.

En wat denk ik bijvoorbeeld in het domein van de mentale gezondheid...

And what I think, for example, in the domain of mental health...

vooral de kansen van meer data is...

especially the opportunities of more data are...

dat we bijvoorbeeld veel meer informatie van mensen...

that we, for example, have much more information about people...

in hun eigen omgeving...

in their own environment...

bijvoorbeeld met smartwatches...

for example with smartwatches...

real-life, real-time informatie kunnen toevoegen...

adding real-life, real-time information...

aan het beeld wat je van iemand bijvoorbeeld in de spreekkamer krijgt.

based on the image you get of someone, for example, in the consultation room.

En tegelijkertijd weten we ook dat ieder individu is anders...

And at the same time, we also know that each individual is different...

en reageert ook anders op behandelingen.

and also responds differently to treatments.

En je kunt alleen maar iets zinnigs zeggen over...

And you can only say something meaningful about...

hoe iemand gaat reageren op behandeling...

how someone will react to treatment...

of een bepaald ziektebeeld heeft...

or a specific clinical picture has...

als je heel veel verschillende informatie...

if you have a lot of different information...

van veel verschillende mensen daarvoor kunt gebruiken.

you can use for many different people.

En tegenwoordig zijn de computers zo krachtig...

And nowadays the computers are so powerful...

dat je die kunt verwerken.

that you can process it.

En worden die kansen dus werkelijkheid...

And those opportunities become reality...

en kunnen we daar echt gebruik van gaan maken?

And can we really make use of that?

Ja, maar wat jij dus eigenlijk zegt, Marike...

Yes, but what you are actually saying, Marike...

jij onderschrijft ook die mogelijkheden die data biedt.

You also endorse the possibilities that data offers.

Zeker.

Certainly.

Maar stel daarbij kritische vragen.

But ask critical questions while doing so.

Ja, en kijk ook inderdaad...

Yes, and indeed look...

wat je ziet inderdaad, onderzoekers...

what you see indeed, researchers...

mensen die met innovatie aan de slag gaan...

people who engage with innovation...

die willen graag zoveel mogelijk data verzamelen.

they would like to collect as much data as possible.

En die willen daar eigenlijk zoveel mogelijk ook mee kunnen doen.

And they actually want to be able to participate as much as possible in that.

En mijn ervaring is dat het ook wel bij kan dragen...

And my experience is that it can also contribute...

aan echt ook een duurzame oplossing...

and really a sustainable solution...

en een oplossing die ook echt aan het doel bijdraagt...

and a solution that truly contributes to the goal...

wat je hebt eigenlijk vastgesteld als onderzoeker of als organisatie.

what you have actually established as a researcher or as an organization.

Wat ga ik nou precies doen?

What am I going to do exactly?

En wat heb ik daar nou precies voor nodig?

And what exactly do I need that for?

Maar ook welke personen kunnen er allemaal bij die gegevens?

But also, which people can access that data?

Of moet ik misschien een aparte dataset maken die ik anonimiseer...

Or should I perhaps create a separate dataset that I anonymize...

zodat ik extra beveiligingsmaatregelen eigenlijk neem?

so that I actually take extra security measures?

En uiteindelijk, op het moment dat je bijvoorbeeld een algoritme gaat ontwikkelen...

And ultimately, at the moment when you start to develop an algorithm, for example...

op basis van data, kun je uitleggen welke data erin gaat...

Based on data, can you explain which data will be included...?

wat het algoritme doet, wat eruit komt.

what the algorithm does, what comes out.

Het principe van Black Box, wat een aantal jaren geleden prima...

The principle of Black Box, which worked perfectly a few years ago...

of eigenlijk niet prima, maar dat werd geaccepteerd...

or actually not fine, but that was accepted...

van ja, heel veel dingen weten we gewoon nog niet.

Yes, there are still many things we simply do not know.

Dat wordt gewoon steeds meer opengebroken.

That is just increasingly being broken open.

Dus het wordt steeds transparanter.

So it is becoming increasingly transparent.

We kunnen steeds meer uitleggen wat we doen en waarom we het doen.

We can increasingly explain what we do and why we do it.

En ik denk dat dat gewoon heel erg belangrijk is...

And I think that is just very important...

als onderlegger eigenlijk onder de innovatie.

as a basis actually under the innovation.

Ja, je had het net over algoritmes, Marieke.

Yes, you just talked about algorithms, Marieke.

Daar hebben we een mooi dilemma over.

There we have a nice dilemma about.

Want stel, je hebt een algoritme dat zeer complex is...

Because suppose you have an algorithm that is very complex...

en een Black Box qua werking, maar dat aantoonbaar heel goed presteert.

and a Black Box in terms of operation, but one that demonstrably performs very well.

En je hebt een algoritme wat heel eenvoudig is...

And you have an algorithm that is very simple...

en makkelijk uitlegbaar is, maar minder goed performt.

and is easy to explain, but performs less well.

Wat is dan ethisch?

What is then ethical?

Goeie vraag.

Good question.

Zeker.

Sure.

Waar gaat het om?

What is it about?

Als je naar de ethiek kijkt bij zo'n vraagstuk...

When you look at the ethics regarding such an issue...

het is niet zo dat er een goed of fout is.

It's not that there is a right or wrong.

En van, oh ja, nee, dan mag je alleen het eenvoudige algoritme gebruiken...

And from, oh yes, no, then you can only use the simple algorithm...

want dat kun je uitleggen.

because you can explain that.

Ik denk dat het heel erg afhangt van de omstandigheden...

I think it really depends on the circumstances...

en de situatie waarin je dat algoritme toepast...

and the situation in which you apply that algorithm...

en welke data je daarvoor gebruikt.

and what data you use for that.

Ik denk onderdeel van de ethiek is ook dat je in het totale plaatje kijkt...

I think part of ethics is also looking at the big picture...

welke risico's spelen hier.

What risks are involved here?

En op het moment dat je een algoritme niet kunt uitleggen...

And at the moment you cannot explain an algorithm...

of een deel daarvan niet kunt uitleggen...

or if you cannot explain part of it...

maar je bent daar dan wel bijvoorbeeld transparant over...

but you are being transparent about it, for example...

dat dan uiteindelijk degene die dat algoritme wil gaan inzetten...

that ultimately the one who wants to implement that algorithm...

de afweging kan gaan maken van...

the consideration can be made of...

hoe belangrijk is de uitkomst in mijn behandeling, in mijn zorgproces?

How important is the outcome in my treatment, in my care process?

En wat is het risico dat ik niet helemaal precies weet hoe dat algoritme werkt?

And what is the risk that I don't know exactly how that algorithm works?

Ben ik mij bewust van dat er bias in kan zitten die ik niet ken?

Am I aware that there may be bias present that I am not aware of?

En die wel impact kan hebben op de beslissingen die ik neem...

And that can have an impact on the decisions I make...

op basis van dit algoritme?

based on this algorithm?

Of durf ik dat risico niet te nemen omdat ik denk van...

Or do I dare not take that risk because I think that...

nou, daar kunnen wel negatieve uitkomsten uitkomen...

Well, that could lead to negative outcomes...

en die afslag ga ik niet nemen?

And I'm not going to take that exit?

Je kunt natuurlijk wel allerlei voorzorgsmaatregelen, notaties maken...

Of course you can take all sorts of precautions and make notes...

hoe je het algoritme tot stand hebt laten komen.

how you have developed the algorithm.

Ik denk voor de praktijk dat het altijd te prevaleren is...

I think for practice that it is always preferable...

dat je een wat uitlegbaarder en begrijpelijk algoritme kiest.

that you choose a slightly more explainable and understandable algorithm.

Omdat het voor een arts ook prettig is om met zijn patiënt...

Because it is also pleasant for a doctor to interact with his patient...

helder en transparant te kunnen bespreken...

to be able to discuss clearly and transparently...

hoe een beslisondersteuning tot stand is gekomen.

how a decision support system has come about.

Dus dat voor artsen en andere hulpverleners...

So that for doctors and other caregivers...

heeft dat vaak wel de voorkeur.

it often has preference.

Want het is ook spannend om iets te moeten aanbevelen of voorschrijven...

Because it's also exciting to have to recommend or prescribe something...

wat je misschien zelf niet helemaal begrijpt.

what you might not completely understand yourself.

Maar tegelijkertijd staat daar tegenover dat we nu ook niet...

But at the same time, it stands in contrast that we are now also not...

van alle medicijnen en behandelingen exact snappen hoe het werkt.

understand exactly how all medications and treatments work.

En je ziet nu soms dat het lijkt alsof het voor algoritmes en data...

And you now sometimes see that it seems as if it is for algorithms and data...

dat we dat belangrijker vinden om die werking exact te doorgronden...

that we find it more important to fully understand that operation...

dan misschien wel voor andere interventies.

then perhaps for other interventions.

Dus dat vind ik wel een spanningsveld.

So I find that quite a tension field.

Ja, terechtpunt. Ik denk ook dat het nieuw is.

Yes, a valid point. I also think it is new.

Nieuwer dan wat we gewend zijn met medicijnen.

Newer than what we are used to with medications.

Maar ik denk dat die afweging die je gewoon aangeeft...

But I think that the consideration you just mentioned...

dat die heel belangrijk is.

that it is very important.

En waar heb je een comfortabel gevoel bij?

And what do you feel comfortable with?

En is het begrijpelijk voor de behandelaar, voor de arts?

And is it understandable for the practitioner, for the doctor?

En kan het ook aan de patiënt worden uitgelegd?

And can it also be explained to the patient?

En ben je gewoon bewust ook van de risico's die er eventueel zijn?

And are you simply aware of the risks that might be involved?

Ja, die rol van de arts, die wil het natuurlijk uit kunnen leggen.

Yes, of course, the role of the doctor wants to be able to explain that.

Maar die heeft ook met een medisch beroepsgeheim te maken.

But that also relates to medical confidentiality.

Hoe verhoudt die ontwikkeling van AI...

How does that development of AI relate...

tot zicht op dat medisch beroepsgeheim?

to the view of that medical professional confidentiality?

Ja, die discussie komt inderdaad steeds op.

Yes, that discussion indeed keeps coming up.

En het is ook een terechte discussie.

And it is also a valid discussion.

Want een medisch beroepsgeheim is natuurlijk niet voor niks.

Because a medical professional secret is of course not for nothing.

Eigenlijk komt het natuurlijk voort uit het grondrecht op toegang tot zorg.

It actually originates from the fundamental right to access healthcare.

Dan ga je ervan uit dat jouw gegevens veilig...

Then you assume that your data is safe...

en alleen in handen van jouw arts zijn.

and only in the hands of your doctor.

Maar ook hiervoor geldt, denk ik...

But I think the same applies to this...

op het moment dat je aan een patiënt goed kunt uitleggen...

at the moment you can explain well to a patient...

wat je met zijn data doet...

what you do with his data...

en dat het zijn behandeling ten goede komt...

and that it benefits his treatment...

dan geeft dat die patiënt ook vertrouwen...

then that also gives the patient confidence...

dat er op een goede manier met zijn data wordt omgegaan...

that his data is handled properly...

en dat de zorg daar beter van wordt.

and that the care will improve as a result.

Dus aan de ene kant kun je zeggen...

So on one hand, you can say...

het staat op gespannen voet.

it is in a state of tension.

Maar je kunt ook nadenken hoe je daar de patiënt in meeneemt...

But you can also think about how you involve the patient in that...

en daar informatie over geeft...

and provides information about it...

zodat het vertrouwen in ook dit soort nieuwe innovaties...

so that trust in these kinds of new innovations...

voor patiënten meer vertrouwd gegeven wordt...

is given more familiar to patients...

en dat daar zijn data ook voor gebruikt worden.

and that their data is also being used for that.

En dat het veilig gebeurt.

And that it happens safely.

Dat is natuurlijk wel belangrijk.

That is of course important.

Die patiënt moet wel...

That patient must...

wel continu het gevoel hebben of weten...

to continuously have the feeling or know...

dat zijn data in veilige handen blijven...

that data remains in safe hands...

en dat die niet zomaar op straat komen te liggen.

and that they won't just end up lying on the street.

En dat we dat anonimiseren waar dat kan.

And that we anonymize that where possible.

En dat we niet de pas en de onpas met die data omgaan.

And that we do not handle that data recklessly or indiscriminately.

Daarom zijn die kritische vragen elke keer wel belangrijk...

That is why those critical questions are important every time...

om daarop terug te komen.

to come back to that.

Karin, hoe werkt dat bij jullie in het ziekenhuis eigenlijk?

Karin, how does it work at your hospital actually?

Ja, wij zijn natuurlijk ook heel zorgvuldig...

Yes, we are of course very careful too...

als we gebruik maken van data.

if we make use of data.

Maar wij maken wel onderscheid tussen...

But we do make a distinction between...

wanneer gebruik je nou data voor kwaliteitsverandering...

when do you use data for quality change...

en kwaliteitsverbetering in de directe zorg.

and quality improvement in direct care.

Daar zijn we ook toe verplicht als ziekenhuis.

As a hospital, we are also required to do that.

Dat is onze verantwoordelijkheid...

That is our responsibility...

om constant data ook te gebruiken voor het monitoren...

to constantly use data for monitoring...

en het verbeteren van onze kwaliteit van zorg.

and improving our quality of care.

Op het moment dat we data gaan gebruiken voor onderzoek...

At the moment we are going to use data for research...

gaat er eigenlijk een heel ander richtlijnenkader gelden.

A completely different framework of guidelines will actually apply.

Waarin bijvoorbeeld het vragen van toestemming aan patiënten...

Where, for example, asking for consent from patients...

of ze akkoord zijn om hun data te gebruiken voor onderzoek...

if they agree to use their data for research...

een heel belangrijk onderdeel wordt.

becomes a very important part.

En nog weer anders wordt het eigenlijk op het moment...

And in another way, it actually is at the moment...

dat je voor een innovatie gebruik gaat maken van externe devices...

that you will use external devices for an innovation...

van andere leveranciers.

from other suppliers.

En op het moment dat data eigenlijk...

And at the moment that data actually...

naar die externe leverancier zou worden verstuurd...

would be sent to that external supplier...

dan wordt het voor ons nog een tijdje lastiger...

then it will be even more difficult for us for a while...

omdat dat voor cliënten niet altijd even evident is.

because that is not always obvious for clients.

En dat zij natuurlijk wel helder moeten hebben...

And they certainly need to be clear about that...

waar zij hun data heen laten sturen...

where they send their data to...

waar zij toestemming voor geven.

where they give permission for.

Ja, klinkt logisch.

Yes, sounds logical.

Ik hoor je ook zeggen die cliënt staat centraal...

I also hear you saying that the client is central...

en die moet toestemming geven.

and that person must give permission.

Ja, diezelfde cliënt gooit misschien met allerlei apps...

Yes, that same client might be throwing around various apps...

elke dag wel zijn data op straat.

Every day, his data ends up on the street.

Maar lijkt zich daar dan in de behandelkamer bewuster van te zijn?

But does he seem to be more aware of that in the treatment room?

Lang niet altijd.

Not always.

Ik denk dat...

I think that...

Maar dat dat juist onze verantwoordelijkheid is...

But that is precisely our responsibility...

dat cliënten zich daar wel bewust van zijn.

that clients are indeed aware of that.

Want ook wij willen niet dat een patiënt...

Because we also don't want a patient...

zonder zich dat te realiseren...

without realizing it...

data naar een externe leverancier of een externe partij stuurt...

data to an external supplier or an external party sends...

waarbij soms ook uit beeld raakt wat daar met die data gebeurt.

where it sometimes becomes unclear what happens to that data.

Dat is wat de cliënt niet zou moeten willen...

That is what the client should not want...

en dat is wat wij als zorgorganisatie zeker ook niet willen.

And that is what we as a care organization certainly do not want either.

En dan raak je dus eigenlijk ook weer het ethische kader...

And then you actually touch on the ethical framework again...

van hé, hoe ga je daarmee om?

Hey, how do you deal with that?

Hoe leg ik de patiënt, de cliënt uit...

How do I explain to the patient, the client...

op een zodanig manier dat hij er ook vertrouwen in heeft...

in such a way that he also has confidence in it...

dat jij die devices kan gebruiken, dat je die data kan gebruiken...

that you can use those devices, that you can use that data...

zodat je inderdaad dat ook innovatief kunt gaan inzetten.

so that you can indeed start using that innovatively.

En ja, ik kan me voorstellen dat dat in de praktijk...

And yes, I can imagine that in practice...

af en toe best wel lastig is.

sometimes quite difficult.

Zeker.

Sure.

Maar wel ontzettend belangrijk.

But really very important.

Nou, zeker.

Well, certainly.

En de patiënt zelf heeft daar ook een dubbelrol in.

And the patient themselves also has a dual role in that.

Hij profiteert zelf van het gebruik van een device of van zijn data...

He benefits himself from the use of a device or from his data...

omdat we toch beogen dat daar de behandeling mee verbetert.

because we aim for the treatment to improve there.

Maar tegelijkertijd is hij ook een leverancier van data...

But at the same time, he is also a data provider...

eigenlijk voor alle mensen na hem die ook weer zorg nodig gaan hebben...

actually for all the people after him who will also need care again...

waarmee we de zorg voor de toekomst ook weer beter maken.

with which we also improve care for the future.

En als je dat verhaal goed kunt uitleggen en bespreekbaar maakt...

And if you can explain that story well and make it discussable...

willen het overgrote deel van de mensen eraan meewerken.

the vast majority of people want to cooperate with it.

Dat geloof ik ook wel, inderdaad.

I believe that as well, indeed.

Maar het werpt wel een drempel op.

But it does create a barrier.

Ja, het vraagt wat extra handelingen.

Yes, it requires some extra steps.

Soms wat extra uitleg.

Sometimes a bit more explanation.

Extra kennis ook, als zorgprofessional, als organisatie...

Extra knowledge as a healthcare professional, as an organization...

om dat gesprek ook met cliënten goed te kunnen voeren.

to be able to have that conversation well with clients.

Dus het zou soms makkelijker zijn als het allemaal niet nodig was.

So it would sometimes be easier if it wasn't all necessary.

Maar toch moeten we het niet willen.

But still, we should not want it.

Daar kan jij het alleen maar mee eens zijn, denk ik, Marieke.

I think you can only agree with that, Marieke.

Ja, zeker. Dat is absoluut waar.

Yes, definitely. That is absolutely true.

Maar ik denk alleen, op dat moment zijn we er nog niet.

But I only think, at that moment we are not there yet.

We hebben natuurlijk inderdaad die toestemming gevraagd...

We did indeed request that permission...

of we hebben inderdaad die data op de goede manier verzameld.

or we have indeed collected that data in the right way.

Maar dan krijg je ook nog van...

But then you also receive from...

hoe ontwikkel je nou zo'n algoritme?

How do you develop such an algorithm?

En welke risico's kleven daar dan aan?

And what risks are associated with that?

En ik denk dat dat ook, zeg maar, als je dat dan weer terugbrengt...

And I think that also, let's say, when you bring that back...

naar de spreekkamer, naar de cliënten...

to the meeting room, to the clients...

dan kom je toch weer terug op het feit dat je moet kunnen uitleggen...

then you come back to the fact that you need to be able to explain...

wat zo'n algoritme doet en hoe dat is opgebouwd.

what such an algorithm does and how it is structured.

Nou, kijk, ik hoef maar even rondom me heen te kijken...

Well, look, I only need to take a quick look around me...

en kijk naar de toeslagenaffaire of wat pas naar boven kwam...

and look at the benefits scandal or what has just come to light...

de problemen rondom DUO en studiefinanciering.

the problems surrounding DUO and student finance.

Er wordt gebruik gemaakt van algoritme...

An algorithm is being used...

waar men dus achteraf achterkomt dat daar bij als in zit...

where one eventually finds out that it is included there as well...

met een enorm discriminerende werking...

with an extremely discriminatory effect...

met enorme schadelijke gevolgen voor mensen...

with enormous harmful consequences for people...

die daar mee te maken hebben gekregen.

those who have been involved with it.

Dus dat laat alleen maar zien dat het gebruik van data...

So that just shows that the use of data...

en het verzamelen van data voor innovatie is één.

and collecting data for innovation is one.

Maar het trainen van modellen met data...

But training models with data...

en hoe doe je dat en hoe monitor je dat...

And how do you do that and how do you monitor it...?

en hoe stuur je dat bij en hoe leg je het uit...

And how do you adjust that and how do you explain it...

dat dat echt nog wel stap twee is...

that that is really still step two...

waar heel veel aandacht voor nodig is.

that requires a lot of attention.

Absoluut.

Absolutely.

En we zien wel dat in Nederland er bijvoorbeeld de Leidraad...

And we see that in the Netherlands, for example, the Guideline...

kwaliteit AI in de zorg is ontwikkeld.

Quality AI in healthcare has been developed.

Die probeert...

That tries...

hier in ieder geval gidsing in te geven...

to provide guidance here in any case...

aan organisaties die daarmee aan de gang gaan.

to organizations that are working on that.

En in mijn oog ook heel waardevol is.

And in my opinion also very valuable.

Tegelijkertijd is het vraagstuk van bias...

At the same time, the issue of bias...

ook in de wetenschap echt nog een heel belangrijk topic...

also in science still a very important topic...

waar nog volop onderzoek naar wordt gedaan.

where research is still being widely conducted.

Dus waar ook nog heel veel kennis ontbreekt.

So there is still a lot of knowledge lacking.

En dat is natuurlijk heel vaak met innovatie...

And that is of course very often the case with innovation...

dat je ook dingen gaat doen zonder dat je alle kennis hebt.

that you will also do things without having all the knowledge.

En dat vraagt denk ik alleen maar extra zorgvuldigheid...

And that requires, I think, only extra care...

in de afwegingen die je maakt...

in the considerations you make...

en hoe je gesprek daarover voeren.

and how to have a conversation about it.

En je steeds afvragen...

And you keep wondering...

zijn we nou het best mogelijk aan het doen?

Are we doing the best we can now?

Zijn we het goede aan het doen?

Are we doing the right thing?

Zoals de ethiek van ons vraagt.

As ethics demands of us.

Ja.

Yes.

Dat is meteen ook denk ik een mooie afsluiter.

I think that's a nice conclusion as well.

Zijn we het goede aan het doen?

Are we doing the right thing?

En wees je daarvan bewust en stel vragen.

And be aware of that and ask questions.

Aan alle luisteraars die wellicht worstelen met ethische dilemma's...

To all listeners who may be struggling with ethical dilemmas...

mogen jullie ieder één tip meegeven.

You may each give one tip.

Marike, wat zou jouw tip zijn voor de luisteraars...

Marike, what would your tip be for the listeners...

en de luisteraar?

and the listener?

Nou, ik denk dat mijn tip is...

Well, I think my tip is...

als je met innovatie en data aan de slag gaat...

if you start working with innovation and data...

en de complexe ethische vraagstukken die daarbij komen kijken...

and the complex ethical questions that come into play...

werk vooral multidisciplinair.

work primarily multidisciplinarily.

Vanaf het begin af aan.

From the very beginning.

Betrek alle diverse belangen in de organisatie...

Involve all diverse interests in the organization...

echt vroegtijdig in je project.

really early in your project.

Kijk dan zowel naar inderdaad een FG, kwaliteitsmanagers, CISOs...

Then look at both indeed an FG, quality managers, CISOs...

en ook de mensen die de innovatie moeten gaan invullen...

and also the people who will need to implement the innovation...

want ik denk op het moment dat je vroegtijdig iedereen in het proces meeneemt...

because I think at the moment you involve everyone in the process early on...

dan heb je en ook continu de discussie en het goede gesprek daarover...

then you also have the ongoing discussion and the good conversation about it...

zodat je inderdaad aan het eind niet tegenover elkaar komt staan.

so that you don't end up facing each other in the end.

En dan kun je inderdaad vanuit de verschillende disciplines ook bekijken...

And then you can indeed look at it from the different disciplines as well...

hoe kunnen we samen innovatie mogelijk maken...

how can we enable innovation together...

in plaats van dat, nou ja, als je aan het eind van een innovatief project...

Instead of that, well, when you reach the end of an innovative project...

de FG tegenover je komt staan en zegt van...

the FG stands in front of you and says...

hé, ik kom hier nu even controleren wat jij aan het doen bent...

Hey, I'm just coming here to check what you're doing...

en dit mag niet op deze manier.

and this must not be done this way.

Dat is gewoon ontzettend zonde.

That's just such a shame.

En dat vertraagt innovatie enorm.

And that greatly slows down innovation.

En het tweede is op het moment dat je op die manier het gesprek voert...

And the second is at the moment you conduct the conversation in that way...

dat draagt ook bij aan de transparantie.

that also contributes to transparency.

En het verhaal dat je hebt en het verhaal dat je ook aan de samenleving...

And the story that you have and the story that you also tell to society...

je organisatie, je patiënten wil kunnen uitleggen.

your organization, you want to be able to explain to your patients.

Dus al debatterend over een innovatief project...

So, while debating an innovative project...

werk je ook samen aan het verhaal en de uitleg...

do you also collaborate on the story and the explanation...

en de uitlegbaarheid daarvan.

and the explainability of that.

Dus ik denk dat dat ontzettend waardevol is.

So I think that is incredibly valuable.

Dank. Twee tips van Marieke.

Thank you. Two tips from Marieke.

Karin, wat is jouw tip?

Karin, what is your tip?

Ja, ik volg Marieke zeker in het multidisciplinair werken.

Yes, I certainly agree with Marieke on multidisciplinary work.

En ik denk dat je vanuit mijn rol als degene die de innovatie aanjaagt...

And I think that from my role as the one driving the innovation...

je ook heel erg kunt bijdragen aan het niet tegenover elkaar komen te staan...

you can also contribute a lot to not standing opposite each other...

door de mensen die uiteindelijk ook een checkfunctie hebben.

through the people who ultimately also have a check function.

Dat is ook hun rol om te kijken, doen we het goede?

It is also their role to look, are we doing the right thing?

Om hen ook helder te maken wat je bedoeling is met de innovatie.

To make it clear to them what your intention is with the innovation.

En wat de betekenis ervan kan zijn.

And what its meaning can be.

En hen dus ook niet de vraag te stellen van mag dit?

And thus not to ask them the question of is this allowed?

Maar de vraag te stellen van als we dit nou willen...

But the question to ask is if we actually want this...

wat zijn dan de oplossingsrichtingen daartoe?

What are the solutions to that?

Om daaraan te werken.

To work on that.

En voor mij helpt het gedachtegoed van begeleidingsethiek daar heel goed bij.

And for me, the philosophy of guidance ethics helps with that very well.

Zij hebben eigenlijk een methode ontwikkeld...

They have actually developed a method...

waarin steeds op de voorgrond staat hoe gaan we het realiseren...

in which the focus remains on how we are going to achieve it...

en niet de vraag mag het of kan het.

and not the question may it or can it.

En zij bieden daar eigenlijk ook tips en tricks in...

And they actually provide tips and tricks there as well...

hoe je dat gesprek goed met elkaar kunt voeren.

how you can have that conversation well with each other.

Dus dat zou mijn tip zijn aan de innovator...

So that would be my tip to the innovator...

om uit te rijken naar die FG en te zoeken...

to reach out to that FG and to search...

het gesprek te hebben over de oplossingen.

to have the conversation about the solutions.

En tegelijkertijd ook naar de FG om daarin mee te willen denken.

And at the same time also to the FG to be willing to think along in that.

En niet te veel op de controle stoel alleen te gaan zitten.

And not to sit too much alone in the control seat.

Maar je ook partner te voelen en verantwoordelijk te voelen...

But also to feel like a partner and to feel responsible...

om tot een mooie oplossing te komen.

to arrive at a nice solution.

Ja, samen verantwoordelijk voor het doel, voor het eindresultaat.

Yes, jointly responsible for the goal, for the end result.

Zeker, zeker.

Sure, sure.

Nou, hartstikke mooi.

Well, really beautiful.

De luisteraar heeft dus nu vier tips waarmee hij aan de slag kan.

The listener now has four tips to get started with.

Ik wil jullie heel erg bedanken voor dit interessante gesprek.

I want to thank you very much for this interesting conversation.

Ik denk dat onze luisteraars hier heel veel aan kunnen hebben.

I think our listeners can benefit greatly from this.

Bedankt voor jullie komst naar de studio.

Thank you for coming to the studio.

En wie weet praten we over dit thema nog een keer door in een andere aflevering.

And who knows, we might discuss this theme again in another episode.

Graag gedaan, dankjewel.

You're welcome, thank you.

Zeker, graag gedaan.

Sure, you're welcome.

Vond je dit een interessant onderwerp?

Did you find this an interesting topic?

Mis niks over de ontwikkelingen.

Don't miss anything about the developments.

Meld je aan voor de nieuwsbrief via de link in de beschrijving.

Sign up for the newsletter via the link in the description.

Of volg Tensinger op LinkedIn.

Or follow Tensinger on LinkedIn.

TV Gelderland 2021

TV Gelderland 2021

***

Sure! Please provide the Dutch text you would like translated into English.

Continue listening and achieve fluency faster with podcasts and the latest language learning research.