4: Live @ De AI Parade - Hoe beïnvloedt AI jouw dagelijks leven?

Rijk Mercuur

AI Voor Moraalridders

4: Live @ De AI Parade - Hoe beïnvloedt AI jouw dagelijks leven?

AI Voor Moraalridders

Hoi lieve moraalredder, Rijk hier. Op 21 april hadden we een live opname van de podcast als

Hi dear moral guardian, Rijk here. On April 21, we had a live recording of the podcast as

onderdeel van de AI-parade bij de bibliotheek in Utrecht. In een zaal met uitzicht op het

part of the AI parade at the library in Utrecht. In a room with a view of the

neuden en een klein maar fanatiek publiek hielden we een interessante discussie over

"With a small but enthusiastic audience, we held an interesting discussion about..."

verantwoorde AI, aanbevelingssystemen en vooroordelen in AI. Ik nam zelf deze keer de

responsibility for ensuring that AI is responsible, recommendation systems, and biases in AI. This time I took the

rol van expert en René van Gasteren begeleidde deze live sessie. Sinds kort helpt René ons

role of expert and René van Gasteren guided this live session. Recently, René has been helping us

bij Hero met inclusieve AI. En dat kwam goed uit, want hij kon gelijk het project op zich

at Hero with inclusive AI. And that worked out well because he could immediately take on the project.

nemen. Dat deed hij met verven. René begeleidde de sessie en wisselde af tussen vragen aan

to take. He did that with colors. René led the session and alternated between questions to

het panel met experts en vragen of opmerkingen uit het publiek. René introduceert zichzelf

the panel with experts and questions or comments from the audience. René introduces himself

het format en de experts. En omdat het publiek wat lastig te verstaan was, hebben we een

the format and the experts. And because the audience was a bit difficult to understand, we have a

voice-over gekozen die de opmerkingen uit het publiek samenvat. Ik wens jullie heel veel

voice-over chosen that summarizes the comments from the audience. I wish you all a lot of

plezier met luisteren.

enjoy listening.

Welkom bij AI voor Moraalridders live. Mijn naam is René van Gasteren en ik ben jullie

Welcome to AI for Moral Knights live. My name is René van Gasteren and I am your...

host voor vandaag. We gaan spreken over een paar thema's en voordat ik de experts introduceer

host for today. We will talk about a few themes and before I introduce the experts

zal ik eerst even vertellen wat het format is, wat we gaan doen en met wat we gaan doen.

Let me first explain what the format is, what we are going to do, and with what we are going to do it.

We bedoel ik niet alleen ons, bedoel ik ook jullie. We hebben een paar thema's uitgekozen

I don't mean just us, I also mean you. We have chosen a few themes.

waar we het dit uur over gaan hebben. Ik zal elk thema kort introduceren. Aanwaar ik een

what we are going to discuss this hour. I will briefly introduce each theme. Where I have a

vraag in de pool van experts werp en zij hun licht laten schijnen op het geheel. Aan het

Ask in the pool of experts and let them shed light on the whole. At the

einde van elk thema mogen jullie vragen stellen, jullie licht laten schijnen en hopelijk ontstaat

At the end of each theme, you may ask questions, share your thoughts, and hopefully, something will emerge.

er zo een mooie discussie.

It's such a beautiful discussion.

Het panel.

The panel.

Ja, voor iedereen links. Rijk Mercuur, onderzoeker AI en ethiek bij Hiro. Rijk, wat is de missie

Yes, everyone to the left. Rijk Mercuur, researcher in AI and ethics at Hiro. Rijk, what is the mission?

van Hiro?

from Hiro?

Wat is de missie van Hiro? We willen verantwoordelijke AI voor iedereen. En dat heeft eigenlijk twee

What is Hiro's mission? We want responsible AI for everyone. And that actually has two

betekenissen. De eerste is dat het dus rekening houdt met iedereen. En de tweede is dat we

meanings. The first is that it takes everyone into account. And the second is that we

bij iedereen de kennis willen brengen zodat ze kunnen omgaan met kunstmatige intelligentie.

to bring knowledge to everyone so that they can deal with artificial intelligence.

Bijvoorbeeld met chattyp.

For example with chattype.

Zodat je een beetje begrijpt wat chattyp is en hoe je dus ook verstandig mee om kan gaan.

So that you understand a bit what chattyp is and how you can wisely deal with it.

Dank je wel. In het midden Koert van Geemeren, onderzoeker computer vision en AI. Koert,

Thank you. In the middle Koert van Geemeren, researcher in computer vision and AI. Koert,

jij bent betrokken bij het DRAMA project. Kun je daar iets over zeggen?

You are involved in the DRAMA project. Can you say something about it?

Jazeker. Ja, ik ben als onderzoeker begonnen bij de Hoogschool Utrecht, waar ik in het DRAMA

Certainly. Yes, I started as a researcher at the University of Applied Sciences Utrecht, where I was in the DRAMA

project terecht ben gekomen. Dat is een afkorting. Het staat voor Designing Responsible AI for Media

I have come across the project. It is an abbreviation. It stands for Designing Responsible AI for Media.

Applications.

Toepassingen.

Waar we in een consortium met andere hogescholen en Media Perspectives eigenlijk de bedrijven op

Where we are in a consortium with other universities of applied sciences and Media Perspectives actually the companies on

Mediapark, mediabedrijven helpen om eigenlijk AI te ontwerpen die ook rechtdoekt aan de ethische

Mediapark, media companies help to actually design AI that also adheres to ethical standards.

vragen die zij hebben over het gebruik van AI in media. Dus dan kun je denken aan als zij

questions they have about the use of AI in media. So you can think of if they

videobewerking doen, daar zitten steeds meer geautomatiseerde algoritmes in. Maar houden die

doing video editing, there are increasingly more automated algorithms involved. But do they keep?

algoritmes ook rekening met diversiteit en afkomst? Als er gekozen wordt van dat is een heel goed

Do algorithms also take diversity and background into account? If that is chosen, then that is very good.

shot. Daar staan mensen met verschillende achtergronden op. Op wat voor manier komt zo'n

shot. There are people from different backgrounds in that. In what way does such a

algoritme tot zijn keuzes? En wij helpen die bedrijven om die algoritmes beter te begrijpen en

algorithm for their choices? And we help those companies to better understand those algorithms and

om betere keuzes te maken bij het gebruik van dat soort systemen.

to make better choices when using that kind of systems.

Dank je wel. En tot slot Marieke Peters, onderzoeker,

Thank you. And finally, Marieke Peters, researcher,

Responsible Applied AI. Kun jij uitleggen wat is Responsible AI?

Responsible Applied AI. Can you explain what Responsible AI is?

Ja, Responsible AI is, ja, dat gaat eigenlijk over dezelfde dingen als die net ook al genoemd werden.

Yes, Responsible AI is, yes, it actually concerns the same things that were just mentioned.

Hoe maak je nou gebruik van kunstmatige intelligentie op zo'n manier dat het ook

How do you utilize artificial intelligence in such a way that it also

voldoet aan de normen en waarden die wij als samenleving hanteren. En dat is dus voor een deel

meets the standards and values that we as a society uphold. And that is therefore partly

cultureel bepaald. En dat kan ook over tijd veranderen. Dus dat kan ook over tijd veranderen.

culturally determined. And that can also change over time. So that can also change over time.

Dus verantwoorden AI vandaag hier is misschien niet hetzelfde als verantwoorden AI in China over 10 jaar.

So justifying AI today here may not be the same as justifying AI in China in 10 years.

Dus dat moet je eigenlijk met elkaar bepalen.

So you actually have to determine that together.

Allright. Dan gaan we naar het eerste thema. Dat is aanbevelingssystemen. Ja, dus we zien eigenlijk

Alright. Then we'll move on to the first theme. That is recommendation systems. Yes, so we actually see

dat het op sociale netwerken, dat het op streamingdiensten is, maar bijvoorbeeld ook op websites waar jij dingen koopt.

that it is on social networks, that it is on streaming services, but also on websites where you buy things.

Dat we eigenlijk heel veel aanbevelingen krijgen. En die zijn voor een min of meer gedeelte geautomatiseerd.

That we actually receive a lot of recommendations. And those are partially automated.

Kurt, vraag aan jou. En dan gooi ik het in de pool. Hoe kunnen deze aanbevelingssystemen de consument, de kijker, helpen?

Kurt, a question for you. And then I'll put it in the poll. How can these recommendation systems help the consumer, the viewer?

Ja, dat is een hele goede vraag. Ik zou hem ook nog een klein stapje terug willen zetten, ook naar

Yes, that is a very good question. I would also like to take a small step back, also towards

hoe kunnen wij als experts op het gebied van AI de powers van dit soort aanbevelingssystemen helpen,

How can we as experts in the field of AI help harness the powers of this type of recommendation systems?

zodat de resultaten van die systemen de consument beter bedienen. En wat doe ik daarmee?

so that the results of those systems serve the consumer better. And what do I do with that?

Nou, wat ik vaak hoor is, ik hou me heel erg veel bezig met computer vision, daar komt beeldverwerking bij te pas.

Well, what I often hear is that I am very much involved with computer vision, where image processing comes into play.

En die beeldverwerkingssystemen, ja, die maken algoritmische keuzes.

And those image processing systems, yes, they make algorithmic choices.

En daar ontstaat bias uit. Sommige groepen mensen zien zichzelf vaker gerepresenteerd als er op een automatische manier beelden gekozen worden dan andere groepen mensen.

And that is where bias arises. Some groups of people see themselves represented more often when images are chosen automatically than other groups of people.

Nou, dan moeten we gaan kijken van, is dat een probleem? En zo ja, hoe kunnen we dan die algoritmes veranderen zodat die groepen mensen die gebruik maken van die aanbevelingssystemen zichzelf beter gerepresenteerd zien als resultaat van het gebruik van zo'n systeem.

Well, then we need to see if that is a problem. And if so, how can we change those algorithms so that the groups of people who use those recommendation systems see themselves better represented as a result of using such a system?

Waarbij we eigenlijk dus de mediamakers proberen te helpen om şey eerlijke systemen te maken.

Whereby we are actually trying to help the media creators to create fair systems.

Dus ik hoorde net het voorbeeld van Netflix. Ik werk samen met RTL. morgens kijken we grote wetten

So I just heard the example of Netflix. I work with RTL. In the mornings we watch big laws.

Zij hebben Videoland. Bij Videoland worden thumbnails gekozen voor series of afleveringen. Ga zo maar door.

They have Videoland. In Videoland, thumbnails are chosen for series or episodes. Keep going like this.

Daar komt vaak een editor aan te pas. Maar we willen die editor helpen om betere keuzes te maken.

Often an editor is involved. But we want to help that editor make better choices.

gegeven een aflevering welk welke thumbnail moet hij kiezen of hij of zij en als hij een

Given an episode, which thumbnail should he or she choose, and if he a

beter betere aanbeveling krijgt die die eerlijker is dan zal dat recht doen aan de diversiteit die

better better recommendation receives the one that is more honest will do justice to the diversity that

de consumenten wat consument weer terug ziet aanvullingen rijk marieke nou waar ik had te

The consumers see what consumer Marieke is now returning, well where I had to.

denken en kom ook door twitter voorbeeld is ook bij dat het aanbevelingssysteem is het vaak zo

Thinking and also coming through Twitter, for example, it is often the case that the recommendation system is مثل ذلك.

dat er een soort domino effect is waardoor steeds meer je dezelfde berichten krijgt op twitter of

that there is a kind of domino effect where you keep getting the same messages on Twitter or

dezelfde aanbevelingen krijgt en ik vind dat een interessant punt van technologie hoe het eigenlijk

the same recommendations and I find that an interesting point about technology how it actually

plat slaat dus hoe er eerst heel veel diversiteit is in meningen en visies en hoe technologie

So it indicates how there is initially a lot of diversity in opinions and perspectives and how technology

eigenlijk een bepaalde visie of mening versterkt

actually reinforces a certain vision or opinion

hoe we eerst misschien op twitter of in een gesprek in ieder geval het leuk vinden als er heel veel

how we first might like it on Twitter or in a conversation if there are a lot of

verschillende meningen zijn we misschien ook heel veel verschillende doelen hebben van een gesprek

Different opinions may also mean that we have many different goals for a conversation.

we willen nader tot elkaar komen of we willen op de lange termijn onze onze mening veranderen

We want to come closer to each other or we want to change our opinions in the long term.

maar twitter slaat het ook weer plat het zorgt ervoor dat we alleen maar gaan letten op likes

but Twitter also flattens it again, it ensures that we only pay attention to likes

en reposts en op een soort korte termijn status ja daarop aanhaken

and reposts and to connect to that on a sort of short-term status yes

je hebt het nu heel erg over de doelstellingen van degene die twitter gebruikt maar eigenlijk de

You are now very much talking about the goals of those who use Twitter, but actually the...

invloed die als gebruiker hebt hoe twitter werkt en hoe twitter jouw aanbevelingen doet of nieuwe

influence you have as a user on how Twitter works and how Twitter makes recommendations to you or new ones

informatie aanreikt heb je als gebruiker best wel weinig invloed op en dus een van de problemen denk

As a user, you have very little influence on the information provided, and I believe this is one of the problems.

ik is dat de de intenties of de belangen van degene die zo'n platform in de lucht houdt of dat nou een

I is that the intentions or the interests of those who keep such a platform running, whether it is a

webshop is of inderdaad een social media platform of een streamingdienst zij hebben allemaal als

A webshop is indeed a social media platform or a streaming service; they all have in common that

doel om jou zo lang mogelijk op dat platform te houden en ervoor te zorgen dat je terugkomt en

goal to keep you on that platform as long as possible and to ensure that you come back and

op het moment dat ze merken dat jij vaker terugkomt op het moment dat ze jouw bepaalde informatie of

At the moment they notice that you come back more often when they have certain information of yours or

bepaalde content aanbieden dan zullen ze dus daar meer van gaan aanbieden ook al wil je misschien

if they offer certain content, then they will provide more of that even if you might not want it

zelf ook een stukje variëteit maar dat kun je nergens meer terugkoppelen er is nergens een soort

a bit of variety for yourself but you can't get any feedback on that anymore, there is nowhere a kind

ik wil zoveel variatie in het aanbod of ik wil af en toe een soort verrast worden of serendipity

I want so much variety in the offerings or I want to be surprised from time to time or serendipity.

een soort willekeur in mijn aanbod krijgen dus dat ten eerste en je gaf net ook aan het heeft

getting a kind of arbitrariness in my offer, so that's the first thing, and you just indicated that it has...

het heeft een gebrek aan lange termijn visie eigenlijk dus het is allemaal heel erg op wat

it lacks a long-term vision actually so it's all very much based on what

ga ik nu aan deze persoon aanbieden maar het kijkt niet naar wat heb ik de persoon hiervoor aangeboden

I am now going to offer this person, but it doesn't look at what I offered the person before.

en wat ga ik hierna aanbieden een heel goed voorbeeld daarvan was laatst een artikel van de

And what I am going to offer next, a very good example of that was a recent article from the

amsterdammer waarbij ze hebben gekeken van wat gebeurt er nou moment dat je als gebruiker gaat

Amsterdammer where they have looked at what happens at the moment you as a user go.

zoeken naar dingen rondom dieet en afvallen en sporten en blijkbaar kom je dan heel snel een

looking for things related to diet and weight loss and exercise, and apparently you quickly come across a

soort fuik terecht van content die alsmaar erger wordt dus het wordt het gaat op begin met gaat

Type of trap rightly for content that keeps getting worse, so it’s going to start with goes.

het helemaal richting pro-ana dus pro anorexia achtige content en je tuin moet helemaal zo'n

it is completely heading towards pro-ana so pro-anorexia type content and your garden should be completely like that

konijnenhol in maar dat algoritme heeft zich dus helemaal in die hand gehaald en dat is heel erg

rabbit hole in but that algorithm has completely taken control of that hand and that is very bad

belangrijk want ik heb daar geen weet van dat ik houd niet bij wat heb ik hiervoor laten zien en

important because I have no knowledge of that I don't keep track of what I have shown before and

wat komt hierna en wordt dat inderdaad steeds erger wordt dat steeds meer een ja eenheidsworst van

What comes next, and does it indeed get worse, becoming more and more like a uniform product of...?

content waarmee ik iemand ben aan bombarderen dus die context die verdwijnt helemaal het kijkt alleen

Content with which I am bombarding someone, so that context completely disappears; it only watches.

maar dit ene filmpje voor deze gebruiker op dit moment dat optimaliseert het meer niet dus het is

but this one video for this user at this moment does not optimize it more so it is

gewoon een gebrekkig ontwerp ook ze hadden eigenlijk een heleboel andere waarden en dan kom je op dat

just a flawed design too they actually had a whole bunch of other values and then you arrive at that

is sensitive design hoe neem je nou verschillende waarden ook mee dat iemand zowel variatie wil

Is sensitive design how do you incorporate different values when someone also wants variety?

als iets wat bij iemand interesse past en dat iemand niet van kwaad naar erger wil gaan in

as something that fits someone's interest and that someone does not want to go from bad to worse in

een soort ja polariserende mening of een heel verheftigend effect van content ja en dat zie

a sort of yes polarizing opinion or a very intense effect of content yes and that you see

je dus ook echt als resultaat van vaak zijn dit al dit soort algoritme als met algoritmes eigenlijk

So you really are the result of often being these kinds of algorithms, just like with algorithms actually.

een onderzoekslab een start-up ingerold en dat is die start-up had maar één doel geld verdienen

a research lab rolled into a start-up and that start-up had only one goal to make money

groot worden en zonder dat ze stil is gestaan bij of nou ja gedegen onderzoek gedaan is vanuit die

growing up and without her having considered or well, conducted thorough research from that

druk om te presteren als bedrijf we hebben de nieuwste algoritmes nodig en nou ja wat ik wel

Pressure to perform as a company, we need the latest algorithms and well, what I do.

eens denk is dat een bedrijf als open ai toch wel het hele internet als soort van lab gebruikt

Sometimes I think a company like OpenAI uses the whole internet as a kind of lab.

van nou we zien wel wat er uitkomt en of het werkt en wat de resultaten daarvan zijn

Well, we'll see what comes out of it, whether it works, and what the results are.

openaars van chat gpt ik weet niet of iedereen dat gelijk weet hoe gaat het bij rtl hoe voel ik me

Chat GPT operators, I don't know if everyone knows that, how is it going at RTL, how do I feel?

ook af nou dat is ook een commercieel bedrijf ja niet net zo goed vooral mensen op hun platform

Well, that's also a commercial company, yes, not just as good, especially for people on their platform.

krijgen zonder ja mensen op een lange termijn misschien kennis bij te brengen ja dus die

getting without yes people might bring knowledge in the long term yes so those

discussie hebben ook echt wel gevoerd en wat ik heel erg terug krijgen van rtl is van zij lopen

We have really had a discussion and what I am getting back a lot from RTL is that they are leaving.

ook met met dat soort vragen maar wat zij heel erg hebben is van ja wij kunnen de algoritmes zelf niet

"Also with that kind of questions but what they really have is that yes, we cannot do the algorithms ourselves."

ontwerpen dus wij moeten de algoritmes zelf ontwerpen dus wij moeten de algoritmes zelf ontwerpen dus wij moeten

we need to design the algorithms ourselves so we need to design the algorithms ourselves so we need to

iets ergens vandaan halen en dan kom je hebt loopt het risico dat je in het soort algoritmes

bringing something from somewhere and then you run the risk that you get into the kind of algorithms

terecht komt waar waar marieke het over heeft maar daar willen zij wel wat mee zij willen dat we wel

"Right comes where Marieke is talking about, but they do want something with it; they want us to."

voorkomen en en daar denken we dus samen over na wat moet wat moet je dan doen wat moet je dan

preventing and then we think about what needs to be done, what should you do then, what should you then?

vooral niet doen en dat is een open discussie die we die we voeren over zo'n zo'n konijnenhol hoe

especially not to do that, and that is an open discussion we are having about such a rabbit hole how

blijf je er weg nou denk ik dat bij een aantal diensten zoals bijvoorbeeld videoland of netflix

Are you staying away? Well, I think that with a number of services like Videoland or Netflix...

heb je dat niet heel erg omdat mensen

don't you find that very upsetting because people

eigenlijk een abonnement nemen dus ze zijn lid van het van het platform en hoeven niet per se in

Actually taking a subscription means they are a member of the platform and don't necessarily have to be in.

een bepaalde serie zo lang mogelijk te blijven hangen want ze hebben toch een maand abonnement

to stay subscribed to a certain series for as long as possible since they have a monthly subscription anyway

dus rtl wil daar ook echt weg blijven en dan komt het ook de vraag rond ze er terecht wat moeten we

So RTL really wants to stay away from there, and then the question arises about what we should do.

dan doen om daar weg te blijven ze zouden ze niet naar mpo sturen ja maar het is wel interessant dat

then do to stay away from there they wouldn't send them to mpo yes but it's interesting that

waar we begonnen over oké wat doet de technologie dat je al heel snel ziet van oh we hebben het ook

Where we started about okay what does the technology do that you quickly see, oh we have that too.

over ingekocht het techniek die door weer iemand anders is ontwikkeld en waar bepaalde ja assumpties

about purchased the technology that has been developed by someone else and where certain assumptions apply

in zitten die dan gratis ook erbij krijgt en heb je daar nog invloed op ook als inkoper van technologie

You then get that for free as well, and do you still have any influence on it as a technology buyer?

van een ander bedrijf wordt heel snel wordt eigenlijk veel meer dan alleen maar die ene

From another company, it is actually much more than just that one very quickly.

technologie in de technologie en de beheersen sorry ik denk dat technologie en kapitalisme of

technology in technology and management sorry I think that technology and capitalism or

economische winst heel erg dezelfde assumpties of waarden die je in de technologie moet beheersen en

economic profit very much the same assumptions or values that you need to manage in technology and

daarin kunnen hebben efficiëntie soort van korte termijn visie zat er echt wel overlappen in

There could be efficiency in that, a sort of short-term vision really had overlaps.

zitten en dat technologie dus ook vaak ja gebruikt wordt in termen van commercialisatie het is moeilijk

Sitting and that technology is often used in terms of commercialization, it is difficult.

om niet commercieel te zijn met met met met technologie ja staat allebei plat en zo geeft

to not be commercial with with with technology yes both are flat and so it gives

allebei misschien het menselijke of het lange termijn en nooit de filosofisch maar nee maar

Both perhaps the human or the long term and never the philosophical but no but

die zie ik ook wel en ik denk dat het dat het kijk voor bedrijfs RTL is absoluut geen start-up meer

I see that too, and I think that for RTL the look is absolutely not a startup anymore.

dus zij hebben de wel de ruimte om aandacht te besteden aan de wat wat langere termijn vragen

So they do have the opportunity to pay attention to the somewhat longer-term questions.

maar wat ik wat ik zelf in mijn eigen ontwikkeling heb meegemaakt ik heb ook voor start-ups gewerkt

But what I have experienced in my own development is that I have also worked for start-ups.

daar is het toch van zo'n start-up moet de hoofd boven water houden dus we moeten zo snel mogelijk

That's what it's all about, a start-up has to keep its head above water, so we need to move as quickly as possible.

iets neerzetten met een wauw factor en dan heb je gelijk dan dan ga je dingen plat slaan

Putting something down with a wow factor, and then you immediately start to crush things.

ja ik laat hem even hierbij ik

Yes, I’ll just leave him here for now.

alright jullie zijn uitgesproken ik kan me haast niet voorstellen ik kan nog langer praten over

Alright, you have spoken out; I can hardly imagine I can talk longer about

technologie en over kapitalisme mijn laat we dat zijn plaatje niet denk ik ja vraag uit publiek

Technology and over capitalism, I don't think that's what the picture is, yes, a question from the audience.

koert jij zit bij RTL en je wilt het algoritme beten

Koert, you are at RTL and you want to understand the algorithm better.

en eerlijke maken

and make it fair

maar wat RTL beter en eerlijker vindt is waarschijnlijk niet wat ik beter en eerlijker

But what RTL thinks is better and fairer is probably not what I think is better and fairer.

vindt het gaat er dus in essentie om wat je er in het systeem stopt hoe ga je hiermee om

It's essentially about what you put into the system and how you handle it.

nee maar heeft u heeft u helemaal gelijk in we zijn in de kunstmatige intelligentie de manier

No, but you are absolutely right, we are in artificial intelligence the way.

waarop deze deze techniek werkt hij is heel erg afhankelijk van wat je erin stopt en dan moet je

on which this technique works, it is highly dependent on what you input, and then you have to

ook Cal sitten dat ben je om dat bunları resultaten gaan opleveren de vorigeㅠㅠ

Also, Cal, you sit there because these will yield results compared to the previous ones.

veio en natuurlijk eens heel erg bedankt aan de voorbeelden van opnieuw de als ik wel dat je

"Veio and of course thank you very much for the examples of again the if I do that you."

het,

it,

dat vertel ik gaat doen is heel erg is om iemand te uitleggen,

What I'm going to tell you is very difficult to explain to someone.

als jij deze data op deze manier verzamelt,

if you collect this data in this way,

dan kan ik je garanderen dat.

then I can guarantee you that.

Dat dit niet gaat lukken op deze manier,

That this is not going to work this way,

dat dit heel erg ontwikkeld is en waarschijnlijk uitleggend is vanuit mijn expertise aan iemand kan uitleggen van nou als je deze data op deze manier verzameld dan kan ik je garanderen dat dat dit niet gaat lukken op deze manier,

that this is very well developed and probably can be explained from my expertise to someone by saying well if you collect this data in this way then I can guarantee you that this is not going to work this way,

Dan kun je die discussie voeren van, oké, wat willen jullie, als RTL, wij willen meer diversiteit.

Then you can have that discussion of, okay, what do you want, as RTL, we want more diversity.

Nou, wat betekent dat dan?

Well, what does that mean then?

Nou, dat ook minderheden zichzelf gerepresenteerd zien in de aanbevelingen die de systemen die ze gebruiken geven.

Well, that minorities also see themselves represented in the recommendations provided by the systems they use.

En dan kun je gaan zeggen, oké, dan is het waardeoordeel van goed.

And then you can say, okay, then the value judgment is good.

Het gaat dus over een gelijke verdeling over alle groepen die zich gerepresenteerd willen zien.

It is therefore about an equal distribution among all groups that want to be represented.

En dan kun je die data gaan aanpassen en die leersystemen verbeteren, zodat dat ook eruit komt.

And then you can start adjusting that data and improving those learning systems, so that will also come out.

Ik wil nog even kort reageren.

I want to respond briefly once more.

Wij bij Hero werken samen met NPO om eigenlijk dezelfde problematiek.

We at Hero work together with NPO to address the same issues.

En een praktische oplossing die we daar proberen is om diversiteit te hebben, of op het onderwerp, of op de omroep.

And a practical solution we are trying there is to have diversity, either on the subject or on the broadcaster.

Dus stel je bent geïnteresseerd in Indonesië, dan krijg je misschien eerst van de ene omroep.

So imagine you are interested in Indonesia, then you might first hear from one broadcaster.

Een programma over Indonesië, daarna vanuit een reisprogramma van, ik weet niet, van een andere omroep, krijg je ook iets over Indonesië.

A program about Indonesia, then from a travel show, I don't know, from another broadcaster, you'll also get something about Indonesia.

Dan heb je dus wel die diversiteit, maar je blijft bij hetzelfde onderwerp.

So you do have that diversity, but you stick to the same topic.

Maar je kan ook vanuit dezelfde omroep verschillende onderwerpen krijgen.

But you can also receive different topics from the same broadcaster.

Dus dat is een hele praktische invulling om te proberen aan de ene kant dus wel mensen iets aan te raden waar ze geïnteresseerd in zijn.

So that's a very practical way to try to recommend something to people on one hand that they are interested in.

En aan de andere kant, op een beetje objectieve manier, want daar gingen we vragen over, van hoe doe je dat, toch diversiteit erin te brengen.

And on the other hand, in a somewhat objective manner, because that was what we were questioning, how do you manage to bring diversity into it.

Door, nou ja.

Well, door.

Ja, die omroepen te gebruiken voor de diversiteit.

Yes, to use those broadcasters for diversity.

Ik durf het bijna niet te zeggen, maar dat is wel gebaseerd op de aanname dat meer diversiteit goed is.

I can hardly say it, but that is based on the assumption that more diversity is good.

Dat mag je best zeggen hoor.

You can definitely say that.

En daar, dat vind ik niet zomaar waar.

And there, I don't simply find that to be true.

Kijk, dat is natuurlijk precies ook de identiteit of de cultuur waar een bedrijf dan op een gegeven moment voor kiest.

Look, that is of course exactly the identity or culture that a company eventually chooses.

Vandaar dat ik eerder ook zei, van wat het normen en waarden kaart.

That's why I said earlier about the norms and values map.

En dat het normaal dus ook een schade is, waar je aan wil voldoen.

And that it is normally also a damage that you want to comply with.

Dat verschilt per regio, maar het verschilt dus ook misschien wel per organisatie.

That depends on the region, but it may also vary by organization.

De meeste organisaties hebben al een aantal bedrijfswaarden waar ze voor staan.

Most organizations already have a set of corporate values that they stand for.

En je zou dan willen dat de manier waarop hun AI wordt ingezet, dat dat hun bedrijfswaarden ondersteunt en onderschrijft.

And you would want the way their AI is deployed to support and endorse their business values.

Je kan het dan niet eens zijn met de bedrijfswaarden van die organisatie en dan haal je dus je spullen ergens anders.

You may not agree with the corporate values of that organization, and then you'll take your belongings elsewhere.

Maar zo'n bedrijf wil zichzelf vooral gerepresenteerd zien...

But such a company primarily wants to see itself represented...

die genomen worden met ondersteuning van AI.

those taken with the support of AI.

En ik denk dus dat het niet zozeer gaat over wat is absoluut goed of slecht.

And I think it's not so much about what is absolutely good or bad.

Daar kan een organisatie zelf zijn eigen keuzes in maken.

There, an organization can make its own choices.

De een is daarin commerciëler, de andere is daarin wat maatschappelijker verantwoord.

One is more commercial in that regard, the other is more socially responsible.

Weer een ander heeft een bepaalde politieke voorkeur.

Again, another one has a certain political preference.

Dat is allemaal helemaal prima.

That's all perfectly fine.

Maar zij willen natuurlijk wel op zo'n manier controle uitoefenen over de systemen die ze inzetten.

But they obviously want to exercise control over the systems they deploy in such a way.

Dat die systemen niet ineens keuzes of besluitvormingen gaan bespoedigen.

That those systems will not suddenly accelerate choices or decision-making.

Die niet in lijn zijn met dat waardekader wat ze voor zichzelf hebben opgesteld.

Those that are not in line with the value framework they have set for themselves.

En ik denk dat dat nu de voornaamste insteek is van verantwoorden is het van AI.

And I think that the main approach to accountability for AI is now.

Volgende vraag.

Next question.

Je vertelde net dat er toch een menselijke maat moet worden gebruikt.

You just mentioned that a human scale should be used after all.

Neem bijvoorbeeld ProA.

Take ProA, for example.

Anna, stel, ik ben een 14-jarig meisje en ik wil dat wel vinden.

Anna, let's say I'm a 14-year-old girl and I want to find that.

Kom ik daar dan gewoon niet?

Am I just not going there?

Wordt het me niet aangeraden?

Am I not being advised to do it?

Of heeft iemand het gelabeld als dat mag niet gezien worden?

Or did someone label it as not to be seen?

Er moet altijd iemand bepalen wat wel en niet mag in die zin.

There always needs to be someone to determine what is allowed and what is not in that sense.

Ja, nee, dat klopt. Zeker.

Yes, no, that's correct. Certainly.

Als iemand daar actief naar op zoek gaat.

If someone is actively looking for that.

Ik bedoel, ook hier zeg ik niet dat iets absoluut goed is.

I mean, I'm not saying that something is absolutely good here either.

Of fout is alleen op dit moment heeft niemand het door, dus het gebeurt op dit moment zonder dat iemand daar een bewuste beslissing of keuze heeft gemaakt.

The mistake is that at this moment no one has noticed it, so it is happening at this moment without anyone making a conscious decision or choice.

Die persoon die zoekt naar sport en dieet filmpjes was niet van plan om op ProA-achtige content uit te komen, maar toch gebeurde het en TikTok heeft het zelf ook niet door dat dat gebeurt, dus op de een of andere manier gaat het een eigen leven leiden.

The person searching for sports and diet videos did not intend to end up with ProA-like content, but it happened anyway, and TikTok itself is not aware that this is happening, so somehow it is going to take on a life of its own.

En ik denk dat dat vooral een hele kwalijke zaak is.

And I think that is especially a very serious matter.

Natuurlijk moet techniek voor iemand werken, maar in dit geval vraag ik me af voor wie het dan precies werkt, niet voor die eindgebruiker.

Of course, technology should work for someone, but in this case, I wonder for whom it actually works, not for that end user.

En ik kan me niet voorstellen dat TikTok er heel veel baat bij heeft.

And I can't imagine that TikTok benefits from it very much.

Ga even maar door.

Just keep going.

We werken nu al zo'n tien, vijftien jaar in de digitale wereld met aanbevelingen.

We have been working in the digital world with recommendations for about ten to fifteen years now.

En jullie vertellen dat het deze beter gemaakt moet worden.

And you tell them that it needs to be improved.

Jullie doen een onderzoek na, maar is het ook mogelijk om algoritmes te maken die dit kunnen?

You are conducting research, but is it also possible to create algorithms that can do this?

Kan het? Ja, een hele goede vraag en ik denk dat het zeker kan, maar we moeten nog, denk ik, in de techniek leren op wat voor manier het ook op een efficiënte manier kan, want

Can it be done? Yes, a very good question and I think it definitely can, but I think we still need to learn in terms of technology how it can also be done efficiently, because

ik wil, ik probeer niet te technisch te worden, maar om dus dit soort systemen te, AI werkt altijd door het trainen van patronen in data en je hebt er helaas heel veel data voor nodig en hoe specifieker je doelgroep, hoe waarschijnlijker is dat er heel weinig data beschikbaar is om een goede representatie van die doelgroep te krijgen.

I want, I’m trying not to get too technical, but to explain these kinds of systems, AI always works by training patterns in data, and unfortunately, you need a lot of data for that, and the more specific your target audience is, the more likely it is that there is very little data available to get a good representation of that audience.

En we leren wel steeds beter om het steeds minder data.

And we are getting better at using less and less data.

Betere resultaten te genereren, maar dat is ook een proces en daarom heb ik wel wat twijfels bij hoe sommige AI bedrijven het aanpakken als soort van het internet als proeftuin te gebruiken.

Generating better results, but that is also a process, and that is why I have some doubts about how some AI companies are approaching it by using the internet as a kind of experimental ground.

Veel van dit soort onderzoek moet ook gewoon in onderzoeksgroepen en op universiteiten en hogescholen plaatsvinden.

Much of this type of research must also take place in research groups and at universities and applied sciences universities.

Voordat je dan een soort van zo'n algoritme maar loslaat en we zien wel wat er gebeurt.

Before you just let loose a kind of algorithm like that and we'll see what happens.

Maar ik denk zeker dat het mogelijk is en er wordt ook heel veel onderzoek naar gedaan op wat voor manier met weinig data, met specifieke data.

But I definitely think it is possible, and a lot of research is being done on how to do it with little data, with specific data.

Goede aanbevelingen kunt geven.

You can give good recommendations.

Alles staat of valt ook een beetje met probleemdefinitie.

Everything stands or falls a bit with problem definition.

Hoe goed ben je in staat om het probleem goed te definiëren?

How well are you able to define the problem?

En je succescriteria.

And your success criteria.

Ja, en je succescriteria.

Yes, and your success criteria.

Maar dat is onderdeel eigenlijk van je probleem.

But that is actually part of your problem.

En dat kan voor sommige problemen makkelijker dan voor anderen.

And that can be easier for some problems than for others.

En dat maakt ook juist verantwoorde inzet van AI voor sommige gebieden een stuk ingewikkelder dan voor anderen.

And that makes the responsible deployment of AI in some areas a lot more complicated than in others.

Als dingen heel zwart-wit zijn.

When things are very black and white.

Bijvoorbeeld een potje schaak.

For example, a game of chess.

Iemand heeft gewonnen of iemand heeft verloren.

Someone has won or someone has lost.

Iemand heeft zijn stuk op de juiste manier verzet.

Someone has moved their piece correctly.

Ja of nee.

Yes or no.

Iemand staat schaak of iemand staat niet schaak.

Someone is in check or someone is not in check.

Dat is heel recht toe recht aan.

That is very straightforward.

Dat bord is heel overzichtelijk.

That board is very clear.

Het aantal zetten wat je kan doen is heel overzichtelijk.

The number of moves you can make is very clear.

En dat geldt voor een heleboel vraagstukken waar wij het nu hierover hebben niet.

And that applies to a whole lot of issues we are discussing right now, it does not.

En daardoor is het ook heel lastig om te bedenken welke informatie moet je nou aan het systeem geven om te kunnen optimaliseren.

And as a result, it is also very difficult to determine what information you need to provide to the system in order to optimize.

Een heel bekend voorbeeld is van Robert Babushka.

A very well-known example is from Robert Babushka.

Die had een PhD student en die wilde een robot leren lopen.

He had a PhD student, and he wanted to teach a robot to walk.

En die had een reward function.

And it had a reward function.

Dus dat is de manier waarop je zo'n algoritme kan trainen.

So that's how you can train such an algorithm.

Het krijgt dan punten en hoe meer punten het verzamelt hoe beter het het doet.

It then earns points, and the more points it collects, the better it performs.

En je moet dan dus definiëren waarvoor je dat systeem punten gaat geven.

And then you need to define what you will award points for in that system.

Zodat het gaat optimaliseren naar het juiste gedrag.

So that it optimizes towards the right behavior.

Toen hadden ze punten gegeven iedere keer op het moment dat hij met zijn voet de grond raakte.

Then they gave points every time he touched the ground with his foot.

En dat is een heel bekend voorbeeld.

And that is a very well-known example.

Maar daardoor ging hij niet lopen.

But that didn't make him walk.

Hij ging op de plaats heel hard trappelen.

He started to stomp very hard in the spot.

Dus definiëren wat je precies gaat belonen om het juiste gedrag uit te lokken.

So, define what exactly you are going to reward in order to elicit the right behavior.

Dat is heel vaak de uitdaging.

That is very often the challenge.

Dus de juiste probleemdefinitie en de juiste informatie meegeven.

So, providing the correct problem definition and the right information.

Zodat als het dan gaat optimaliseren het ook optimaliseert richting het gedrag wat je zou verwachten.

So that when it comes to optimizing, it also optimizes towards the behavior you would expect.

Dat is heel ingewikkeld.

That is very complicated.

Dus willen we dat een aanbevelingssysteem...

So we want a recommendation system...

...zolang mogelijk de aandacht vasthoudt en de klant vasthoudt.

...keeps the attention as long as possible and retains the customer.

Of willen we dat het zorgt dat mensen op een andere mening kunnen komen.

Or do we want it to enable people to come to a different opinion?

En kunnen we dat dan ook evalueren en als reward function in je systeem krijgen.

And can we then evaluate that and incorporate it as a reward function in your system?

Volgens mij wil Frank wat vragen.

I think Frank wants to ask something.

Ik kom zo nog bij jou. Dan doen we nog twee vragen.

I'll be with you in a moment. Then we'll do two more questions.

Bol.com en andere online shoppingwinkels werken ook met recommendations.

Bol.com and other online shopping stores also work with recommendations.

En daar kun je richting de feestdagen bijvoorbeeld een vinkje aanzetten.

And there you can check a box, for example, as the holidays approach.

Wordt bezorgd voor 5 december.

Will be delivered by December 5th.

Dat is dan een keiharde prestatie eis die je kan stellen.

That is a tough performance requirement that you can set.

En wat ik mis bij Netflix recommendations.

And what I miss in Netflix recommendations.

Is dat het past zich nooit aan.

Is that it? It never adapts.

Bijvoorbeeld chat GPT past zich wel aan.

For example, chat GPT does adapt.

Dan kun je vragen om andere opties.

Then you can ask for other options.

Dus een combinatie van een recommendersysteem...

So a combination of a recommendation system...

...met een contactsysteem zoals chat GPT.

...with a contact system like chat GPT.

Zou dat kunnen werken bij bijvoorbeeld Netflix.

Could that work at, for example, Netflix?

Dat je kan vragen om iets minder dan...

That you can ask for something less than...

...een aflevering van iets minder dan 25 minuten.

...an episode of just under 25 minutes.

Zo vlak voor het slapengaan.

Just before going to sleep.

Zou dat een optie zijn?

Could that be an option?

Dat denk ik wel.

I think so.

Het is wel zo dat...

It is true that...

Dus de technologie waar in ieder geval de basis van chat GPT op gebaseerd is.

So the technology on which at least the foundation of chat GPT is based.

Is vrij nieuw.

Is fairly new.

Die bestaat ongeveer 5 jaar.

It has existed for about 5 years.

En is echt tekst gebaseerd.

And it is really text-based.

Dus chat GPT.

So chat GPT.

Iedereen die er wel eens mee gewerkt heeft weet.

Anyone who has ever worked with it knows.

Je moet wat tikken.

You need to type something.

Maar hij snapt wat je tikt.

But he understands what you're typing.

En hij gaat met je in discussie.

And he will debate with you.

Er zitten nog allerlei andere dingen bij.

There are all sorts of other things included.

Maar de basis is tekst gebaseerd.

But the foundation is text-based.

De vraag is nu natuurlijk.

The question is now, of course.

Hoe ga je van tekst naar beeld?

How do you go from text to image?

En hoe ga je ervoor zorgen dat dat recommendersysteem wat daaronder zit.

And how are you going to ensure that the recommendation system underneath it.

In chat GPT.

In chat GPT.

Van toepassing wordt.

Will be applicable.

Op de manier waarop beelden bekeken kunnen worden.

In the way images can be viewed.

En verwerkt kunnen worden.

And can be processed.

Daar wordt heel hard aan gewerkt.

A lot of hard work is being done on that.

Er zijn ook al wat voorbeelden van.

There are already some examples of that.

Hoe snel dat in systemen als Netflix of Videoland gaat doordringen.

How quickly that will penetrate systems like Netflix or Videoland.

Durf ik niet te zeggen.

I dare not say.

Maar ik denk wel snel eerlijk gezegd.

But I do think quickly, to be honest.

Want we zien wel.

Because we will see.

Het gaat allemaal heel erg snel op het moment.

Everything is moving very quickly at the moment.

Met die ontwikkeling.

With that development.

En dit nieuwe algoritme.

And this new algorithm.

Is nu op alle vlakken van media.

Is now present in all areas of media.

Dus van tekst tot geluid tot beeld.

So from text to sound to image.

Om zich heen aan het grijpen.

Grabbing around itself.

Alle onderzoekers zien.

All researchers see.

Hoe goed dit algoritme werkt.

How well this algorithm works.

Niet alleen voor tekst maar ook beeld en geluid.

Not only for text but also for images and sound.

Dus we gaan dit zeker zien.

So we will definitely see this.

Dat dat beter wordt op die manier.

That it will get better that way.

Laatste vraag.

Last question.

Zou ik hier nog iets meer over mogen zeggen?

May I say a little more about this?

Vooruit.

Forward.

Chat GPT is eigenlijk een combinatie van.

Chat GPT is actually a combination of.

Enerzijds GPT 4 inmiddels.

On the one hand, GPT-4 by now.

En Instruct GPT.

And Instruct GPT.

Waarbij dus.

Whereby.

GPT het.

GPT it.

Large language model is.

Large language model is.

Dus dat genereert inderdaad die taal.

So that does indeed generate that language.

En Instruct GPT is eigenlijk een soort.

And Instruct GPT is actually a kind.

Mens in de loop achtige functionaliteit.

Human in the loop-like functionality.

Waarbij je inderdaad.

Whereby you indeed.

Aanvullingen kan geven.

Can provide additions.

Voorbeelden kan geven.

Can give examples.

Waar dat model dan weer van leert.

What that model then learns from.

In de interactie.

In the interaction.

En dat human in the loop learning.

And that human in the loop learning.

Dat is volgens mij iets wat inderdaad.

In my opinion, that is indeed something.

In de toekomst veel meer.

In the future, much more.

Gebruikt zal gaan worden.

Will be used.

En waar ook heel veel.

And where there is also a lot.

Startups op ontstaan.

Startups are emerging.

Dus die maken enerzijds gebruik van explainability.

So they make use of explainability on one hand.

Zodat je snapt.

So that you understand.

Wat de uitkomst is.

What the outcome is.

En anderzijds hebben ze een feedback loop.

And on the other hand, they have a feedback loop.

Waarbij je als mens aanvullende informatie kan geven.

Where you, as a person, can provide additional information.

Die het systeem dan weer kan absorberen.

That can then be absorbed by the system.

Om nieuwe informatie.

For new information.

Of aanpassende.

Or adapting.

Nieuwe verbanden te leggen enzovoort.

To establish new connections, etc.

En dat is echt wel een soort.

And that is really a kind.

Ja.

Yes.

Nieuwigheid die.

Novelty that.

Waarschijnlijk veel meer terug zal komen.

Probably will come back much more.

Jullie hebben het over.

You are talking about it.

De organisatie.

The organization.

Van een bepaald recommendersysteem.

From a certain recommendation system.

En de voordelen.

And the benefits.

En de gevaren die hij met zich meebrengt.

And the dangers he brings with him.

Dat het niet voor ieder.

That it's not for everyone.

Dat het voor ieder individu.

That it is for every individual.

Verschillend kan zijn.

It can be different.

Zou het dan een oplossing kunnen zijn.

Could it then be a solution?

Voor een bedrijf.

For a company.

Om een drietal algoritmes te geven.

To provide a few algorithms.

En de gebruiker zelf.

And the user themselves.

Te laten kiezen.

To let choose.

Bijvoorbeeld zoals twitter.

For example, like Twitter.

Het algoritme openbaar maken.

Make the algorithm public.

Zodat je de gebruiker zelf kan tweaken.

So that the user can tweak it themselves.

En de parameters.

And the parameters.

Kan aanpassen.

Can adjust.

Wat denken jullie dat de toekomst heeft?

What do you think the future holds?

Ik vind het wel mooi van alles te vragen.

I think it's nice to ask everything.

Dat het allemaal gaat over meer.

That it all comes down to more.

Participatie vanuit de gebruiker.

Participation from the user.

En ik blijf een beetje terugkoppelen.

And I’ll keep providing some feedback.

Aan hetzelfde punt.

At the same point.

Maar wat heel mooi daaraan is.

But what is very beautiful about that is.

Denk ik dat de waarde van de gebruiker.

I think that the value of the user.

Uiteindelijk een grotere rol gaat spelen.

Ultimately, it will play a larger role.

In zo'n model.

In such a model.

Ik vind het nog moeilijk om het helemaal voor me te zien.

I still find it difficult to fully visualize it.

Kan je kiezen voor een algoritme met meer diversiteit.

Can you choose an algorithm with more diversity?

Die je meer verrast.

That surprises you more.

In plaats van een algoritme dat alleen maar.

Instead of an algorithm that merely.

De beste clickbait voor jou geeft.

The best clickbait for you provides.

Maar dat vind ik heel mooi.

But I find that very beautiful.

Aan beide punten eigenlijk.

At both points actually.

Wat algoritmes betreft.

As for algorithms.

En het aan elkaar koppelen van algoritmes.

And linking algorithms together.

Wat we weten is dat.

What we know is that.

De keten is.

The chain is.

Zo zwak als de zwakste schakel.

As weak as the weakest link.

Dus als we algoritmes aan elkaar gaan knopen.

So if we start linking algorithms together.

Wat je dan vaak ziet gebeuren.

What you often see happen then.

Dat het zwakste algoritme gaat.

That the weakest algorithm is used.

De resultaten domineren.

The results dominate.

En dat is eigenlijk niet wat we willen.

And that's not really what we want.

Met AI.

With AI.

Wat ze noemen met een technisch woord.

What they call it with a technical term.

End to end leren.

End-to-end learning.

We hebben de input van de gebruiker.

We have the user's input.

Direct.

Direct.

Via de AI.

Via the AI.

Komt daar de gewenste output uit.

Is the desired output coming from there?

Zonder dat er meerdere algoritmes aan te pas komen.

Without the involvement of multiple algorithms.

Het zit allemaal in één systeem.

It's all in one system.

Wat in één keer geleerd kan worden.

What can be learned in one go.

Dat werkt vaak toch wel het beste.

That often works best.

Maar dat is technisch gezien een grotere uitdaging.

But that is technically a greater challenge.

Dan verschillende algoritmes aan elkaar.

Then connect different algorithms to each other.

Knopen in een keten.

Knots in a chain.

Voordeel nadeel.

Advantage disadvantage.

Ik denk dat het ene gaat sneller.

I think that one goes faster.

Algoritmes die bestaan aan elkaar knopen.

Algorithms that connect to each other.

Maar als je echt bepaalde doelen wil bereiken.

But if you really want to achieve certain goals.

Waardes die je van te voren defineert.

Values that you define in advance.

Dan zal je dat toch end to end moeten doen.

Then you will have to do that end to end.

Dank jullie wel.

Thank you very much.

We gaan naar het volgende thema.

We are moving on to the next theme.

Hoi lieve moraalridder.

Hi dear moral knight.

Rijk hier van Hiro.

Rich here from Hiro.

Een korte onderbreking.

A short interruption.

Voor de noodzakelijke schaamtevolle zelfpromotie.

For the necessary shameful self-promotion.

Ik voel me daar altijd ongemakkelijk bij.

I always feel uncomfortable about that.

Maar toen ik dat aan chat GPT vertelde.

But when I told that to chat GPT.

Zei hij.

He said.

Dat begrijp ik helemaal.

I completely understand that.

Het kan soms ongemakkelijk voelen.

It can sometimes feel uncomfortable.

Om te vragen om steun.

To ask for support.

Maar het is belangrijk om te onthouden.

But it is important to remember.

Dat het delen van jouw kennis.

That sharing your knowledge.

Over AI en ethiek.

About AI and ethics.

Een waardevolle bijdrage levert.

Makes a valuable contribution.

Aan het vergroten van het bewustzijn.

To raising awareness.

En begrip over dit onderwerp.

And understanding about this subject.

Als podcastmaker investeer je tijd.

As a podcast creator, you invest time.

Moeite en middelen in het maken van deze aflevering.

Effort and resources in making this episode.

En het verspreiden van kennis.

And the dissemination of knowledge.

Het is daarom logisch om te willen.

It is therefore logical to want to.

Dat jouw werk zoveel mogelijk mensen bereikt.

That your work reaches as many people as possible.

En dat je ondersteund wordt door je luisteraars.

And that you are supported by your listeners.

Het is niet te bescheiden.

It is not too modest.

Om te vragen om steun en herkenning voor jouw werk.

To ask for support and recognition for your work.

Het is belangrijk en waardevol wat je doet.

What you do is important and valuable.

En het verdient de aandacht.

And it deserves attention.

En herkenning van een groter publiek.

And recognition from a larger audience.

Nou.

Well.

Als onze nieuwe AI god dat zegt.

If our new AI god says that.

Dan luister ik dus.

Then I listen.

Als je geniet van deze podcast.

If you enjoy this podcast.

Wil ik je vragen om ons te helpen groeien.

I would like to ask you to help us grow.

En meer mensen te bereiken.

And to reach more people.

Je kan mij helpen.

You can help me.

Door op jouw podcast platform.

Through your podcast platform.

Te volgen of te beoordelen.

To follow or to assess.

Of nog beter.

Or even better.

Deel de aflevering met vrienden, familie en collega's.

Share the episode with friends, family, and colleagues.

Zet bijvoorbeeld eens een linkje.

For example, set a link.

In je chat op werk.

In your work chat.

Als je wilt delen.

If you want to share.

Wat je van een aflevering vindt.

What you think of an episode.

Dan kan dat op de Hero LinkedIn.

Then it can be done on the Hero LinkedIn.

Of via rijkethero.nl

Or via rijkethero.nl

Op onze website.

On our website.

AI.hero.nl

AI.hero.nl

Vind je meer informatie over onze missie.

Find more information about our mission.

En kun je ook ons aanbod van workshops bekijken.

And you can also take a look at our range of workshops.

Over verantwoorden AI voor iedereen.

About making AI accountable for everyone.

Dus bedankt voor het luisteren.

So thank you for listening.

Na deze podcast aflevering.

After this podcast episode.

En ik hoop dat ik nog.

And I hope that I still.

Vele interessante afleveringen.

Many interesting episodes.

Mag gaan maken en delen.

May make and share.

En nu weer door.

And now on we go.

Met de aflevering.

With the delivery.

We gaan naar het volgende thema.

We're going to the next theme.

En dat is vooroordelen in AI.

And that is biases in AI.

Ter introductie.

For introduction.

Ben ik weer bij jullie.

I'm back with you again.

Op zoek naar.

Looking for.

Voorbeelden van het dagelijks leven.

Examples from daily life.

Waar komt gezichtsherkenning.

Where does facial recognition come from?

Voor.

For.

Roep maar.

Just call.

Telefoon.

Phone.

Om het te unlocken.

To unlock it.

Andere voorbeelden.

Other examples.

Auto's detecteren.

Detecting cars.

Of je in slaap valt.

Whether you fall asleep.

Auto's detecteren of je in slaap valt.

Cars detect whether you are falling asleep.

Dus die houden je ook in de gaten.

So they keep an eye on you as well.

Google foto's.

Google Photos.

Ja inderdaad.

Yes indeed.

Detectie.

Detection.

Van wie er op foto's staat.

Of whom is on the photos.

Van Google of Facebook.

From Google or Facebook.

Een ander programma.

Another program.

Inderdaad.

Indeed.

Studenten om te kijken.

Students to watch.

Of je wel de persoon bent.

Whether you are the person.

Die op het papiertje staat.

That is written on the paper.

Goede voorbeelden.

Good examples.

Rijk ik wil naar jou gaan.

Rich, I want to come to you.

En het iets algemener trekken.

And make it slightly more general.

Dan alleen gezichtsherkenning.

Then only facial recognition.

Want zoals we zo zullen merken.

For as we will notice.

Komen daarin vooroordelen voor.

Do they contain prejudices?

Maar vooroordelen zijn natuurlijk.

But prejudices are natural.

Wijdverbreider.

Widespreader.

Maar mijn vraag is.

But my question is.

In een AI systeem.

In an AI system.

Ja.

Yes.

Ik kan het laatste voorbeeld gebruiken.

I can use the last example.

Over de proctoring.

About the proctoring.

Bij tentamens.

During exams.

Dus kijken of studenten hun tentamen maken.

So see if students are taking their exam.

Daar was het eigenlijk heel simpel.

It was actually very simple there.

Daar werd een dataset gebruikt.

A dataset was used there.

En in die dataset zaten.

And in that dataset were.

Vooral mensen met een witte huidskleur.

Especially people with white skin color.

Dus deze persoon die.

So this person who.

Robin Pocari heette.

His name was Robin Pocari.

Volgens mij.

According to me.

Die werd niet herkend.

That was not recognized.

Die had een zwarte huidskleur.

He had a black skin color.

En die had er een klacht in gediend.

And he had filed a complaint.

Bij de college van de rechten van de mens.

At the college of human rights.

Meer algemeen de vraag.

More generally the question.

Hoe komen vooroordelen in algoritmes terecht.

How do biases end up in algorithms?

Dus onderscheid maken.

So make a distinction.

Of discrimineren.

Or discriminate.

Of vooroordelen hebben.

Or have prejudices.

Is eigenlijk iets wat hoort.

Is actually something that belongs.

Bij menselijk redeneren.

In human reasoning.

En ook bij computer redeneren.

And also in computer reasoning.

Dus dat punt wil ik eigenlijk eerst maken.

So that point is what I actually want to make first.

Dat in een meer zachtere.

That in a softer one.

Betekenis daarvan maken we.

We create the meaning of that.

Dat het individueel onderscheid.

That it distinguishes individually.

Dus op dit moment.

So at this moment.

Zitten wij hier als panel.

Are we sitting here as a panel?

Als expert.

As an expert.

En jullie als publiek.

And you as the audience.

En dat helpt ons om te weten.

And that helps us to know.

Wie er wanneer gaat praten.

Who is going to talk when.

Dus dat is heel handig eigenlijk.

So that is actually very handy.

Die verwachtingen die we continu hebben.

Those expectations that we constantly have.

Die onderscheiden die we continu maken.

The distinctions we continuously make.

Alleen soms dan.

Only sometimes then.

Passen die hokjes niet helemaal.

Those boxes don't quite fit.

Of zijn die generalisaties niet helemaal kloppend.

Or are those generalizations not entirely correct?

En hebben individuen daar last van.

And do individuals suffer from that?

Maar het hoort dus fundamenteel.

But it is fundamentally part of it.

Bij algoritmes.

At algorithms.

En bij menselijk redeneren.

And in human reasoning.

Om verwachtingen te hebben of vooroordelen.

To have expectations or prejudices.

En om onderscheid te maken.

And to make a distinction.

Dus het is heel moeilijk om uit elkaar te trekken.

So it is very difficult to pull apart.

Kurt.

Kurt.

De techniek erachter.

The technology behind it.

Maakt eigenlijk.

Actually makes.

Dat vooroordelen uit ontstaan.

That prejudices arise from.

Kun je vanuit technisch oogpunt daar wat over zeggen?

Can you say something about that from a technical point of view?

Ja dus.

Yes, so.

Gezichtsherkenning is denk ik.

Facial recognition is, I think.

In computer vision.

In computer vision.

Een van de eerste dingen.

One of the first things.

Die men ging oplossen.

That one was going to get resolved.

En dat werkte.

And that worked.

Met schaduw.

With shadow.

In het gezicht.

In the face.

En wat al snel bleek.

And what soon became apparent.

Is dat als je een donkerdere huidskleur hebt.

Is that if you have a darker skin tone?

Dan vallen schaduwen minder op.

Then shadows are less pronounced.

In het gezicht.

In the face.

Dan bij een witte huidskleur.

Then with a white skin color.

Dus daar ontstaat al direct.

So that arises immediately.

Vanuit de gebruikte techniek.

From the technique used.

Een discriminatie eigenlijk.

A discrimination actually.

Want mensen met een donkere huidskleur.

Because people with dark skin color.

Worden door dat algoritme.

Become through that algorithm.

Dat specifieke algoritme.

That specific algorithm.

En hebben we het wel over een algoritme.

And are we talking about an algorithm?

Wat al 20 jaar oud is.

What is already 20 years old.

Simpelweg door de manier waarop de techniek werkt.

Simply by the way the technology works.

Minder goed herkend.

Less well recognized.

Nu zijn we 20 jaar verder.

Now we are 20 years further.

En.

And.

Qua gezichtsherkenning.

Regarding facial recognition.

Is het denk ik.

I think it is.

Technisch gezien wel opgelost.

Technically, it has been resolved.

In die zin dat bijvoorbeeld.

In the sense that for example.

De nieuwste iPhone.

The latest iPhone.

Die kun je ontsluiten met je gezicht.

You can unlock that with your face.

Je doet dat niet meer op basis van.

You no longer do that based on.

Visuele gezichtskenmerken.

Visual facial features.

Maar die meet.

But that measures.

De vorm van jouw gezicht.

The shape of your face.

Met behulp van infrarood.

With the help of infrared.

En maakt het diepteprofiel van je gezicht.

And creates the depth profile of your face.

Betekent nog steeds dat je.

Still means that you.

Verschillende gezichtsprofielen.

Different facial profiles.

Verschillende gezichtsvormen.

Different face shapes.

In je data moet opnemen.

You must include in your data.

Om dat goed te trainen.

To train that well.

Maar Apple zegt daar zelf over.

But Apple itself says about that.

Deze manier is veiliger.

This way is safer.

Dan bijvoorbeeld een vingerafdruk.

Then, for example, a fingerprint.

Een touch ID.

A touch ID.

200 keer veiliger.

200 times safer.

Dat moet je er maar even voor waar aannemen.

You just have to take that for granted.

Maar je hebt dus geen last meer van.

But you no longer suffer from it.

Een donkere huidskleur.

A dark skin color.

Nou is dat van.

Well, that's that.

Het algoritme van Apple.

The algorithm of Apple.

Heel erg geavanceerd.

Very advanced.

Het voorbeeld van de proctoring software.

The example of the proctoring software.

Daar zit een algoritme in wat waarschijnlijk.

There is an algorithm in it that is probably.

Bij lang en na niet zo geavanceerd is.

After a long time and not so advanced.

En dan treden dit soort problemen nog op.

And then this kind of problems still occur.

Een veel gebruikt algoritme.

A widely used algorithm.

Ontwikkeld door Facebook.

Developed by Facebook.

Meta tegenwoordig.

Meta nowadays.

Dat vrouwen met een donkere huidskleur.

That women with a dark skin color.

In 83% van de gevallen.

In 83% of cases.

Herkend worden.

Being recognized.

Terwijl mannen met een witte huidskleur.

While men with white skin color.

In 99,5% van de gevallen.

In 99.5% of the cases.

Herkend worden.

Being recognized.

Door het systeem.

Through the system.

Maar het probleem is wel op te lossen.

But the problem can be solved.

Dat is denk ik het belangrijkste.

I think that is the most important.

Waarom wordt dat niet gedaan dan?

Why is that not being done then?

Nou bij.

Well then.

Veel camera's.

Many cameras.

Twee ledig.

Twofold.

En enerzijds.

And on one hand.

Zie je zo'n bedrijf.

Do you see such a company?

Deze software verkoopt aan universiteiten.

This software sells to universities.

Waarvan ik vermoed.

Of which I suspect.

Maar dat weten we natuurlijk niet.

But of course we don't know that.

Dat zij een algoritme van de plank getrokken hebben.

That they pulled an algorithm off the shelf.

Voor gezichtsherkenning.

For facial recognition.

Zonder zich te realiseren wat daar.

Without realizing what is there.

De eventuele gevolgen van zijn.

The possible consequences of being.

Anderzijds zie je ook dat.

On the other hand, you also see that.

Veel camera systemen.

Many camera systems.

Die in de stad hangen.

Hanging out in the city.

Of bijvoorbeeld in China overal hangen.

Or, for example, hanging everywhere in China.

Daar zit de software in de camera zelf.

The software is in the camera itself.

En dan is het heel ingewikkeld om die software te updaten.

And then it is very complicated to update that software.

Dus men loopt er achteraan.

So they are following it.

Ja precies.

Yes exactly.

En dan moet je ook.

And then you have to as well.

Infrarood wel scannen.

Infrared should be scanned.

Misschien nog iets doen met de camera.

Maybe do something with the camera.

Ja zeker.

Yes, certainly.

Dus die nieuwste iPhone heeft.

So that latest iPhone has.

Heel geavanceerde camera's.

Very advanced cameras.

En ook infrarood licht wat uitgezonden wordt.

And also infrared light that is emitted.

Zodat het goed werkt.

So that it works well.

Kunnen jullie wat vertellen over de sociale gevolgen.

Can you tell us something about the social consequences?

Van dit.

From this.

Van deze vooroordelen in AI.

Of these prejudices in AI.

Nou bij de.

Well at the.

Bij die zaak van.

In that case of.

Waar een student.

Where a student.

Vraag had ingediend.

Question submitted.

Bij het college van de rechten van de mens.

At the Human Rights Committee.

Zei ze ik word niet gezien als mens.

She said, "I am not seen as a human."

Dus ze werd niet herkend.

So she was not recognized.

Door de video software.

Through the video software.

En ze trok dat naar.

And she pulled that towards her.

Ik word niet als mens gezien.

I am not seen as a human.

En ik denk dat dat.

And I think that.

Een algemeen gevoel is dat mensen hebben.

A general feeling that people have.

Ik hoor er niet bij.

I don't belong.

Of ik ben minder waardig.

Or I am less worthy.

Op het moment dat ze niet worden geïncludeerd.

At the moment they are not included.

Bij zulke software.

With such software.

En ik denk dat dat heel erg.

And I think that is very much.

Waarschijnlijk is.

Probably is.

Dat er geen rekening met jou wordt gehouden.

That you are not being taken into account.

Ja vooral omdat het dus zo wijd verspreid is.

Yes, especially because it is so widely spread.

Dus als.

So if.

Als ik dan even mag aanhaken.

If I may just add something.

Op wat jij net aangaf.

On what you just mentioned.

Heel veel van die systemen.

A lot of those systems.

Die draaien nou eenmaal op die oude software.

They are running on that old software, after all.

Daar valt niet zo snel wat aan te doen.

There's not much that can be done about that quickly.

Maar het wordt wel heel breed ingezet.

But it is being used very widely.

En als het nou alleen die ene keer is.

And what if it's just that one time.

Dat je een keer tijdens je tentamen niet herkend wordt.

That you are not recognized once during your exam.

Dat is waar.

That is true.

Maar wat blijkt is dat je dus.

But what turns out is that you.

Staande wordt gehouden.

Kept standing.

In een publieke ruimte.

In a public space.

Omdat je volgens die software.

Because according to that software.

Lijkt op een voortvluchtige.

Looks like a fugitive.

Vervolgens wil je ergens een gebouw binnen.

Next, you want to enter a building somewhere.

En dat bordje dat gaat alleen open.

And that sign only opens.

Op basis van je gezicht.

Based on your face.

En je wordt niet herkend.

And you are not recognized.

Dus dan moet er voor jou weer een beveiliger komen.

So then a security guard has to come for you again.

Om je binnen te laten.

To let you in.

Vervolgens ga je achter je computer zitten.

Then you sit down behind your computer.

Ga je lekker zoomen met je collega's.

Are you going to have a nice Zoom meeting with your colleagues?

Maar jouw gezicht valt weg in de virtuele achtergrond.

But your face gets lost in the virtual background.

Omdat jouw gezicht niet herkend wordt.

Because your face is not recognized.

En dat telt dan allemaal op.

And that all adds up.

Dus als het één zo'n incident is.

So if it's just one such incident.

Maar als voor jou pertinent.

But if it is pertinent to you.

Al die dingen de hele tijd niet werken.

All those things not working all the time.

Dan wordt het echt een hele vervelende situatie.

Then it will really become a very unpleasant situation.

Waarbij je inderdaad het gevoel krijgt.

Where you indeed get the feeling.

Ik mag niet meedoen.

I am not allowed to participate.

In deze samenleving.

In this society.

Dus ik denk dat het die optelsom is.

So I think that's the sum of it.

En de wijdverspreidheid van de technologie.

And the widespread adoption of the technology.

Die ervoor zorgt dat het op een gegeven moment.

That ensures that it happens at some point.

Echt heel erg in je nadeel gaat werken.

It will really work against you.

En ik denk ook dat de mensen die die technologie inzetten.

And I also think that the people who use that technology.

Dus in dit geval.

So in this case.

De Vrije Universiteit.

The Free University.

Dat zij toch ook een beetje.

That they also do a bit.

In de schijn van objectiviteit trappen.

To fall into the guise of objectivity.

Die zoiets met zich mee lijkt te brengen.

That seems to bring something like that along with it.

Ja die technologie meebrengt.

Yes, that technology brings.

Een bepaalde schijn van objectiviteit.

A certain semblance of objectivity.

Die er niet is.

The one that is not there.

Als je de algoritmes en de manier waarop het getraind is.

If you look at the algorithms and the way it has been trained.

Beter snapt.

Better understands.

En dan kom je toch weer op dat commerciële vlak.

And then you still end up on that commercial level.

Waarbij veel van die start-ups en bedrijven.

Where many of those start-ups and companies.

Die dit soort technologieën gebruiken.

Those who use this kind of technology.

Ja die willen hun systeem verkopen.

Yes, they want to sell their system.

Dus als zij erbij moeten zeggen.

So if they have to add.

Het werkt niet zo goed voor mensen met donkere huidskleur.

It doesn't work so well for people with darker skin.

Dat is niet zo'n goed verkooppraatje.

That's not such a good sales pitch.

Ja of voor vrouwen.

Yes or for women.

Of voor andere minderheden.

Or for other minorities.

Of voor.

Or for.

Er is natuurlijk ook wel een eeuwige discussie.

There is of course also an eternal debate.

Dat bepaalde gebouwen niet toegankelijk zijn.

That certain buildings are not accessible.

Voor mensen.

For people.

Die minder mobiel zijn bijvoorbeeld.

Those who are less mobile, for example.

Daar is het heel vergelijkbaar mee.

It is very similar to that.

Dat is ook ontwerp.

That is also design.

Waarbij een bepaalde groep mensen.

Whereby a certain group of people.

Gewoon heel vaak niet wordt meegenomen.

Just very often is not taken into account.

In het bedenken van een oplossing.

In coming up with a solution.

Omdat het zo'n kleine groep is.

Because it's such a small group.

Ja zullen we zo naar de vragen.

Yes, shall we go to the questions now?

Dan doen we dat zo.

Then we will do it like that.

Hebben jullie nog wat.

Do you have anything left?

Of zou ik nog vragen stellen.

Or should I ask more questions?

Nou ik wil nog wel aan het land spreken.

Well, I would still like to speak to the country.

Voor diversiteit.

For diversity.

Er werd net genoemd.

It was just mentioned.

Is diversiteit altijd per se goed.

Is diversity always inherently good?

Ik denk dat het moet worden afgewogen.

I think it needs to be weighed.

Tegen andere belangrijke waarden.

Against other important values.

Maar ik heb vooral naar interviews.

But I have mainly looked at interviews.

Van Joris Luijendijk geluisterd.

Listened to Joris Luijendijk.

Niet zijn boek gelezen.

Not read his book.

Ik vond wel dat het heel interessante punten maakte.

I found that it made very interesting points.

En een heel mooi punt vond ik.

And I found a very nice point.

Dat juist de mensen die dus systematisch.

That precisely the people who systematically.

Buitengesloten.

Locked out.

Dat we daar eigenlijk niet naar luisteren.

That we actually don't listen to that.

Dat we die geen plek in de samenleving geven.

That we do not give them a place in society.

Per definitie bijna.

Almost by definition.

Maar dat dat de mensen zijn die dus heel goed weten.

But those are the people who know very well.

Hoe het is om om te gaan met buitensluiting.

How it is to deal with exclusion.

En die.

And that.

Zich vaak door weerstand.

Often through resistance.

En weerslag heen kunnen vechten.

And fight against the aftermath.

Dus we zijn een bepaalde groep mensen buiten.

So we are a certain group of people outside.

Die juist heel veel kunnen betekenen voor de maatschappij.

They can really mean a lot for society.

Die heel veel te bieden hebben.

That have a lot to offer.

Die misschien beter met tegenslag om kunnen gaan.

Who may be better at dealing with setbacks.

Dan de mensen met zeven vinkjes.

Then the people with seven ticks.

Zoals luierdijktaal.

Like diaper city language.

Een voorbeeld om daarop aan te sluiten.

An example to follow up on that.

Is een Amerikaanse student.

Is an American student.

Inmiddels afgestudeerd denk ik wel.

I think I have graduated by now.

Joy Buolamwini.

Joy Buolamwini.

Zij zit bij het.

She is sitting with it.

Creative lab van MIT.

Creative lab of MIT.

En waar zij tegenaan liep.

And what she ran into.

Is dat voor augmented reality.

Is that for augmented reality?

Dat is dus net zoals op TikTok.

That's just like on TikTok.

Dat er oortjes op je hoofd kunnen verschijnen.

That ears can appear on your head.

Veel van dat soort algoritmes voor haar niet goed werken.

Many of those kinds of algorithms do not work well for her.

Vanwege haar huidskleur.

Because of her skin color.

En zij heeft dat op een hele succesvolle.

And she has done that very successfully.

Manier aanhangig gemaakt.

Method submitted.

Dat dat probleem er is.

That that problem exists.

Dat die algoritmes.

That those algorithms.

Ik noem het maar even de TikTok algoritmes.

I just call it the TikTok algorithms.

Voor haar en iedereen die op haar lijkt.

For her and everyone who is like her.

Eigenlijk gewoon niet werkt.

Actually just doesn't work.

En zij heeft daar TED talk over gegeven.

And she gave a TED talk about it there.

Zij heeft daar.

She has there.

Ook mensen zoals ik.

Also people like me.

Bewust van gemaakt.

Made aware.

Hier zit in de technologie echt een probleem.

There is really a problem in the technology here.

Waar we naar moeten kijken.

What we need to look at.

Omdat ik herken mezelf wel.

Because I recognize myself.

Of tenminste.

Or at least.

Op mij komen de oortjes wel goed terecht.

The earbuds will end up in the right place for me.

Bij TikTok algoritmes.

On TikTok algorithms.

Snel.

Quick.

Waar zitten hier de verbeteringen?

Where are the improvements here?

Waar kan een verbetering.

Where can an improvement be made?

Komen?

Come?

Je kan de verbetering.

You can make the improvement.

In de techniek zoeken.

Searching in technology.

Je kan de verbetering.

You can improve it.

In de dataset zoeken.

Searching in the dataset.

Beter representatie van allerlei.

Better representation of various things.

Achtergronden in die.

Backgrounds in that.

Leerdata.

Learning data.

Je begint niet met mensen.

You don't start with people.

Of we zouden eerst de cultuur moeten veranderen.

Or we should first change the culture.

Of we zouden eerst het sociaal.

Or we could first address the social aspect.

Wat ik net zei.

What I just said.

Ik moet er wel bewust van gemaakt worden.

I need to be made aware of it.

Dat er een probleem is.

That there is a problem.

Want ik ben wel inderdaad een techneut.

Because I am indeed a technician.

Die er lekker met die data aan drommelen is.

He is having fun with the data.

En niet per se denkt.

And not necessarily thinks.

Oh wacht even.

Oh wait a minute.

Er zitten hier heel veel mensen in.

There are a lot of people in here.

Die wel eigenlijk heel veel op mij lijken.

They actually resemble me a lot.

Bij de Belastingdienst bijvoorbeeld.

For example, at the Tax Office.

Was het wel duidelijk dat er ook echt een cultuurverandering nodig was.

Was it clear that a culture change was really needed?

Met de toeslagenaffaire bedoel ik.

I mean the benefits scandal.

Waarbij.

Whereby.

Als je een niet Nederlandse nationaliteit had.

If you had a nationality other than Dutch.

Je eerder verdacht werd van fraude.

You were previously suspected of fraud.

En.

And.

Dat bleek ook heel erg te leven.

That turned out to be very much alive.

Dat idee.

That idea.

Het idee dat je.

The idea that you.

Inderdaad eerder een fraudeur bent.

Indeed, you are more of a fraud.

Als je niet Nederlandse bent.

If you are not Dutch.

Bij de mensen die bij de Belastingdienst werken.

Among the people who work at the Tax Office.

Dus is het niemand die je aan de bel trekt.

So, it's no one who pulls you up.

Bij zoiets.

With something like that.

Ik vind dit wel een mooi bruggetje naar.

I think this is a nice segue to.

Vaak wordt er.

Often there is.

Komt er dan uit een algoritme.

Then it comes from an algorithm.

Dat bepaalde groepen.

That certain groups.

Gediscrimineerd worden.

To be discriminated against.

Of voorgetrokken worden.

Or to be favored.

En dan denkt men.

And then one thinks.

Dan moeten we maar snel stoppen met dat algoritme.

Then we should quickly stop that algorithm.

Want dat algoritme discrimineert.

Because that algorithm discriminates.

Maar dat algoritme.

But that algorithm.

Dat is getraind op data.

That is trained on data.

Die al uit de reguliere bedrijfsprocessen.

That is already from the regular business processes.

Van die organisatie komen.

To come from that organization.

Dus dat is in wezen.

So that is essentially.

Een reflectie van hoe het al gebeurt.

A reflection of how it already happens.

Bij de toeslagenaffaire.

In the benefits scandal.

Ze hadden wel kunnen zeggen.

They could have said.

We moeten snel stoppen met het algoritme.

We need to stop the algorithm quickly.

En het weer handmatig gaan doen.

And doing it manually again.

Maar dan was hetzelfde resultaat geboekt.

But then the same result had been achieved.

Met de afspiegeling.

With the reflection.

Van hoe het al gebeurde.

About how it already happened.

Hoe mensen al beslissingen namen.

How people made decisions back then.

En dat geldt.

And that applies.

Bijvoorbeeld bij Amazon.

For example at Amazon.

Waarbij een algoritme was ingezet.

In which an algorithm was used.

Om cv's te scannen.

To scan resumes.

Voor technische functies.

For technical positions.

En hoger management functies.

And higher management positions.

Toen bleek dat er alleen maar mannen werden uitgenodigd.

Then it turned out that only men were being invited.

Op gesprek.

In conversation.

En geen vrouwen.

And no women.

Hoe kwam dat?

How did that happen?

Omdat ze in het verleden.

Because they in the past.

Aangenomen.

Accepted.

Dus alles wat het deed.

So everything it did.

Was herkouwen.

Was retaking.

Hoe het al gebeurde.

How it all happened.

En dan kan je wel stoppen met je algoritme.

And then you can stop with your algorithm.

Maar dat betekent niet dat je dan ineens allemaal vrouwen gaat aannemen.

But that doesn't mean you're suddenly going to hire a lot of women.

Dus ja.

So yes.

Dit doet techniek dus heel vaak denk ik.

I think technology does this very often.

Het representeert.

It represents.

De communes opinie.

The commune's opinion.

Of gewoon de gemiddelde idee.

Or just the average idea.

Nu in de samenleving.

Now in society.

En doet alsof dat de waarheid is.

And acts as if that is the truth.

En gaat het ook voorschrijven.

And it will also prescribe.

En verspreiden.

And spread.

Dus ik vraag.

So I ask.

In ieder geval een tijdje geleden.

In any case, a while ago.

Welke nationaliteiten.

Which nationalities.

Bepaalde topfuncties en bedrijven.

Certain top positions and companies.

Hebben.

Have.

Dan zei die Amerikaans.

Then the American said.

En hun junior positie was Mexicaans.

And their junior position was Mexican.

Dat was waarschijnlijk een goede afspiegeling.

That was probably a good reflection.

Van de maatschappij.

From society.

Maar.

But.

Je wilt niet dat iemand.

You don't want anyone.

Hier niet bewust van is.

Is not aware of this here.

En dan chatty pity gebruikt.

And then used chatty pity.

Om zijn algoritme vorm te geven.

To shape his algorithm.

En dit dus ook de waarheid wordt.

And so this also becomes the truth.

Maar vind jij dan.

But do you think then?

Dat dit soort technieken.

That this kind of techniques.

Veel prescriptiever moeten zijn.

Need to be much more prescriptive.

Dat er veel moet voorgeschreven worden.

That many things need to be prescribed.

Wat ze wel en niet kunnen zeggen.

What they can and cannot say.

Ik zou prescriptief hier anders gebruiken.

I would use prescriptive differently here.

De techniek moet niet.

The technology doesn't have to.

Voorschrijvend zijn.

To be prescriptive.

De techniek moet niet zeggen wat we moeten gaan doen.

Technology should not dictate what we should do.

De techniek geeft een beeld van wat de gemiddelde mening is.

The technique provides a picture of what the average opinion is.

En de mens uiteindelijk.

And the human ultimately.

Die interpreteert dat met kennis.

That interprets it with knowledge.

En die bepaalt uiteindelijk de beslissing.

And that ultimately determines the decision.

Die maakt de beslissing of iemand een fraudeur is.

That makes the decision of whether someone is a fraudster.

Of niet.

Or not.

Wat je zegt is.

What you are saying is.

Als je aan chatty pity vraagt.

If you ask chatty pity.

Junior positie Mexicaans.

Junior position Mexican.

Hogere positie Amerikaans.

Higher position American.

Dat is een afspiegeling.

That is a reflection.

Maar moet daar dan.

But then must there.

Een disclaimer onder.

A disclaimer below.

Sowieso een grote disclaimer.

Anyway, a big disclaimer.

Bij chatty pity moet er onder.

With chatty pity, there must be underneath.

Met uitleg.

With explanation.

Dat dit de gemiddelde staat is.

That this is the average state.

Van wat mensen op het internet nu denken.

Of what people on the internet think now.

Of in de dataset.

Or in the dataset.

Maar niet per se meeneemt.

But not necessarily takes along.

Dat is inderdaad.

That is indeed.

Hoe de wereld eruit zou moeten zien.

How the world should look.

Zo'n soort disclaimer zou ik graag zien.

I would like to see a disclaimer like that.

En nog liever wat er eerder werd gezegd.

And preferably what was said earlier.

Zou ik een trial periode van vijf jaar zien.

I would see a trial period of five years.

Waarbij we kijken wat we doen met mensen.

Where we look at what we do with people.

Daar ben ik helemaal mee eens.

I completely agree with that.

Voordat we de wereld gewoon over de schutting gooien.

Before we just toss the world over the fence.

En er van alles voor is.

And there is everything for it.

Geeft dat antwoord?

Does that answer?

Ja.

Yes.

Vraag uit het publiek.

Question from the audience.

Ik dacht dat jij stond te springen.

I thought you were jumping up and down.

Ik ben nu afgekomen.

I have now come down.

Vergeet de microfoon niet.

Don't forget the microphone.

Veel van wat hier voorbij komt.

Much of what is presented here.

Stelt.

Asks.

Het is belangrijk om te weten.

It is important to know.

Wat een algoritme doet.

What an algorithm does.

Jullie noemen dat explainability.

You call it explainability.

En zeggen dat het heel goed is.

And say that it is very good.

Als mensen doorhebben wat er gebeurt.

When people realize what is happening.

Maar dat vraagt nogal wat.

But that asks quite a lot.

De ontwikkelingen gaan zo hard.

The developments are happening so fast.

Hoe kunnen.

How can.

Hoe zouden we mensen.

How would we people.

Hiervan bewust kunnen maken.

Make this aware.

Goeie vraag.

Good question.

Ja.

Yes.

Toen ik net zat te luisteren.

When I was just listening.

Naar het gesprek wat hier plaatsvond.

Regarding the conversation that took place here.

Was ik me aan het bedenken.

I was thinking about it.

Dat het.

That it.

Een verschil is denk ik.

I think there is a difference.

Dat mensen onderling.

That people among each other.

Best wel met elkaar in discussie.

Certainly discuss with each other.

Kunnen gaan nog.

Can go still.

Op een gegeven moment.

At a certain moment.

Als je iets opvalt.

If you notice something.

In de besluitvorming.

In the decision-making.

Dan kan je dat aan de kaak stellen.

Then you can bring that to light.

Dan kan je daar een gesprek over openen.

Then you can start a conversation about it.

En op het moment.

And at the moment.

Dat het door een algoritme gebeurt.

That it is done by an algorithm.

En dat niet inzichtelijk is.

And that is not transparent.

Dan is het heel moeilijk om daar nog.

Then it is very difficult to still be there.

Tegengeluid.

Counter sound.

Bij te produceren.

To be produced.

Dus ik denk dat dat.

So I think that.

Ook een reden is om bijvoorbeeld.

Another reason is, for example.

Explainability of transparency mogelijk te maken.

Enabling explainability of transparency.

Zodat mensen ook daarnaar kunnen kijken.

So that people can also take a look at that.

En kunnen denken hé maar dat is raar.

And you might think, hey, that's strange.

Daar ben ik het eigenlijk niet mee eens.

I actually don't agree with that.

En.

And.

Ja die stap.

Yes, that step.

Is denk ik vergelijkbaar.

I think it's comparable.

Met hoe.

With how.

Er ook een cultureel.

There is also a cultural one.

Omslagpunt moest komen.

A turning point had to come.

Dat je het oneens kon zijn met je manager.

That you could disagree with your manager.

Of met je directeur of zo.

Or with your director or something.

Of wat cultureel gebeurd is.

Or what has happened culturally.

Bij de luchtvaart.

In aviation.

Dat een co-pilot.

That a co-pilot.

Een piloot tegen moest kunnen spreken.

A pilot had to be able to speak up.

Om ongelukken te voorkomen.

To prevent accidents.

Ja daar hebben ze hele protocollen voor.

Yes, they have entire protocols for that.

Voor moeten ontwikkelen.

Need to develop.

In de luchtvaart.

In aviation.

En ik denk dat daar wel echt iets moet ontstaan.

And I think that something really needs to emerge from that.

Waarbij mensen.

Whereby people.

Ja niet puur wantrouwig zijn.

Yes, just don't be purely distrustful.

Richting technologie.

Towards technology.

Maar juist voldoende begrip hebben om er.

But just enough understanding to do it.

Ja wat van te kunnen vinden.

Yes, what can be found.

En daar ook.

And there too.

Zich in dat gesprek te kunnen mengen.

To be able to engage in that conversation.

Op een inhoudelijk.

On a substantive level.

Zinvolle manier.

Meaningful way.

In plaats van dat het alleen maar.

Instead of it just being.

Jee technologie of nee technologie is.

Yes technology or no technology is.

Ja.

Yes.

Ja ik zit hem even te verwerken.

Yes, I'm processing it for a moment.

Waar ik dan tegenaan loop.

What I encounter.

Als ik dan zie.

When I see then.

Zo'n Elon Musk koopt Twitter.

Such an Elon Musk buys Twitter.

En heeft dat nu zijn eigen.

And now it has its own.

Speeltje gemaakt.

Toy made.

Die luistert helemaal nergens naar.

He doesn't listen to anything at all.

En daar vraag ik me wel af.

And there I'm wondering.

Van hoe dring je door.

How do you assert yourself?

Als ook he.

If so, yes.

Als mondige burger van.

As an assertive citizen of.

Dit werkt niet.

This doesn't work.

Dit representeert mij niet.

This does not represent me.

Door een ander platform te gaan gebruiken.

By using a different platform.

Op een gegeven moment.

At a certain point.

Ja eens.

Yes, indeed.

Maar doe het maar.

But just do it.

Je hebt gezien van.

You have seen from.

Dat Twitter een soort levensbehoefte is.

That Twitter is a kind of necessity.

Waar je niet zonder kan.

Where you can't do without.

Zit je niet op mast te doen.

Don't act like a show-off.

Ik zit zeker op mast te doen.

I'm definitely up to something.

Maar als ik het vergelijk.

But when I compare it.

Twitter of mast te doen.

Do Twitter or mast.

Het komt niet van grond.

It doesn't come from the ground.

Het is niet alsof het een elektriciteitscentrale is.

It's not like it's a power plant.

Ik kan gewoon zeggen.

I can just say.

Ik gebruik geen Twitter meer.

I no longer use Twitter.

Want ik vind het inmiddels een rot product.

Because I now consider it a terrible product.

Er zijn steeds meer mensen die het doen.

More and more people are doing it.

Absoluut.

Absolutely.

Er zijn natuurlijk ook veel meer toezichthouders.

There are of course many more supervisors.

Zich mee gaan bemoeien.

To get involved.

Op een gegeven moment.

At one point.

En je daar ook mee naar de rechtbank kan stappen.

And you can also take that to court.

Je kan Elon Musk niet.

You can't do Elon Musk.

Voor de rechter dagen.

To summon to court.

Voor de manier waarop hij Twitter draait.

For the way he runs Twitter.

Nog niet.

Not yet.

Ook hier gaat het weer over.

It's about this again here too.

Wat stop je in het systeem.

What do you put in the system?

En wat is een goed oordeel.

And what is a good judgment?

Want wie kijkt ernaar.

Because who looks at it.

Wat vindt diegene belangrijk.

What does that person consider important?

Neem bijvoorbeeld.

Take for example.

Een rapport uit.

A report out.

Over verkeersveiligheid.

About traffic safety.

Grote kop in de krant.

Big headline in the newspaper.

Er vallen mensen van hun fiets.

People are falling off their bikes.

De een zegt.

One says.

Je moet zorgen dat ze minder gaan fietsen.

You need to make sure they cycle less.

Terwijl de ander juist zegt.

While the other says just that.

Nee.

No.

Hoe meer ze fietsen.

The more they cycle.

Hoe beter.

How better.

Punt 2.

Point 2.

Wat gebeurt er met al die data.

What happens to all that data?

Neem bijvoorbeeld het scannen van gezichten.

Take, for example, the scanning of faces.

Op de universiteit.

At the university.

Blijft het dan alleen in dat systeem.

Does it stay only in that system?

Of iemand zijn college geld.

Or someone else's college money.

Wel heeft betaald.

Well has paid.

Of hoe vaak die aanwezig is op college.

Or how often she is present in class.

Wat gebeurt er met die data.

What happens to that data?

Is mijn inziens.

In my opinion.

Een heel belangrijke vraag.

A very important question.

Ik wil.

I want.

Op het eerste punt reageren.

Responding to the first point.

Volgens mij was het punt.

In my opinion, that was the point.

Dat vooroordelen.

That prejudices.

Heel relatief kunnen zijn.

Can be quite relative.

De een heeft de ene mening.

One has one opinion.

De ander heeft de andere mening.

The other has the opposite opinion.

Er is eigenlijk geen kaas van te maken.

There is actually nothing to be made of it.

Ik denk dat dat.

I think that.

Dat er wel meer stappen kunnen zetten dan dat.

That more steps can be taken than that.

Ten eerste kan je een feitelijke check doen.

First, you can do a fact check.

Er kan data over bekend zijn.

Data may be known about.

Er kunnen wetenschappelijke papers over bekend zijn.

There may be scientific papers about it.

Wat in het fietsvoorbeeld.

What about the bike example?

Of het echt en echt gezonder is.

Whether it is really and truly healthier.

Om weer te fietsen.

To cycle again.

Of dat er echt veel meer ongevallen zijn onder ouderen.

Or that there are actually many more accidents among the elderly.

Je bijvoorbeeld.

You, for example.

In een recent artikel schreef ik.

In a recent article, I wrote.

Over het vooroordeel.

About the prejudice.

Dat vrouwen niet kunnen autorijden.

That women cannot drive.

Daarvan kan je echt data opzoeken.

You can really look up data from that.

Dat het niet klopt.

That it is not true.

Dat ze niet kunnen autorijden.

That they cannot drive a car.

En minder heftige ongelukken maken.

And cause less severe accidents.

Dan weet je vrij zeker dat het vooroordeel niet klopt.

Then you can be fairly certain that the prejudice is not correct.

En moeten we mensen daarop corrigeren.

And we need to correct people on that.

En een tweede stap.

And a second step.

Naast een feitelijke check.

In addition to a factual check.

Is een waarde afweging.

It's a matter of weighing values.

Er zijn verschillende meningen.

There are different opinions.

En we kunnen.

And we can.

Er zijn verschillende waarden.

There are different values.

Maar we kunnen ze wel expliciet maken.

But we can make them explicit.

Misschien vinden we aan de ene kant gezondheid belangrijk.

Perhaps we consider health important on one side.

Aan de andere kant vinden we vrijheid belangrijk.

On the other hand, we find freedom important.

Hoeveel draagt het nu bij aan vrijheid.

How much does it contribute to freedom now?

Hoeveel draagt het nu bij aan gezondheid.

How much does it contribute to health now?

En ja.

And yes.

Welke afweging maken we daar als gemeenschap uiteindelijk in.

What considerations do we ultimately make as a community in that regard?

Dus ik zou het wel meer.

So I would do it more.

Inhoud willen geven dan.

Then let's give it some content.

Er zijn gewoon verschillende meningen.

There are just different opinions.

Dus we komen er nooit uit.

So we never figure it out.

Oké.

Okay.

Dat is in ieder geval wel eens wat ik hoor.

That's at least something I hear.

Maar niet per se van u.

But not necessarily from you.

Ik kan wel eventjes op het tweede punt wat u maakt.

I can briefly touch on the second point you make.

Ingaan over die gezichtsherkenning.

Going into that facial recognition.

En over wat er met die data gebeurt.

And about what happens to that data.

En wat er mee kan gebeuren.

And what can happen to it.

In gezichtsherkenning kun je onderscheid maken.

In facial recognition, you can make distinctions.

Gezichtsherkenning en identificatie.

Facial recognition and identification.

En in de algoritmiek kun je dat onderscheid heel goed maken.

And in the algorithm, you can make that distinction very well.

Je kan op zoek gaan naar gezichten.

You can go in search of faces.

Een algemeen gezicht van mensen.

A general view of people.

En je kan een persoon zoeken.

And you can search for a person.

De iPhone.

The iPhone.

De Face ID doet een identificatie van u.

The Face ID performs an identification of you.

Dus heeft biometrische data.

So it has biometric data.

Over wie u bent.

About who you are.

Dus dat moet heel goed beveiligd worden.

So that needs to be very well secured.

Maar daar zit eerst nog een stap voor.

But there is still a step before that.

En dan gaat het om gezichtsherkenning.

And then it concerns facial recognition.

Bij de proctoring software.

With the proctoring software.

Die kijkt of studenten aanwezig zijn.

He/She checks whether students are present.

Hoef je niet te weten wie dat is.

You don't need to know who that is.

Als die zich geïdentificeerd heeft.

Once it has identified itself.

Met een pasje of iets dergelijks.

With a card or something similar.

Dan hoef je alleen nog maar te kijken.

Then you just have to look.

Is die persoon nog aanwezig.

Is that person still present?

En hoeft die niet geïdentificeerd te worden.

And does not need to be identified.

Dus dan kun je veel algemenere data opslaan.

So you can store much more general data.

Dan specifiek biometrische data.

Then specifically biometric data.

En om ook een ander voorbeeld te geven.

And to give another example as well.

De NS is heel benieuwd.

The NS is very curious.

Hoe druk het is op stations.

How busy it is at the stations.

Daar hebben ze camera's voor hangen.

They have cameras hanging for that.

Welke looppaden de meeste reizigers van de een perron naar de andere lopen.

Which pathways do most travelers take from one platform to another?

Om daar inschattingen over te kunnen maken.

In order to be able to make assessments about that.

Daar is geen sprake van identificatie.

There is no question of identification.

Daar is alleen maar sprake van herkenning.

There is only recognition.

Oh er zijn mensen die hier lopen.

Oh, there are people walking here.

En dan kun je dus.

And then you can, so.

Dan hoef je minder veiligheidsmaatregelen te treffen.

Then you need to take fewer safety measures.

Sterker nog.

On the contrary.

Die telsensoren noemen ze ze.

They call them those counting sensors.

Die slaan niet eens data op.

They don't even store data.

Die herkennen de mensen.

Those recognize the people.

En turven dan vervolgens hoeveel mensen daar per minuut lopen.

And then count how many people walk there per minute.

En die data wordt verder niet opgeslagen.

And that data is not stored further.

Dus alleen de data van zoveel mensen op dit punt.

So just the data of so many people at this point.

Dat wordt weggeschreven naar een datafile.

That will be written to a data file.

En de rest verdwijnt.

And the rest disappears.

Daar wil ik nog aan toevoegen.

I would like to add to that.

Dat heel veel van dit soort vraagstukken.

That many of these kinds of issues.

Ook door de AVG.

Also due to the GDPR.

Dus door wetgeving.

So through legislation.

Worden afgevangen.

Being caught.

In ieder geval in Nederland.

In any case, in the Netherlands.

Op het moment dat je iemands gezichtsdata gaat opslaan.

At the moment you start storing someone's facial data.

Dat daar ook heel duidelijk moet zijn.

That must also be very clear there.

Hoe je dat dan precies beveiligt.

How you secure that exactly.

Hoe lang je dat gaat opslaan.

How long you are going to store that.

Voor welk doeleind.

For what purpose.

En dat je dat ook niet zomaar voor een ander doeleind mag gebruiken.

And that you are not allowed to use that for another purpose just like that.

Zonder dat daar een functionaris gegevensbescherming wat van gaat vinden.

Without a data protection officer having any opinion about that.

Ik denk dat het grootste potentiële risico.

I think that the biggest potential risk.

Bij de toepassing van AI is.

In the application of AI is.

Dat AI bepaalde beslissingen maakt.

That AI makes certain decisions.

Zonder dat het duidelijk is.

Without it being clear.

Dat AI bepaalde beslissingen maakt.

That AI makes certain decisions.

De computer zegt nee.

The computer says no.

Om met Little Britain te spreken.

To speak with Little Britain.

Met het risico dat de burger of consument.

With the risk that the citizen or consumer.

Er geen protest kan tegen aantekenen.

No protest can be recorded against it.

Of niet eens door heeft dat er AI achter zit.

Or doesn't even realize that there is AI behind it.

Laatst stelde iemand de vraag.

Recently, someone asked the question.

Wat zouden wij als mbo opleiding kunnen doen.

What could we do as a vocational education program?

In de richting van AI.

Towards AI.

En toen zei ik.

And then I said.

Dat deze studenten waarschijnlijk geen AI opleiding hebben.

That these students probably have no AI training.

Maar ze gaan het zeker wel toepassen.

But they will definitely apply it.

En deze mensen moeten goed snappen.

And these people need to understand well.

Hoe deze oplossingen werken.

How these solutions work.

Ze gaan het gebruiken in de zorg.

They are going to use it in healthcare.

Het onderwijs.

Education.

En richting patiënten en studenten.

And towards patients and students.

Waarop dat impact heeft.

On which that has an impact.

Daarom vind ik het ook zo belangrijk.

That's why I find it so important.

Dat mensen die AI ontwikkelen.

That people who develop AI.

Of ontwerpen.

Or designs.

Niet alleen kijken naar de technologie.

Not only looking at the technology.

Maar in wat voor context.

But in what context?

Hoe gaat dit gebruikt worden.

How will this be used?

Wie gaat daarmee werken.

Who is going to work with that?

Wat moet die persoon dan weten.

What should that person know then?

En hoe zorg ik ervoor dat die persoon inderdaad ook nog in staat is.

And how do I ensure that that person is indeed still capable.

Om het er niet mee eens te zijn.

To disagree with it.

Of om een uitzonderingsgeval eruit te vissen.

Or to fish out an exceptional case.

Wat mijn model niet herkent.

What my model does not recognize.

En dat die dan toch.

And that they do anyway.

Ook nog er omheen kan werken.

Can also work around it.

En dat je niet het op de een of andere manier.

And that you don’t do it in one way or another.

Zo vast zet.

So firmly set.

Dat mensen helemaal niet meer in staat zijn.

That people are no longer able at all.

Om een andere beslissing te nemen.

To make another decision.

Dan wat er uit zo'n model komt rollen.

Then what comes out of such a model.

Daar zit denk ik wel een spanningsveld.

I think there is a tension field there.

Ik had het eerder over end-to-end.

I mentioned end-to-end earlier.

En algoritmes aan elkaar koppelen.

And linking algorithms together.

Als je het hebt over explainability.

When you talk about explainability.

Wat je graag wil.

What you would like.

Is dat het systeem kan uitleggen waarom die tot keuzes komt.

Is that the system can explain why it makes those choices.

Zodat je dat als onderbouwing kan geven.

So that you can use that as justification.

En als gebruiker kan zeggen.

And as a user can say.

Oké deze keuze is niet verantwoord.

Okay, this choice is not justifiable.

Dit systeem geeft nu een eindresultaat.

This system now provides a final result.

Maar ik zie al onderweg.

But I see already on the way.

Dat het niet klopt.

That it is not correct.

Dat er een verkeerde afslag wordt genomen.

That a wrong exit is taken.

Maar we zien wel dus in die algoritmiek.

But we'll see in that algorithm.

Dat we wel beter werken.

That we work better.

Voor de doelen die wij als bouwers kunnen bedenken.

For the goals that we as builders can think of.

Dus ik denk dat daar een spanningsveld zit.

So I think there is a tension there.

Om juist ook die end-to-end systemen.

To precisely those end-to-end systems.

Die blackboxes zijn het eigenlijk.

Those black boxes are actually it.

Om die open te kunnen maken.

To be able to open that.

En ook daarin te kunnen prikken.

And also to be able to poke at that.

Wat gebeurt er nou eigenlijk.

What is actually happening?

In het interne van zo'n nuraal netwerk.

In the internals of such a neural network.

Dus technologisch begrijpen.

So understanding technologically.

Dat de meeste goede voorspellingen.

That most good predictions.

Door niet het enige doel is.

Because not the only goal is.

Maar je zegt die werken wel beter.

But you say those work better.

Die werken wel beter op één maatstaf.

They work better on one measure.

Ja.

Yes.

En als onderzoeker kun je ook niet echt voorspellen.

And as a researcher, you can't really predict either.

Daar moet je ook onderzoek naar doen.

You need to research that as well.

Je kunt niet echt voorspellen.

You can't really predict.

Wat de uitzonderingen zijn.

What the exceptions are.

Op gegevende trainingsdata.

On given training dates.

Die je gebruikt hebt.

That you have used.

Dat is ook waar.

That is also true.

Laatste vraag.

Last question.

Zou je dan niet willen zeggen.

Would you rather not say that?

Dat organisaties.

That organizations.

Die gebruik maken van AI systemen.

Those making use of AI systems.

Die beslissingen maken.

Making those decisions.

Verplicht worden.

To be required.

Om deze inzichtelijk te maken.

To make these clear.

En deze inzichten ook publiceren.

And to also publish these insights.

Dat dwingt organisaties.

That compels organizations.

In ieder geval om over na te denken.

In any case, something to think about.

Er is nu wet en regelgeving.

There are now laws and regulations.

In de maak vanuit de Europese Unie.

In the making from the European Union.

De AI verordening.

The AI regulation.

En daarin.

And therein.

Is dit een onderdeel.

Is this a part?

En dan geldt het niet voor alle.

And then it does not apply to all.

AI systemen.

AI systems.

Dat is een soort.

That is a kind.

Risico gebaseerde benadering.

Risk-based approach.

Waarbij ze dan zeggen.

Whereupon they say.

Sommige toepassingen vinden we laag risico.

We consider some applications to be low risk.

Sommige vinden we gemiddeld risico.

Some consider it an average risk.

Andere hoog risico.

Other high risk.

En met dat het dus meer risico heeft.

And with that, it therefore carries more risk.

Moet het aan meer vereisten voldoen.

It must meet more requirements.

En de minste vereisten is transparantie.

And the minimum requirement is transparency.

Dus puur aangeven.

So just indicate clearly.

Wij gebruiken een algoritme.

We use an algorithm.

Maar zodra je in die wat hogere risico.

But as soon as you are in that somewhat higher risk.

Toepassingen komt.

Applications come.

Dan is onder andere uitlegbaarheid.

Then there is, among other things, explainability.

Verplicht.

Mandatory.

Of gaat het ook over echt.

Or does it also pertain to reality?

Bij de klant een uitleg geven.

Give an explanation to the customer.

Van je beslissing.

From your decision.

Daar is dus nog heel veel gesteggel over.

There is still a lot of bickering about that.

Want dat hangt natuurlijk heel erg af.

Because that really depends a lot.

Van wat voor soort.

What kind of.

Informatiebehoefte.

Information need.

Degene.

The one.

Die de uitleg betreft heeft.

That concerns the explanation.

Dus die uitlegbaarheid.

So that explainability.

Dat is een heel leuk begrip.

That is a very nice concept.

Maar op het moment dat ik naar een garage ga.

But at the moment I go to a garage.

En zeg van nou.

And say now.

Er is iets mis met mijn auto.

There is something wrong with my car.

We hebben het gerepareerd.

We have repaired it.

En ze doen een motorkap open.

And they open a hood.

Kijkt u zelf maar.

You can see for yourself.

Ik heb geen idee waar ik naar moet kijken dan.

I have no idea what to look at then.

Dus ik heb veel liever dat ze in het onderhoudsboekje.

So I much prefer that they are in the maintenance booklet.

Netjes aangeven wat ze hebben gedaan.

Clearly indicate what they have done.

En dat er een soort.

And that there is a kind.

Toezichthouder is.

Supervisor is.

Die die garage af en toe controleert.

The one who occasionally checks the garage.

Of wat zij in mijn boekje zetten.

Or what they put in my little book.

Ook overeenkomt met wat er onder die motorkap gebeurt.

It also corresponds with what happens under that hood.

Stempel van goedkeuring erop.

Stamp of approval on it.

Dus dat wordt wel.

So that will happen.

Een soort gelaagdheid waarschijnlijk.

A kind of layering probably.

Soms moet je vertrouwen.

Sometimes you have to trust.

Op een certificering.

On a certification.

Soms krijg je een uitleg uit het systeem zelf.

Sometimes you receive an explanation from the system itself.

Dat zal waarschijnlijk.

That will probably.

Per use case.

Per use case.

Daar anders uit gaan zien.

To look different.

Die uitlegbaarheid.

That explicability.

En als aanvulling daar nog op.

And as an addition to that.

Onder de techneuten.

Among the technicians.

Zie je nu dus ook een hele grote discussie.

So now you also see a very big discussion.

Over het open source maken van AI algoritmes.

On making AI algorithms open source.

Er is een groep die zegt.

There is a group that says.

Je moet alles open source maken.

You have to make everything open source.

Dan kan iedereen kijken hoe het werkt.

Then everyone can see how it works.

En wat het doet en wat het niet doet.

And what it does and what it does not do.

Dat is prachtig.

That is beautiful.

Dat kun je niet allemaal maar open source maken.

You can't make all of that open source.

Want dan kan het misbruikt worden.

Because then it can be misused.

Want zodra het als open source op internet staat.

Because as soon as it is available as open source on the internet.

Dan kan iedereen dat downloaden en ermee gaan knutselen.

Then everyone can download it and start tinkering with it.

Dus daar zit ook nog een discussie.

So there is still a discussion about that.

En een spanningsveld.

And a tension field.

Tot hier.

Up to here.

Dank jullie wel.

Thank you very much.

Voor de aanwezigheid.

For the presence.

Voor de participatie.

For the participation.

Rest mij nog een paar dingen te zeggen.

I still have a few things to say.

Deze aflevering.

This episode.

Komt binnenkort.

Coming soon.

Op je favoriete podcast.

On your favorite podcast.

App.

App.

Wanneer weten we niet maar snel.

We don't know when, but soon.

Wil je nou meer afleveringen luisteren.

Do you want to listen to more episodes now?

Vroegere, toekomstige.

Past, future.

We hebben wat flyers liggen.

We have some flyers.

Met de website.

With the website.

Met QR codes waar je hem kan vinden.

With QR codes where you can find it.

Heb je meer vragen.

Do you have more questions?

Over de organisaties of de projecten.

About the organizations or the projects.

Waar wij voor werken.

What we work for.

Er is aansluitend een borrel.

There will be a drink afterwards.

Waar je kan blijven hangen en nog even na kan praten.

Where you can hang out and chat a bit more.

Dank jullie wel.

Thank you very much.

Zo moraalridders.

So moral knights.

Dat was hem weer.

That was it again.

Dank aan Media Perspectives.

Thanks to Media Perspectives.

Hogeschool Utrecht.

Utrecht University of Applied Sciences.

En de Bibliotheek Utrecht.

And the Utrecht Library.

Voor de samenwerking.

For the collaboration.

In speciaal dank aan René van Grasteren voor het modereren.

Special thanks to René van Grasteren for moderating.

Koert van Gemeren.

Koert van Gemeren.

En Marieke Peters voor hun expertise.

And Marieke Peters for their expertise.

En Michiel Stam voor de bewerking van deze aflevering.

And Michiel Stam for the editing of this episode.

Tot de volgende keer.

Until next time.

***

Of course! Please provide the text you'd like me to translate from Dutch to English.

Continue listening and achieve fluency faster with podcasts and the latest language learning research.