#5 Verantwoord omgaan met AI

NCSC

Enter

#5 Verantwoord omgaan met AI

Enter

Dit is Enter, de podcast van het NCSC, het Nationaal Cyber Security Centrum.

This is Enter, the podcast of the NCSC, the National Cyber Security Centre.

In deze podcast ontrafelen we cybercrisis.

In this podcast, we unravel cyber crisis.

In vijf korte afleveringen duiken we diep in de oorzaken, oplossingen en gevolgen van een specifieke cybercrisis.

In five short episodes, we dive deep into the causes, solutions, and consequences of a specific cyber crisis.

We bespreken met NCSC'ers hoe ze hebben gehandeld, vragen aan betrokkenen wat ze hebben geleerd en blikken vooruit naar de crisis van morgen.

We discuss with NCSC staff how they acted, ask those involved what they have learned, and look ahead to tomorrow's crisis.

In de eerste vier afleveringen hebben we gehoord dat AI voor- en nadelen heeft.

In the first four episodes, we heard that AI has advantages and disadvantages.

Hoe het zich precies gaat ontwikkelen staat niet vast en er komen nieuwe vragen en uitdagingen bij kijken.

How it will develop exactly is not certain, and new questions and challenges arise.

Eén ding is zeker, we moeten nadenken over hoe we om willen gaan met AI, want dat het een belangrijke rol gaat spelen is duidelijk.

One thing is for sure, we need to think about how we want to deal with AI, because it is clear that it will play an important role.

In deze aflevering spreek ik met Francine Deschênes van de Universiteit Leiden en Huub Jansen van de Rijksinspectie Digitale Infrastructuur, de RDI.

In this episode, I talk with Francine Deschênes from Leiden University and Huub Jansen from the National Inspectorate for Digital Infrastructure, the RDI.

Met hen ga ik in gesprek over de vraag hoe we op een verantwoorde manier met AI omgaan.

I will have a conversation with them about how we can responsibly deal with AI.

Francine en Huub, welkom trouwens allebei.

Francine and Huub, welcome both of you by the way.

Francine, jij bent hoofddocent Ethiek en Digitale Technologie aan de Universiteit Leiden.

Francine, you are an associate professor of Ethics and Digital Technology at Leiden University.

Je benadrukt dat AI door mensen is gemaakt. Waarom vind je dat zo belangrijk om te noemen?

You emphasize that AI is created by humans. Why do you find it so important to mention?

Wat ik merk in gesprekken rondom AI is dat het vaak benaderd wordt als een soort natuurkracht.

What I notice in conversations about AI is that it is often approached as a kind of natural force.

Een soort iets dat extern van ons is, dat ons overkomt.

A kind of something that is external to us, that happens to us.

Maar het is in feite een project dat wij als mensen in onze wetenschappelijke ontdekkingsreis en in ons enthousiasme over,

But it is essentially a project that we as humans undertake in our scientific journey of discovery and in our enthusiasm about,

dat we tools weten te maken waarmee we ons leven simpeler kunnen maken.

that we are able to create tools that can simplify our lives.

Dit zijn gaan ontwikkelen naar de manier waarop wij onszelf begrijpen.

This is going to develop towards the way we understand ourselves.

Waarop we zoiets als intelligentie begrijpen.

On which we understand something like intelligence.

A, hebben we het dus zelf gemaakt.

Ah, so we made it ourselves.

En B, behandelen we het alsof het iets dat extern van ons is.

And B, we treat it as if it's something external to us.

Ik denk dat dat een gevaarlijke misvatting is, omdat we daardoor te veel kracht toedichten aan deze technologieën.

I think that is a dangerous misconception, because it attributes too much power to these technologies.

Terwijl we eigenlijk zelf keuzes hebben en afwegingen zouden moeten maken voor de gevolgen van de keuzes bij het ontwikkelen van die technologie.

While we actually have choices and should weigh the consequences of those choices when developing that technology.

Dus wat je zegt, wij hebben het gemaakt, dus we zijn eigenlijk ook verantwoordelijk voor de uitkomsten die daaruit rollen, min of meer.

So what you're saying is, we made it, so we are actually also responsible for the outcomes that come from it, more or less.

Dat zou ik zeggen, ja.

I would say so, yes.

En welke negatieve gevolgen kan het gebruik van AI hebben op ethisch gebied?

And what negative consequences can the use of AI have in terms of ethics?

Nou ja goed, er zijn natuurlijk een aantal...

Well, there are of course a number of...

We leven in een tijd waarin we veel kunnen werken met data tegenwoordig, omdat die overal digitaal aanwezig zijn.

We live in a time where we can work a lot with data nowadays because it is digitally available everywhere.

En wat heel succesvol is gebleken in de afgelopen, laten we zeggen, 10 tot 15 jaar, is met de zogeheten machine learning patronen in data vinden.

And what has proven very successful in the past, let's say, 10 to 15 years, is finding patterns in data using so-called machine learning.

Nou, nu zijn er twee redenen waarom dat soort technieken zouden kunnen leiden tot misschien wel schadelijke resultaten.

Well, there are now two reasons why such techniques could lead to potentially harmful results.

Dat is aan de ene kant omdat wat we dan onderzoeken, dat is altijd gebaseerd op de data die we hebben.

On the one hand, that is because what we then investigate is always based on the data we have.

Er zijn een hele hoop dingen in ons leven waar we misschien de data nooit van verzameld hebben of die überhaupt niet meetbaar of representeerbaar zijn in data, zou ik zeggen.

There are a whole lot of things in our lives for which we may have never collected data or that are not measurable or representable in data at all, I would say.

Er zijn mensen die er anders over denken, dus de hele big data movement van een jaar of tien geleden,

There are people who think differently about it, so the whole big data movement from about ten years ago,

was er eigenlijk een beetje op gebaseerd.

was it actually based a little on.

Nu hebben we al die data van sociale media, nu hebben we een volledig beeld van de wereld.

Now we have all that social media data, now we have a complete picture of the world.

Ik bestrijd dat en ik denk dat we daarmee met onze maatschappij te veel focussen op de dingen waarvan we toevallig data hebben,

I dispute that and I think we are focusing too much on the things for which we happen to have data in our society.

omdat ze toevallig gemeten worden, omdat we toevallig nu een camera hebben of omdat we toevallig nu een microfoon hebben.

because they are measured by chance, because we happen to have a camera now, or because we happen to have a microphone now.

Daar hebben we bepaalde soorten data en daarmee eigenlijk minder waarde toekennen.

There we have certain types of data and therefore actually assign less value to them.

Dus we maken een norm van de gemiddeldes.

So we make a norm of the averages.

En de data die we vinden en dingen die daar niet in staan, die zien we snel als afwijkend.

And the data that we find and things that are not included in it, we quickly see as deviating.

En in veel van de toepassingen is afwijkend ook wel een beetje slecht.

And in many of the applications, being different is also a bit negative.

Nou ja, als je je op een andere manier gedraagt, als je eruit ziet op een manier die niet gemiddeld is, dan moet dat onderzocht worden.

Well, if you behave differently, if you look in a way that is not average, then that needs to be examined.

Want waarom ben je anders dan normaal?

Because why are you different than usual?

Dat is een ethisch gevolg van de manier waarop die machine learning algoritmes inherent werken.

That is an ethical consequence of the way those machine learning algorithms inherently operate.

En overigens kun je het ook ten goede gebruiken, want je kunt dus identificeren welke mensen voldoen niet aan het standaard.

And by the way, you can also use it for good, because you can identify which people do not meet the standard.

Dus misschien als je als overheid bijvoorbeeld een uitleg geeft over hoe een bepaalde procedure werkt,

So maybe if you, as the government, provide an explanation of how a certain procedure works,

maar je ziet dat een bepaalde groep mensen met bepaalde kenmerken nooit reageert.

But you see that a certain group of people with certain characteristics never responds.

Ja, misschien is er dan wel iets mis met je communicatie of met je procedure.

Yes, maybe there's something wrong with your communication or your procedure.

Dus je kunt het ook ten goede gebruiken.

So you can also use it for good.

Dus dat wil ik wel even gezegd hebben, dat het niet inherent een probleem is van die algoritme,

So I want to make it clear that it is not inherently a problem of that algorithm,

maar het gaat erom, en dan komen we weer terug bij de verantwoordelijkheid van de mensen, hoe je het gebruikt.

But it’s about, and then we come back to the responsibility of the people, how you use it.

En er is een makkelijke, een soort hoop van als die data nou objectief zijn en die data zeggen van hier is een afwijking.

And there is an easy way, a kind of hope that if that data is objective and that data indicates that there is a deviation.

Nou, dan is het niet mijn subjectieve oordeel dat er iets mis is.

Well, then it is not my subjective judgment that something is wrong.

Dan is dat iets objectiefs, maar dat is niet zo.

Then that is something objective, but it is not.

Dat is een interpretatie die je er aan verkiest te geven.

That is an interpretation that you choose to give it.

Nou, AI is ook heel goed in staat.

Well, AI is also very capable.

Het reageren van informatie, dus het voortzetten van informatie als het maar aandacht trekt.

The reacting of information, thus continuing information as long as it attracts attention.

Dat heeft te maken ook met het businessmodel van veel van de platforms waarop informatie verspreid wordt.

That is also related to the business model of many of the platforms on which information is disseminated.

Zoveel mogelijk aandacht trekken.

Attract as much attention as possible.

En die algoritme, die worden dan getraind op een optimale aandacht trekken van mensen in termen van hoe lang zitten ze op hun scherm.

And those algorithms are then trained to optimally capture people's attention in terms of how long they spend on their screens.

En ja, helaas is het zo dat informatie die verrassend is,

And yes, unfortunately, it is the case that information that is surprising,

en vaak is dat informatie, nou informatie kan heel verrassend zijn als die helemaal slecht is.

And often that is information, well information can be very surprising if it is completely bad.

Of hoe zeg je dat, als die onjuist is.

Or how do you say that, if it is incorrect?

En dat gaat zich dan propageren en dan krijg je een soort gedeeld geloof in informatie die door die algoritmes verspreid is.

And that will propagate itself, leading to a sort of shared belief in the information spread by those algorithms.

Ja, dus die niet klopt of onjuist is.

Yes, so that is incorrect or wrong.

En juist foutieve informatie heeft een grote aantrekkingskracht.

And precisely incorrect information has a strong appeal.

Om verspreid en geloofd te worden, ja.

To be spread and believed, yes.

Huub, ik ben ook benieuwd hoe jullie daar vanuit de RDI naar kijken.

Huub, I am also curious about how you view that from the RDI perspective.

Maar allereerst, kun je kort vertellen wie je bent en wat je doet bij de RDI?

But first, can you briefly tell us who you are and what you do at the RDI?

Ja, dankjewel.

Yes, thank you.

De RDI, Rijksinspectie Digitale Infrastructuur, houdt toezicht op de digitale infrastructuur.

The RDI, National Inspectorate for Digital Infrastructure, oversees the digital infrastructure.

Dus dat gaat over de kabels, alles in de ether, maar ook de satellieten.

So that's about the cables, everything in the ether, but also the satellites.

Het gaat om beveiligde verbindingen.

It is about secure connections.

Dus eigenlijk heel breed zorgen dat alles digitaal in dit land werkt.

So basically ensuring that everything works digitally in this country.

En ze hebben meegemaakt.

And they have experienced.

Ik heb mij een paar jaar geleden gevraagd van, goh, er zijn steeds meer bedrijven waar wij toezicht op houden.

A few years ago, I asked myself, well, there are more and more companies that we oversee.

Bijvoorbeeld de telecombedrijven, maar ook energiebedrijven in hun cybersecurity die gaan AI gebruiken.

For example, telecom companies, but also energy companies, will use AI in their cybersecurity.

En daar moeten wij iets mee.

And we need to do something with that.

We moeten kijken of het veilig is en hoe moeten we daarmee omgaan.

We need to see if it is safe and how we should handle it.

Dus daar begon het eigenlijk mee om te kijken hoe moeten we gaan toezien op het gebruik van AI op basis van bestaande regelgeving.

So that’s actually where it started, to see how we should oversee the use of AI based on existing regulations.

En dat is ook wel even van belang om te beseffen, want we hebben het af en toe over een AI-act.

And it is also important to realize this, because we occasionally talk about an AI act.

Maar de meeste wetgeving die er nu is, reguleert AI al.

But most of the existing legislation already regulates AI.

Als AI in een medisch apparaat zit, is er de medical device regulation die al moet zorgen, het moet al veilig zijn.

If AI is integrated into a medical device, there is the medical device regulation that must ensure it is already safe.

Dus er zijn verschillende soort van decentrale...

So there are different types of decentralized...

Ja, dus je hebt sectorale wetgevingen die al heel veel dingen regelen.

Yes, so you have sectoral legislations that already regulate a lot of things.

Dus eigenlijk iedere sector, of het nou over de auto's gaat of over het speelgoed of iets dergelijks, die regelen voor een deel al de impact van AI.

So actually every sector, whether it's about cars or toys or something similar, is already partially regulating the impact of AI.

Als het niet veilig is, dan mag het al niet.

If it is not safe, then it is not allowed.

Het moet wel goedgekeurd worden of er moeten de waarborgen zijn.

It must be approved or there must be guarantees.

Ja, dus er is al een soort gatekeeper geweest.

Yes, so there has already been a kind of gatekeeper.

Ja, dus dat is er al en dat is ook wel belangrijk omdat dat eigenlijk technologie onafhankelijk is.

Yes, so that already exists and that is also important because it is actually technology-independent.

Ongeacht welke vorm van AI straks er is, als een medisch apparaat niet aantoonbaar veilig is, dan mag die niet gebruikt worden.

Regardless of what form of AI there will be, if a medical device is not demonstrably safe, it should not be used.

En nou ja, daar is nu ook de AI-act naartoe gevoegd.

And well, the AI Act has now been added to that.

Nou ja, de RDI zal een van de toezichthouders op die AI-act zijn, maar ondertussen ben ik wel heel erg blij dat die AI-act er is.

Well, the RDI will be one of the regulators of that AI act, but in the meantime, I am very happy that the AI act exists.

Die regelt sowieso in Europa dat er een paar generieke dingen zijn.

That regulates a few generic things in Europe anyway.

Dus sommige AI-toepassingen worden gewoon verboden.

So some AI applications are simply banned.

Een aantal dingen, social crediting, mass surveillance door overheden en zo, een aantal dingen worden gewoon verboden.

A number of things, social crediting, mass surveillance by governments and such, a number of things are simply banned.

En daar kan de EU op een gegeven moment nog verder in gaan als ze denken dat sommige dingen niet veilig zijn.

And at some point, the EU can dive further into this if they believe that some things are not safe.

Tweede is dat ze zeggen, een deel is hoog risico en daar moet dus extra naar gekeken worden.

Secondly, they say that a part is high risk and that extra attention should be paid to it.

Dus aanvullend op de bestaande regeling moet je kijken of dat echt veilig is.

So in addition to the existing arrangement, you need to see if that is really safe.

Bij een aantal dingen hebben ze gezegd, daar geldt transparantie.

For a number of things, they have said that transparency applies.

Dus als je als mensen aan het interacteren bent met een chatbot of met iemand anders,

So when you are interacting with a chatbot or someone else,

dan is dat in beeld en het is geen mens maar een AI, maar het lijkt een mens, dan moet je er gewoon bijzetten, het is een AI.

Then that's in the picture and it's not a human but an AI, but it looks like a human, then you just have to add that it's an AI.

Ik denk dat dat heel verstandig is en ze hebben nog een extra rol gegeven voor de Europese Commissie

I think that is very wise and they have given an additional role for the European Commission.

om met name de hele grote AI-modellen van de big tech en zo, om daar op Europees niveau toezicht op te houden

to specifically regulate the very large AI models of big tech and so forth, to maintain oversight at the European level.

en dat niet alleen maar bij de verschillende lidstaten te laten.

and not just leave it to the different member states.

Dus ik ben heel blij dat die AI-act er is, maar nu moeten we het allemaal gaan doen.

So I am very happy that the AI Act exists, but now we all have to get to work.

Dus daar zit nog wel een hele klus.

So there's still a lot of work to be done.

Ja, inderdaad.

Yes, indeed.

Want technologie ontwikkelt zich natuurlijk supersnel.

Because technology is of course developing super fast.

Hoe zorg je er dan voor dat je dat bijbeent en zeker op het gebied van wet- en regelgeving?

How do you ensure that you keep up with that, especially in the area of laws and regulations?

Hoe zorg je ervoor dat je niet achter feiten aanloopt?

How do you ensure that you don't fall behind the facts?

Voor een deel houdt de wetgeving daar voor een deel rekening mee.

Partly, the legislation takes that into account.

Dus voor een deel is dat wel getriggerd doordat er gewoon gezegd wordt, een aantal eisen zijn,

So partly that has been triggered by the fact that some requirements are simply stated,

je moet een management systeem hebben binnen je eigen organisatie.

You need to have a management system within your own organization.

Er moet iemand verantwoordelijk zijn die kijkt of het verantwoord is.

Someone must be responsible for checking if it is prudent.

De cybersecurity moet op orde zijn.

Cybersecurity must be in order.

Je moet checken op bias.

You need to check for bias.

Je moet een human rights impact assessment.

You need a human rights impact assessment.

Dus ze hebben vooral gekeken, hoe borgen we de risico's?

So they mainly looked at how to mitigate the risks.

En dat maakt voor een deel niet uit welke technologie.

And that partly doesn't matter which technology.

Dus voor een deel is dat getackled, maar je kunt alleen maar tacklen voor de dingen die je kent

So partly that has been tackled, but you can only tackle the things you know.

en niet voor de dingen die je niet kent.

and not for the things you do not know.

Dus dat betekent waarschijnlijk dat er straks wel weer een update komt van de wetgeving.

So that probably means that there will be an update to the legislation soon.

Maar ja, dat is op zich, in de digitale domein gebeurt dat wel vaker.

But yes, that is quite common in the digital domain.

We hadden de network and information systems.

We had the network and information systems.

En nu hebben we alweer de NIS 2.

And now we have the NIS 2 again.

EIDAS 2.

EIDAS 2.

Goed, daar zat dan 15 jaar bij.

Well, that added 15 years.

De NIS zat een jaar of vijf tussen.

The NIS was involved for about five years.

Deze gaat misschien wel weer iets sneller een keertje geactualiseerd worden.

This might be updated a little faster this time.

Maar dat is oké.

But that's okay.

Ik ben al heel blij dat we nu gewoon allemaal gaan beginnen.

I am already very happy that we are all just going to start now.

Want nu gaan al die lidstaten, gaan allemaal toezichthouders gaan zich hierin verdiepen

Because now all those member states, all the regulators are going to look into this.

en hebben nu ook bevoegdheden om ook echt iets te gaan doen.

and now also have the authority to actually take action.

En Francine, hoe kijk jij dan naar de ontwikkeling van deze wetgeving?

And Francine, how do you view the development of this legislation?

Zowel nationaal als Europees niveau, wat we eigenlijk net aangestipt hebben.

Both at the national and European level, which we have just touched upon.

Ja, nou ja, het is lastig.

Yes, well, it's difficult.

Want inderdaad, aan de oppervlakte gaat de ontwikkeling van de technologie heel snel.

Because indeed, on the surface, the development of technology is progressing very quickly.

Dat is, als ik het zou mogen zeggen, ook wel een beetje van wat we zelf laten gebeuren.

That is, if I may say so, also a bit of what we allow to happen ourselves.

Dus als we allemaal maar achter de mooie praatjes aanlopen van wat het allemaal kan,

So if we all just chase after the pretty stories of what it can all do,

bijvoorbeeld met large language models, zien we dat er enorm veel geloof is.

For example, with large language models, we see that there is an enormous amount of faith.

Gewoon omdat, het kan prachtige plaatjes tekenen en kan tegenwoordig video's genereren.

Just because it can draw beautiful pictures and can now generate videos.

Nou, dan kan het over een jaar zeker.

Well, then it can definitely be in a year.

En dat kwam out of nowhere voor de meeste mensen.

And that came out of nowhere for most people.

En dan kan het over een jaar vast ook mijn vervelende klussen op mijn werk doen.

And then it will probably also be able to do my annoying tasks at work in a year.

Nou, dat is een...

Well, that is a...

Dat kan denk ik ook wel hoor.

I think that's also possible.

Nou goed, daar kunnen we een heel gesprek over hebben.

Well, we could have a whole conversation about that.

Ik denk niet, helaas, dat al mijn vervelende klussen op het werk door ChatGPT afgehandeld kunnen worden.

I don't think, unfortunately, that all my annoying tasks at work can be handled by ChatGPT.

Gewoon omdat de aard van het probleem niet is,

Just because the nature of the problem is not,

het genereren van tekst, maar de aard van het probleem is met mekaar overeenstemming vinden

the generation of text, but the nature of the problem is finding agreement with each other

over waar we heen willen, wat ons doel is.

about where we want to go, what our goal is.

En het hebben van een tekst, een memo, dat zegt van dit is wat we willen,

And having a text, a memo, that says this is what we want,

betekent nog niet dat we het erover eens geworden zijn wat we willen.

does not mean that we have agreed on what we want.

Het betekent alleen maar, we hebben iets om aan onze leidinggevende te geven.

It just means we have something to give to our manager.

Wat vind ik van die AI Act? Ik vind dat het heel erg goed is.

What do I think of that AI Act? I think it is very good.

Dat wij een stuk tekst hebben. Ik zie dat echt als een werkdocument.

That we have a piece of text. I really see that as a working document.

En in die zin verwacht ik ook niet dat het heel lang ongewijzigd gaat blijven.

And in that sense, I also do not expect it to remain unchanged for a very long time.

Het heeft ook onderdelen die flexibeler zijn dan andere.

It also has components that are more flexible than others.

Dus annexen die geüpdate kunnen worden naar...

So annexes that can be updated to...

Ik denk dat dat zo niet anders kan.

I don't think that it can be any different.

Je moet aan de ene kant enigszins specifiek zijn over de technieken waar je het over hebt,

You need to be somewhat specific on the one hand about the techniques you are talking about,

omdat het anders te makkelijk is voor bedrijven om...

because it would otherwise be too easy for companies to...

Om te zeggen, ja, nee, maar je begrijpt het verkeer.

To say, yes, no, but you understand the traffic.

Als er staat dit soort technieken valt eronder, dan valt het eronder.

If it says this kind of techniques are covered, then they are covered.

Dus je hebt een beetje specificiteit nodig om te voorkomen.

So you need a bit of specificity to prevent.

Ik moet zeggen dat ik een van de moeilijke punten aan de AI Act vind ik,

I have to say that I find one of the difficult points about the AI Act...

dat in het proces dat we hebben zien gebeuren in de afgelopen...

that in the process we have seen happen in the past...

Wat is het? Nou ja, White Paper was 2021.

What is it? Well, the White Paper was in 2021.

Het is een stapsgewijs proces.

It is a step-by-step process.

De eerste versie was verschenen van de tekst vlak voor de launch van ChatGPT.

The first version of the text was released just before the launch of ChatGPT.

Of was dat... 2009? Ja, voorjaar 2022.

Or was that... 2009? Yes, spring 2022.

Ja, voorjaar 2022 en de parlementversie verscheen net na de launch van ChatGPT.

Yes, spring 2022 and the parliamentary version was released just after the launch of ChatGPT.

Nou, dat we dit gesprek hebben, dat geeft al aan dat deze wet is ontwikkeld

Well, the fact that we are having this conversation indicates that this law has been developed.

in deze kolkende ontwikkeling van de technologie.

in this swirling development of technology.

Met alsmaar de vraag van ja, hoe gaan we hiermee om?

With the constant question of, yes, how are we going to deal with this?

Wat ik lastig vind om te zien is hoe je in die evolutie van die tekst ook ziet

What I find difficult to see is how you can also see that evolution of the text.

wat de invloed van bepaalde partijen is geweest in het ontkrachten van sommige van de clausules.

what the influence of certain parties has been in debunking some of the clauses.

Ik denk dat de principes die net genoemd zijn door Huub, dat die heel valide zijn.

I think that the principles just mentioned by Huub are very valid.

Maar daar zijn allerlei uitzonderingen op bedongen.

"But there are all sorts of exceptions agreed upon."

En terwijl ik tegelijkertijd denk dat een van de grootste gevaren

And while I simultaneously think that one of the biggest dangers

misschien is niet de technische potentie van de technologie,

maybe it is not the technical potential of the technology,

maar het effect dat het heeft op ja, marktbalans, machtsverhoudingen.

but the effect it has on, yes, market balance, power relations.

Degenen die de rekenkracht en de data hebben, die krijgen zoveel meer invloed.

Those who have the computing power and the data gain so much more influence.

En die hebben ook merkbaar invloed gehad op de tekst van deze wetgeving.

And they have also had a noticeable impact on the text of this legislation.

Terwijl je idealitair de wetgeving had willen.

While you ideally would have wanted the legislation.

Om juist die machtsverhoudingen te beschermen of in balans te houden.

To protect or maintain those power dynamics.

En hoe gaat de RDI dan met die wetgeving om, zeg maar qua toezicht houden en handhaven?

And how does the RDI deal with that legislation, so to speak in terms of supervision and enforcement?

Binnen Nederland heb ik gezegd van we gaan het zoveel mogelijk neerleggen bij de sectorale toezichthouders.

Within the Netherlands, I have said that we will let's place it as much as possible with the sectoral regulators.

Dus er is niet één algoritme toezichthouder of zo.

So there is not one algorithm regulator or something.

We gaan het zoveel mogelijk neer bij de sectorale.

We are going to keep it as much as possible at the sectoral level.

Dus alles met medische apparatuur.

So everything with medical equipment.

Ja, dat was wat je net noemde eigenlijk.

Yes, that was what you just mentioned, actually.

De financiële instellingen hebben gewoon met AVM en DNB te maken.

The financial institutions only deal with AVM and DNB.

Omdat uiteindelijk moet je AI in de context zien.

Because in the end you have to see AI in context.

Is het verantwoord of niet binnen de financiële sector, in speelgoed.

Is it responsible or not within the financial sector, in toys?

Geen one size fits all.

No one size fits all.

En dat schrijft de AI-act ook voor. Het gaat om de intended use.

And that is what the AI Act also prescribes. It concerns the intended use.

Dus hoe je het gaat gebruiken, daar moet het veilig voor zijn.

So how you are going to use it, it has to be safe for that.

Dus proberen we iedere toezichthouder in zijn kracht te zetten op zijn eigen onderdeel.

So we try to empower each supervisor in their own area.

En tegelijkertijd weet niet iedere toezichthouder alles of heeft hij niet alle kennis.

And at the same time, not every supervisor knows everything or has all the knowledge.

Dus we zijn aan de achterkant met een paar toezichthouders die daar een centrale rol in hebben.

So we have a few supervisors at the back who play a central role in that.

Dat zit vooral bij de autoriteit persoonsgegevens en de RDI die daar een soort coördinerende en regisserende rol in hebben.

This primarily involves the Data Protection Authority and the RDI, which have a sort of coordinating and directing role in this.

Maar ook een college voor de rechten van de mens die alle andere toezichthouders kan helpen op mensenrechten vraagstukken.

But also a college for human rights that can assist all other supervisory bodies on human rights issues.

Want ook dat is echt een vak apart.

Because that is truly a specialty on its own.

En het is denk ik ook wel even voor het belang van mensen dat ze snappen dat de AI-act niet zozeer over AI-systemen gaat.

And I think it is also important for people to understand that the AI Act is not so much about AI systems.

Maar het is productregelgeving.

But it's product regulation.

Dus je moet altijd kijken naar welk product gebruik ik als overheid of zet ik in de markt als leverancier.

So you always have to look at which product I use as a government or which one I market as a supplier.

En zit daar ergens de AI in?

And is the AI somewhere in there?

Ja, dat is echt onder toepassing.

Yes, that is really under application.

Dus je moet echt op die toepassing kijken en kijken zit er ergens een AI wat onder de AI-act valt?

So you really need to look at that application and see if there is any AI that falls under the AI Act?

In welke risicokategorie zit ik? Ben ik hoog risico?

What risk category am I in? Am I high risk?

Dan geldt voor mijn hele product dat dat veilig moet zijn ongeacht hoeveel verschillende AI-systemen, welke AI-systemen erin zitten.

Then it applies to my entire product that it must be safe, regardless of how many different AI systems are involved or which AI systems are included.

Je moet kijken naar die toepassing.

You need to look at that application.

Omdat ik vaak merk dat mensen denken ik moet naar mijn AI-systeem kijken.

Because I often notice that people think I need to look at my AI system.

Maar AI zit straks in alles.

But AI will soon be in everything.

Dus dat zit in je hele keten van data en systemen en producten.

So that is part of your entire chain of data, systems, and products.

Dus je moet gewoon naar je eindproduct kijken of naar je dienst die je als overheid levert en zegt van goh zit er AI in en hoe risicovol is dat?

So you just have to look at your end product or the service you provide as a government and ask yourself, is there AI in it and how risky is that?

Dan moet je gewoon zorgen dat je het op orde hebt.

Then you just need to make sure you have it in order.

Ja, precies. En als organisaties dat niet op orde hebben, gelden er dan boetes? Hoe werkt dat?

Yes, exactly. And if organizations do not have that in order, are there fines? How does that work?

Ja, dus als toezichthouder heb je een aantal instrumenten.

Yes, so as a supervisor you have a number of instruments.

Omdat productregelgeving ligt de taak bij wat ze noemen Market Surveillance Authorities.

Due to product regulation, the task lies with what they call Market Surveillance Authorities.

Daar hebben we er op dit moment vijf van.

At the moment, we have five of them.

De ILT, Leefomgeving en Transport, de Inspectie Gezondheidszorg en Jeugd, de Arbeidsinspectie Voedselwagenautoriteit en de RDA.

The ILT, Environment and Transport, the Health and Youth Care Inspectorate, the Labor Inspectorate Food Wagen Authority, and the RDA.

En dan ga je dus als een partij niet voldoet aan de wetgeving.

And then you are going to take action if a party does not comply with the legislation.

Nou ja, dan ga je eerst het gesprek aan, dan ga je iets opleggen.

Well, then you first engage in the conversation, then you impose something.

Je kunt last onder dwangsom, je kunt een boete en ultiem kun je gewoon zeggen het moet van de markt af.

You can face a penalty under a coercive fine, you can receive a fine, and ultimately you can simply say it has to be taken off the market.

Dus je hebt een hele scale en instrumenten.

So you have a whole scale and instruments.

En nou ja, afhankelijk van de risico's en de snelheid en de bereidwilligheid van een partij kun je sneller of langzamer opschalen en zwaardere maatregelen nemen.

And well, depending on the risks, the speed, and the willingness of a party, you can escalate faster or slower and take more severe measures.

Tot slot alweer. Welke ontwikkelingen van de wetgeving rondom AI?

Finally again. What developments in the legislation regarding AI?

Wat voor AI hopen jullie de komende jaren nog te zien? Misschien beginnen bij jou Huub?

What kind of AI do you hope to see in the coming years? Maybe starting with you, Huub?

Ja, als ik zei, nou ja, Francine zei het net al even op het laatste moment is er in één keer die General Purpose AI hoofdstuk erin gefietst.

Yes, as I said, well, Francine just mentioned it a moment ago, at the last minute, that General Purpose AI chapter was suddenly added in.

Nou, dat is hartstikke mooi dat daar nu iets voor is, maar dat lijkt nog alsof General Purpose AI één ding is.

Well, that's really nice that there is now something for that, but it still seems like General Purpose AI is one thing.

En we zien dat nu dat onderdeel juist het grootste aan het groeien is.

And we see that now that part is actually the largest growing.

En dan gaan allemaal verschillende generatieve AI komen met verschillende risico's.

And then all kinds of different generative AIs will appear, each with different risks.

En ik denk dat in een volgende fase van de AI jekt juist dat onderdeel eigenlijk nog verder gespecialiseerd.

And I think that in a next phase of AI, that aspect will actually become even more specialized.

En dat moet worden op basis van de risico's die daar liggen.

And that must be based on the risks that are present there.

Ja.

Yes.

Ja, nou ja, goed. Als ik zou moeten reageren over ontwikkelingen wat net al is aangesneden van wat doe je aan de handhavingskant?

Yes, well, okay. If I had to respond regarding the developments that have just been touched upon, what are you doing on the enforcement side?

En ik zie daar wel echt uitdagingen van het is een heel ingewikkeld domein.

And I do see real challenges there, it is a very complicated domain.

De wetgeving, dus de AI Act. Ik vind een aantal elementen vind ik heel erg werkbaar.

The legislation, namely the AI Act. I find a number of elements very workable.

Het een productregulering maken, kijken naar toepassingen in bepaalde domeinen, dat is denk ik heel erg goed.

Making product regulation, looking at applications in certain domains, I think that is very good.

Maar wie gaat dat handhaven en hoe zorg je dat met al die snelheid, dat die toezicht, dat dat ook de middelen krijgt om dat allemaal bij te houden?

But who will enforce that and how do you ensure that with all that speed, the supervision also gets the resources to keep up with all of that?

Het gaat denk ik best makkelijk zijn om gewoon door te razen.

I think it will be quite easy to just rush through.

Een beetje als een als een fatbike op een fietspad.

A bit like a fatbike on a bike path.

Ja.

Yes.

De regelgeving hebben. Ja, we hebben het al over. Ja, moeten we helmen of moeten we?

We have the regulations. Yes, we've already talked about it. Yes, do we have to wear helmets or do we?

Maar ja, het is eerder op de markt dan dat we.

But yes, it's on the market earlier than we are.

Het is op de markt. Het wordt gebruikt. Het is aantrekkelijk. Iedereen gaat hard.

It is on the market. It is being used. It is attractive. Everyone is going strong.

En ja, dan dan kom je tot de conclusie dat je heel veel agenten eigenlijk nodig hebt om te zorgen dat iedereen zich aan de aan de snelheidslimiet houdt.

And yes, then you come to the conclusion that you actually need a lot of officers to ensure that everyone adheres to the speed limit.

En dus dat capaciteitsvraagstuk van het toezicht, zowel in termen van begrijpen.

And so that capacity issue of oversight, both in terms of understanding.

Waar de risico's zitten, specifiek maken dat een boete van toepassing is.

Specify where the risks are, making it clear that a fine applies.

Dat is zo ontzettend veel werk en dat zie ik wel als een als een uitdaging.

That is such an enormous amount of work, and I see it as a challenge.

En ik zie daar niet in het huidige tijdsgevricht waarin zoveel grote dossiers ons aandacht vragen.

And I do not see that in the current context where so many significant issues demand our attention.

Ik zie daar niet meteen een oplossing voor.

I don't immediately see a solution for that.

Maar we willen als toezichthouders ook niet alleen maar belemmeren.

But as regulators, we also do not want to just hinder.

Het is ook noodzakelijk dat er innovatie is.

It is also necessary that there is innovation.

Juist ook op dit vlak willen we graag dat er heel veel bedrijven, ook in Nederland en in Europa, op deze markt komen.

We would also like to see many companies, both in the Netherlands and in Europe, enter this market.

Want het laatste wat je wilt is dat je met zijn allen afhankelijk bent van een paar Amerikaanse bedrijven die zich niet aan de wet houden waar je de stekker uit moet trekken.

Because the last thing you want is to be dependent on a few American companies that do not abide by the law from which you need to disconnect.

Ja, dus je wilt het volkomen begrijpen en weten hoe je...

Yes, so you want to understand it completely and know how to...

Ja, dus we gaan niet alleen maar, we willen niet alleen maar beperken.

Yes, so we don't just want to limit ourselves.

We willen ook juist wel die innovatiekant proberen te stimuleren.

We also want to try to stimulate that innovation aspect.

Nou ja goed, en aan die kant zit dan ook een uitdaging waar ik dan zelf ook wel mee te maken heb.

Well, that's fine, and on that side there is also a challenge that I have to deal with myself.

Dat er ontzettend veel behoefte is aan kennis en aan opleiding en aan inzichten over hoe doe je het nou verantwoord.

That there is an immense need for knowledge, training, and insights on how to do it responsibly.

En ook aan die kant heb je wel echt, er is zoveel te leren door zoveel mensen.

And on that side too, you really have so much to learn from so many people.

Daar heb je ook wel een capaciteitsvraagstuk.

There you also have a capacity issue.

Maar als we met zijn allen besluiten dat we het belangrijk genoeg vinden, dan liggen daar ook kansen.

But if we all decide that we find it important enough, then there are also opportunities there.

Dan komen we daar.

Then we will get there.

Ja.

Yes.

Zo eindigen we met een positieve noot.

This is how we end on a positive note.

AI is niet meer weg te denken uit de digitale wereld.

AI is indispensable in the digital world.

Dat heeft deze reeks van Enter wel duidelijk gemaakt.

That has made it clear in this series of Enter.

Maar wat we ook weten, de ontwikkelingen gaan zo snel dat de toekomst niet goed te voorspellen valt.

But what we also know is that developments are happening so quickly that the future is difficult to predict.

We moeten dus samen het gesprek blijven voeren hoe en waarom we AI in al haar vormen en met al haar mogelijkheden gebruiken.

We must continue to have the conversation together about how and why we use AI in all its forms and with all its possibilities.

De kansen moeten we grijpen, de uitdagingen aangaan.

We must seize the opportunities and take on the challenges.

Heb jij nog tips of vragen voor het NCSC?

Do you have any tips or questions for the NCSC?

Laat het dan weten via communicatie.ncsc.nl

Then let it be known via communicatie.ncsc.nl.

Bedankt voor het luisteren.

Thank you for listening.

www.ncsc.nl

www.ncsc.nl

Continue listening and achieve fluency faster with podcasts and the latest language learning research.