
Gepubliceerd op 3 maart 2026

Gepubliceerd op 3 maart 2026
De opkomst van artificiële intelligentie roept een fundamentele vraag op: wie is aansprakelijk wanneer een AI-systeem schade veroorzaakt? Waar klassieke aansprakelijkheidsregels uitgaan van menselijk handelen, opereren moderne AI-toepassingen met een zekere mate van autonomie. Dat zet traditionele vereisten als schuld, gebrekkigheid en causaal verband onder druk. Tegelijkertijd werkt de Europese wetgever aan een kader waarin technologische innovatie en rechtsbescherming hand in hand gaan.
Wat is een AI-systeem?
Een AI-systeem is – kort gezegd – software die taken verricht waarvoor doorgaans menselijke intelligentie nodig is. Kenmerkend is dat algoritmen worden getraind met grote hoeveelheden data, waardoor zij statistische verbanden leren herkennen.
Na deze trainingsfase kunnen veel systemen zelfstandig functioneren en hun prestaties optimaliseren. AI kan geïntegreerd zijn in fysieke producten (zoals slimme apparaten), maar ook puur als software draaien op servers. Juist die zelfstandige besluitvorming maakt de aansprakelijkheidsvraag juridisch complex.
De juridische complexiteit: het voorbeeld van Meta en Google
De recente procedures tegen Meta en Google illustreren dit probleem. In die zaken wordt gesteld dat algoritmische aanbevelingssystemen verslavende effecten hebben op jongeren. De gestelde schade vloeit niet voort uit één concrete menselijke handeling, maar uit zelflerende systemen die automatisch content selecteren op basis van gebruikersdata.
De kernvraag is dan: wie is verantwoordelijk? De programmeur, het platform, de gebruiker – of niemand? Bovendien speelt het causaliteitsprobleem: hoe toon je juridisch aan dat juist een specifieke algoritmische keuze heeft geleid tot concrete schade?
Wie kan aansprakelijk worden gesteld?
AI-systemen zelf kunnen geen rechtssubject zijn; aansprakelijkheid rust altijd op natuurlijke personen of rechtspersonen.
Producenten kunnen aansprakelijk zijn wanneer sprake is van een gebrekkig ontwerp, ondeugdelijke software, fouten in trainingsdata of onvoldoende veiligheidsmaatregelen. Zij dragen verantwoordelijkheid voor de wijze waarop het systeem functioneert.
Gebruikers of exploitanten kunnen aansprakelijk zijn wanneer zij het systeem onjuist inzetten, noodzakelijke updates nalaten of onvoldoende toezicht houden.
In de praktijk kan sprake zijn van meervoudige aansprakelijkheid. Doorslaggevend is vaak wie het risico heeft gecreëerd en wie het beste in staat was om schade te voorkomen.
Het causaliteitsprobleem en mogelijke oplossingen
Een strikte toepassing van het klassieke “alles-of-niets”-causaliteitsbegrip kan in gevallen tot onbevredigende uitkomsten leiden: óf de benadeelde slaagt volledig in het bewijs, óf de vordering strandt volledig. Dat doet onvoldoende recht aan situaties waarin wel degelijk sprake is van een reëel en aannemelijk risico dat het AI-systeem tot de schade heeft bijgedragen.
In plaats daarvan kan de bewijsnood bij AI effectief worden geadresseerd via proportionele benaderingen, zoals het leerstuk van kansschade of proportionele aansprakelijkheid. Deze oplossingen bieden ruimte voor een genuanceerde schadeverdeling wanneer er ten minste sprake is van een plausibel vermoeden van een generiek causaal verband tussen het systeem en de schade.
Bij kansschade staat niet het vaststaande eindresultaat centraal, maar de verloren kans op een gunstiger uitkomst. De schadevergoeding ziet dan op de waarde van die gemiste mogelijkheid. Dit kan met name relevant zijn wanneer een AI-systeem beslissingen neemt die invloed hebben op bijvoorbeeld kredietverlening, medische triage of sollicitatieprocedures. Proportionele aansprakelijkheid gaat een stap verder door de schade te verdelen naar rato van de waarschijnlijkheid dat de aangesproken partij de schade heeft veroorzaakt. Indien bijvoorbeeld aannemelijk is dat een gebrekkig algoritme met een bepaalde waarschijnlijkheid tot de schade heeft bijgedragen, kan de rechter de aansprakelijkheid in diezelfde verhouding toerekenen.
De Europese regeling
Op Europees niveau vormt de AI-verordening het publiekrechtelijke veiligheidskader. Deze verordening stelt eisen aan hoog-risico AI-systemen op het gebied van transparantie, risicobeheersing en toezicht.
Daarnaast is de herziene Richtlijn productaansprakelijkheid (EU) 2024/2853 van groot belang. Software en AI-systemen worden daarin expliciet als “product” aangemerkt. Dit betekent dat producenten onder een regime van risicoaansprakelijkheid kunnen vallen
wanneer hun AI-systeem gebrekkig blijkt. Ook bevat de richtlijn regels over bewijsverlichting bij technische complexiteit.
Tot slot
AI biedt ongekende mogelijkheden, maar brengt ook nieuwe aansprakelijkheidsrisico’s met zich mee. Voor ontwikkelaars, producenten én gebruikers is het essentieel om tijdig inzicht te hebben in hun juridische positie.
Wilt u weten welke risico’s binnen uw organisatie spelen of hoe u aansprakelijkheid kunt beperken? Wij denken graag met u mee over een strategie die innovatie mogelijk maakt, zonder juridische verrassingen achteraf. Neem gerust contact met ons op voor een nadere kennismaking.
Auteur: Teijm Vollebregt

Teijm Vollebregt
vollebregt@ebhlegal.nl
06 XX XX XX XX
Gratis telefonisch intakegesprek
Wil je weten wat wij voor je kunnen betekenen? Neem vrijblijvend contact met ons op!