Artikel |


Generatieve AI als inbreukpleger en auteur
Welke bewijsperikelen zijn er wanneer je je als auteursrechthebbende wil verzetten tegen derden die jouw beschermd werk gebruiken als trainingsdata om een AI-systeem te ‘voeden’ en wanneer je zelf een werk creëert met behulp van AI?
Prof. dr. Simon Geiregat, professor intellectuele rechten aan Ghent IP Law Institute, Universiteit Gent, licht toe.
De training van GenAI-systemen is intellectueelrechtelijk interessant wanneer er als trainingsdata auteursrechtelijk beschermde werken of nabuurrechtelijk beschermde prestaties worden gebruikt. De laatste jaren is gebleken dat er in de praktijk ook daadwerkelijk zeer vaak sprake is van het gebruik van beschermde werken en prestaties. Het verzamelen van die internetgegevens gebeurt aan de hand van spiders of crawlers: software die systematisch door het internet bladert en inhoud indexeert of scrapet. De training van GenAI-modellen gaat dus gepaard met de digitale verwerking van trainingsdata die ook auteursrechtelijk beschermde werken omvatten. Hoewel die verwerkingen geautomatiseerd en zonder tussenkomst van menselijke zintuigen plaatsvinden en er volgens AI-ontwikkelaars en een deel van de rechtsleer daarom geen sprake zou mogen zijn van beschermde handelingen, lijdt het de lege lata tegenwoordig weinig twijfel dat er bij datatraining noodzakelijkerwijze reproducties worden gemaakt in auteursrechtelijke zin.
De vaststelling dat GenAI-training auteursrechtelijke reproducties meebrengt, verklaart waarom rechthebbenden zich sinds de opkomst van publiek toegankelijke GenAI-toepassingen in verschillende rechtsstelsels in toenemende mate jegens commerciële aanbieders beroepen op hun auteursrecht om stopzetting en schadeherstel te eisen. Een belangrijke praktische hindernis om dergelijke auteursrechtelijke aanspraken af te dwingen, betreft evenwel het bewijs van het eigenlijke feit dat een bepaald werk inderdaad werd gebruikt als trainingsdata voor een GenAI-systeem. Het intellectueelrechtelijke territorialiteitsbeginsel brengt daarenboven mee dat ook het bewijs van de locatie van de reproductiehandelingen van groot belang is. Auteursrechtinbreuken worden immers beoordeeld op grond van het recht van de plaats van de beweerde inbreuk. Commerciële AI-ontwikkelaars blijken niet happig om proactief mee te delen welke werken ze hebben gebruikt of voornemens zijn te gebruiken als trainingsdata. Gezien de aanzienlijke financiële risico’s in geval van succesvolle inbreukprocedures, mag dat niet verbazen. Het gevolg is evenwel dat mogelijke inbreuken vooralsnog in beginsel enkel aan de oppervlakte komen in twee scenario’s. Ten eerste kan een AI-ontwikkelaar zelf expliciet of impliciet wereldkundig maken dat een bepaald werk werd gebruikt. Wat ten tweede echter vaker voorkomt, is dat het gebruik van een werk als trainingsinput met enige waarschijnlijkheid kan worden afgeleid uit de output van een AI-systeem. AI-output kan het gebruik van bepaalde trainingsdata op twee manieren verraden. Enerzijds komt het voor dat een AI-systeem output genereert dat volledig of in verregaande mate overeenstemt met een bestaand werk. Anderzijds is het evenwel ook mogelijk dat een AI-systeem output aflevert die informatie bevat die enkel uit een bepaald werk kon worden afgeleid. Zo zijn er in de VS zaken tegen OpenAI hangende omdat er werd vastgesteld dat ChatGPT in staat was om gedetailleerde samenvattingen te genereren van hoofdstukken van bepaalde auteursrechtelijk beschermde romans. In dezelfde lijn nam Disney in een onlangs uitgereikte dagvaarding een lange lijst illustraties op van beschermde werken die met AI-tool Midjourney waren ge(re)produceerd of bewerkt. Naar Belgisch recht zou dit alles allicht een feitelijk vermoeden van gebruik opleveren waarover de rechter onaantastbaar oordeelt. Het zou in zo’n constellatie in het kader van het bewijsrisico dan ook minder relevant zijn dat de AI-ontwikkelaar de trainingsdata met de werken na de training definitief heeft verwijderd, wat OpenAI beweert te hebben gedaan met de gebruikte (e-)boeken.
Hoewel er blijvend vooruitgang wordt geboekt op het vlak van technologie die mogelijk maakt om het gebruik van werken als trainingsdata af te leiden uit GenAI-tools, is de status quo dat informatie over het gebruik van werken voor AI-training momenteel slechts sporadisch aan de oppervlakte komt. Auteursrechthebbenden die bewijs van het gebruik van hun werken willen vergaren op basis van output, stoten bovendien op bijkomende hindernissen. Zo kunnen ze niet anders dan zelf of via een mandataris gebruikersaccounts creëren voor AI-tools waarvan ze gissen of vermoeden dat ze zijn gebaseerd op hun werk, desnoods via een gerechtsdeurwaarder die dan in een authentieke akte kan vastleggen wat die de visu et de auditu heeft vastgesteld. Dit betekent echter dat ze de gebruiksvoorwaarden voor die AI-tools bindend moeten aanvaarden, maar soms ook dat er een abonnementsgeld verschuldigd is. Veel AI-tools zijn immers niet gratis. Daarbij komt dat het feit dat de output géén indicatie geeft van het gebruik van een bepaald werk a contrario niet noodzakelijk betekent dat het werk echt afwezig was in de trainingsdata. Biedt de output daarentegen wel voldoende zekerheid over het daadwerkelijke gebruik als trainingsdata, dan blijft de plaats van de trainingshandelingen tot slot nog steeds onbekend. Tegen die achtergrond rijst de vraag of ontwikkelaars van AI-tools geen transparantieverplichting over hun trainingsdata te beurt valt. De Belgische auteurswetgeving bevat zelf geen uitdrukkelijke aanknopingspunten voor een verplichting om transparant te communiceren over het gebruik van een werk bij AI-ontwikkelingen. Voor zover een werk op Belgisch grondgebied voor training wordt gebruikt, kan zo’n verplichting theoretisch niettemin eventueel worden afgeleid uit de manier waarop het reproductierecht werd geconstrueerd: als een ‘exclusief’ recht van ‘preventieve aard’, dat derden slechts toelaat om de wettelijk omschreven handelingen te stellen mits voorafgaand akkoord van de rechthebbende. De sanctie voor een gebrek aan transparantie lijkt in dit kader evenwel niet anders dan de sanctie voor de miskenning van het reproductierecht zelf: de wet maakt geen onderscheid tussen het daadwerkelijk reproduceren zonder de vereiste toestemming en het eventuele gebrek aan communicatie om die toestemming te verkrijgen. Van een echte transparantieplicht is dan ook geen sprake.
Aangezien de auteurswetgeving zelf geen uitdrukkelijke handvaten bevat om transparantie over het gebruik van werken af te dwingen, valt het potentieel van andere rechtsgronden te onderzoeken. Het is in dit verband eerst en vooral onbetwist dat de burgerlijke rechter in een concreet geding stappen kan zetten, en soms zelfs moet zetten, om bepaalde informatie te verwerven, bijvoorbeeld door partijen of derden te bevelen om bepaalde stukken over te leggen of een deskundigenonderzoek te bevelen, dan wel via de bijzondere procedure voor beschrijvend beslag inzake (beweerde) intellectueelrechtelijke namaak.
Deze procedurele mogelijkheden creëren evenwel geen veralgemeende, proactieve transparantieplicht. Hun aanwending vooronderstelt integendeel een concreet aanhangig geding en impliceert dat er al minstens voldoende aanleiding is om de rechter te overtuigen dat er überhaupt mogelijk een inbreuk heeft plaatsgevonden, namelijk dat het werk inderdaad naar redelijke waarschijnlijkheid is gebruikt.
Zo vereist een bevel tot overlegging van stukken dat de rechter overtuigd is dat er “ernstige en bepaalde aanwijzingen” bestaan dat de betrokkene een welbepaald bewijskrachtig stuk onder zich heeft en is beschrijvend beslag slechts mogelijk als de gevatte voorzitter meent dat er “aanwijzingen zijn dat inbreuk zou zijn gemaakt op het intellectueel eigendomsrecht of dat een inbreuk dreigt”. In veel gevallen van GenAI-training kan het bewijs van dergelijke (ernstige) aanwijzingen evenwel moeilijk worden, zodat auteurs van gebruikte werken vaak zullen kampen met bewijsnood. Vanaf augustus 2026 gelden er tot slot nieuwe transparantieverplichtingen op grond van de AI Act, maar het is nog maar de vraag of die verplichtingen het grote verschil zullen maken voor auteurs.
Eén ding is duidelijk: generatieve AI zet het auteursrecht op z’n kop. De toekomst blijft onzeker, maar aan de inputzijde zullen de meeste juridische vragen de komende jaren wellicht worden opgelost met duidelijke antwoorden.
De transparantieplichten zullen hun geheimen prijsgeven en de rechtspraak zal mondjesmaat duidelijk maken of en onder welke omstandigheden uitzonderingen van toepassing zijn en hoe met name het opt-outrecht voor tekst- en datamining in de praktijk in zijn werk gaat. Daarbij zal de tijd ook leren hoe men zich van dit alles bewijs verschaft. In afwachting daarvan valt er enkel aan te bevelen om elke handeling stevig te documenteren en om voorbehouden uitdrukkelijk en via verschillende kanalen openbaar te maken. Voor zover training in de EU toestemming van de auteursrechthebbende vereist, zullen AI-ontwikkelaars op de middellange termijn waarschijnlijk ofwel onderhandelen met de beheersvennootschappen, ofwel aan de mouw van de Europese wetgever trekken om een beleidswijziging te bepleiten, ofwel het grondgebied van de EU verlaten. Bij dit alles is het bovendien waarschijnlijk dat ook het debat over een wettelijke vergoedingsplicht voor het gebruik van werken als trainingsdata verder gedijt.
Wat geldt voor het auteursrecht zal bovendien ook mutatis mutandis doorsijpelen naar de naburige rechten.
De problemen aan de outputzijde lijken hardnekkiger van aard. Nu het hek van de dam is, zal de hoeveelheid, verscheidenheid en kwaliteit van inhoud gecreëerd met GenAI wellicht alleen nog maar toenemen. Zo lanceerde AI-ontwikkelaar Midjourney zeer onlangs nog een tool om kwalitatief AI-videomateriaal te maken. Wat geluid en bewegend beeld betreft, zullen steeds meer personen zich houder van een naburig recht van de producent kunnen noemen. Wat afbeeldingen, tekst en andere output aangaat, liggen de zaken veel complexer. Aangezien het niet langer opgaat om van werken die ogenschijnlijk uiting geven aan vrije en creatieve keuzes feitelijk te vermoeden dat er menselijke keuzes zijn gemaakt in het ontstaansproces, ligt het voor de hand dat rechters méér bewijs uit dat proces zullen eisen, bij voorkeur met een aantoonbare datum. Een alternatief is er niet, zeker nu het risico om de hoek loert dat private actoren steeds vaker zullen proberen om zich auteursrechtelijk output toe te eigenen die eigenlijk tot het openbaar domein behoort. Zowel GenAI-gebruikers als auteurs allerhande doen er goed aan om zich alvast te wapenen tegen die nieuwe werkelijkheid. Een belangrijk thema voor de volgende jaren wordt ongetwijfeld de vraag naar aansprakelijkheid van AI-ontwikkelaars zoals Google, OpenAI en Microsoft, voor de inbreuken op het auteursrecht en de naburige rechten die voortvloeien uit de output die gebruikers met hun tools genereren. Een interessante ontwikkeling hier is dat Microsoft in 2024 een verklaring wereldkundig heeft gemaakt waarin valt te lezen dat ze instaan voor de vrijwaring van alle gebruikers van hun AI-tools die worden aangesproken voor auteursrechtinbreuken. Buiten het kader van deze vrijwillige vrijwaringsbelofte valt er te hopen dat de aansprakelijkheid van AI-ontwikkelaars wordt beoordeeld vanuit het kader dat daartoe geëigend is: de onrechtstreekse of secundaire aansprakelijkheid. Dat zou toelaten om met een beroep op het robuuste leerstuk van de onrechtmatige daad per geval te beslechten of een ontwikkelaar voldoende heeft gedaan om outputinbreuken technisch te vermijden. Aangezien de secundaire aansprakelijkheid voor auteursrechtinbreuken evenwel niet uitdrukkelijk Europees is geharmoniseerd en het Hof van Justitie zaken die manifest rond secundaire aansprakelijkheid draaiden de voorbije jaren toch steeds zonder onderscheid heeft beslecht op grond van de primaire aansprakelijkheid voor de wel geharmoniseerde vermogensrechten, is het evenwel zeer realistisch dat het Hof de aansprakelijkheid van AI-ontwikkelaars finaal toch zal beslechten door een analyse van de geharmoniseerde rechten.
Vervolgens rijst de vraag wat de Belgische wetgever kan of moet doen om de bovenstaande perikelen mee te verhelpen. In dit verband komt het voor dat de federale wetgever vooral best niet tussenkomt. Het lijkt meer aangewezen om de eerste rechtspraak af te wachten en dan eventueel voorzichtig te overwegen of er wijzigingen op het EU-niveau wenselijk zijn. AI stopt immers niet aan de grenzen. De rechter kan daarentegen wel al proactief handelen om een mogelijke stortvloed van GenAI-output tegemoet te gaan. Het lijkt namelijk aangewezen dat de rechtspraak zich beraadt over wat het precies betekent om zowel in AI-context als daarbuiten “vrije en creatieve keuzes” en een waarneembare “stempel van de persoonlijkheid van de auteur” te vereisen en om die keuzes en de oorsprong van die keuzes afdoende te bewijzen. Misschien verschaft het Hof van Justitie daarover binnenkort meer duidelijkheid. De komst van GenAI-output vormt tot slot de ideale gelegenheid voor de rechtspraktijk om de beschermingsdrempels uit het auteursrecht en de naburige rechten gevoelig te verhogen.
Bij Larcier-Intersentia verscheen recent het boek 50e postuniversitaire cyclus Willy Delva - Economisch recht. Deze tekst is gebaseerd op de bijdrage van prof. dr. Simon Geiregat: ‘Generatieve AI en auteursrecht: bewijs van inbreuk en auteurschap in tijden van ChatGPT, DALL-E en co’.
Over het boek


50e postuniversitaire cyclus Willy Delva - Economisch recht
Reinhard Steennot en Diederik Bruloot (eds.)
Juni 2025
ISBN 9789400017344