De door Canada voorgestelde Online Harms Act kan wereldwijd regelgeving vormgeven
Canada heeft onlangs plannen onthuld voor de nieuwe Online Harms Act die aanzienlijke gevolgen kunnen hebben voor de manier waarop kunstmatige intelligentie wereldwijd wordt gereguleerd. De voorgestelde wet legt verplichtingen op aan grote technologieplatforms om schadelijke inhoud, versterkt door hun algoritmen en AI-systemen, tot een minimum te beperken. Het heeft tot doel de verspreiding van problematische gebieden zoals deepfakes en inhoud die aanzet tot haat of geweld tegen te gaan.
Een belangrijk onderdeel van de Online Harms Act is gericht op de verspreiding van door AI gecreëerde intieme beelden, zoals deepfakes, die binnen 24 uur moeten worden verwijderd. Hoewel het creëren van dergelijke inhoud op zichzelf misschien niet illegaal is, vormen de sociale-medianetwerken die deze helpen verspreiden reële maatschappelijke risico's. Door zich te concentreren op platforms in plaats van op brede, ongedefinieerde AI-risico's, hanteert de nieuwe wet een pragmatische benadering om opkomende schade te beheersen.
Hoe kan dit het mondiale AI-beheer vormgeven?
Door bedrijven te verplichten de risico’s van AI-versterking te beperken, biedt de Online Harms Act een model voor het reguleren van geavanceerde technologieën via gevestigde entiteiten in plaats van via vage concepten. Als het wordt aangenomen, kan het van invloed zijn op internationale normen die oudere regels over kwesties als privacy, toestemming en cyberpesten aanpassen aan de nieuwe uitdagingen van kunstmatige intelligentie. De wetgeving biedt een evenwichtig, op schade gericht pad om de zorgen rond zich snel ontwikkelende technologie weg te nemen.
Experts beweren dat de nieuwe Online Harms Act van Canada illustreert hoe beleidsmakers kunnen beginnen met het worstelen met complexe AI-problemen door tastbare schade aan te pakken via gevestigde internetgovernance. Naarmate algoritmen en generatieve modellen zich blijven ontwikkelen, kunnen op resultaten gebaseerde raamwerken als deze van cruciaal belang blijken bij het opbouwen van publiek vertrouwen en verantwoordelijkheid, terwijl te grote reikwijdte wordt vermeden. De aanpak van het wetsontwerp bevat waardevolle lessen nu regeringen over de hele wereld proberen de verantwoorde ontwikkeling van kunstmatige intelligentie te garanderen.