bitcoinBTC/USD
$ 97,699.18 1.68%
ethereumETH/USD
$ 3,412.09 2.65%
tetherUSDT/USD
$ 1.00 0.04%
solanaSOL/USD
$ 256.34 0.10%
bnbBNB/USD
$ 654.70 4.47%
xrpXRP/USD
$ 1.45 0.89%
dogecoinDOGE/USD
$ 0.424697 2.99%
usd-coinUSDC/USD
$ 0.999885 0.12%
cardanoADA/USD
$ 1.04 7.24%
staked-etherSTETH/USD
$ 3,413.83 2.76%

Regulering van AI, mondiale governance en uitdagingen

Image
AI-regulering, wereldwijd bestuur en uitdagingen

De spontane groei van innovatie in AI-technologieën heeft de afgelopen jaren een scala aan reacties opgeroepen, variërend van nieuwsgierigheid en enthousiasme tot bezorgdheid en angst.

Eén ding is echter vrij zeker – er is een voortdurende wereldwijde race om de dominantie van AI.

Enerzijds wordt dit gestimuleerd door de relatieve daling van de kosten van computergebruik en anderzijds door de snelle adoptie en toepassing van AI-tools door gebruikers in verschillende capaciteiten.

Zakelijke eigenaren, bedrijven en professionals in verschillende sectoren worden zich bewust van het enorme groeipotentieel, kostenbesparingen, vermindering van menselijke fouten en verbeterde winstmarges die AI biedt.

Tegelijkertijd zijn de risico’s en inherente gevaren van ‘Wild West’ AI zo duidelijk geworden dat de noodzaak van regelgeving en AI-governance noodzakelijk is geworden.

Staat van de AI

De lancering van ChatGPT door OpenAI in 2022 was een wake-up call voor vernieuwers in de AI-ruimte.

Voorafgaand aan de release waren bedrijven als Google, Microsoft en Meta al op de AI-trein gestapt, maar niet veel succes was gerealiseerd – vooral niet in de openbare ruimte.

BlenderBot 3 kreeg harde kritiek, Galactica moest worden teruggetrokken na drie dagen en Tay overleefde het niet eens 24 uur op Twitter.

De commerciële succes van ChatGPT ontketende een golf van AI-technologieën met een nieuwe focus op tools en applicaties die directe interactie met de gebruiker mogelijk maakten.

Google lanceerde Bard – nu Gemini – als een directe concurrent, terwijl de $13 miljard investering van Microsoft in OpenAI het in staat stelde generatieve AI-technologie te integreren in zijn zoekmachine – Bing.

Ook andere sectoren blijven niet achter in de ‘AI-revival’ – financiële instellingen gebruiken AI-oplossingen voor fraudeopsporing met algoritmen die gedraganalyse, natuurlijke taalverwerking en patroonherkenning gebruiken om frauduleuze activiteiten te identificeren.

In de gezondheidszorg helpt AI de patiëntervaring en diagnose te verbeteren, röntgenresultaten te interpreteren, gezondheidsgegevens te beheren en meer.

De noodzaak van regulering

Terwijl bedrijven en bedrijven AI-technologie steeds meer opnemen in hun producten, besluitvormingsprocessen en dienstverlening, ligt de focus op het dataproces achter deze algoritmen en de AI-uitkomsten.

Desinformatie blijft misschien een van de grootste echte risico’s van generatieve AI.

In 2022 circuleerde een afbeelding waarop een explosie in de buurt van het Pentagon te zien zou zijn op sociale media en zorgde kort voor een paniekreactie op de beurs.

Nog gevaarlijker is het politieke effect dat door AI gegenereerd nieuws en deepfakes kan veroorzaken.

Media die echt nieuws publiceren naast AI-stukken kunnen op grote schaal desinformatie verspreiden en het vertrouwen van het publiek in wat ze zien of horen ondermijnen.

Een voorbeeld is een nieuwsbericht dat door NewsGuard werd ontdekt en beweerde de betrokkenheid van de Israëlische premier bij de dood van zijn psychiater.

Bevooroordeelde AI-modellen kunnen ook leiden tot grootschalige discriminatie. Een onderzoeksartikel van de Universiteit van Californië ontdekte een raciale vooringenomenheid in een veelgebruikt gezondheidszorgalgoritme.

Aangezien AI-systemen meestal worden gebruikt in grote organisaties, kan algoritmische discriminatie vooroordelen versterken op een schaal die de mogelijkheden van conventionele systemen ver overstijgt.

Terwijl een apocalyptische AI die de menselijke beschaving overneemt misschien een beetje te fantasierijk is, zijn geavanceerde scams dat niet.

Ernstige actoren die AI gebruiken, kunnen bijna perfecte scams orkestreren en uitvoeren, zelfs terwijl het moeilijker wordt voor het publiek om onderscheid te maken tussen nep en echt.

AI-reguleringsmaatregelen

Lees ook  SEC tekent beroep aan tegen baanbrekend Ripple en XRP-effectenbesluit uit 2023

Erkennend het inherente gevaar van ongereguleerde AI, besteden regeringen over de hele wereld meer aandacht aan dit onderwerp.

Sommigen zijn zelfs verder gegaan door richtlijnen en kaders vrij te geven voor het begeleiden van het gebruik van AI-technologie – laten we er eens naar kijken.

De EU-artificial intelligence act

Net zoals met de GDPR (algemene verordening gegevensbescherming), is de Europese Unie een van de eerste overheidsinstanties die wetgeving over AI formuleren.

De EU AI Act “legt de basis voor de regulering van AI in de Europese Unie” en classificeert AI-risico’s in vier verschillende risicocategorieën, namelijk als volgt.

  • Ongewenst risico
  • Hoog risico
  • Beperkt risico
  • Minimaal risico

Door specifieke eisen toe te passen op AI-systemen op basis van de risicocategorie waarin ze vallen, hoopt de EU een AI-omgeving vast te stellen die het vertrouwen verbetert en de negatieve implicaties van dergelijke technologieën minimaliseert.

Bijvoorbeeld vallen AI-systemen die onderbewuste manipulatie en de biometrische classificatie van mensen op basis van gevoelige kenmerken – bijv. verkiezingsdesinformatietools en vooringenomen algoritmes – onder onaanvaardbare risico’s en zijn verboden.

De wet omvat ook andere maatregelen voor post-marktbewaking en informatie-uitwisseling.

De Amerikaanse AI-uitvoerende order

In 2023 bracht het Office of Science and Technology Policy in het Witte Huis een ‘Blauwdruk voor een AI-bill of rights’, en het National Institute of Standards and Technology bracht ook een ‘AI Risk Management Framework’ uit.

Misschien nog belangrijker is het besluit van President Biden over de ‘Veilige, Betrouwbare en Vertrouwde Ontwikkeling en Gebruik van AI’.

De order omvat acht beleidsterreinen om “nieuwe normen voor AI-veiligheid en -beveiliging te waarborgen, rechtvaardigheid en burgerrechten voor consumenten vooruit te helpen en de privacy van burgers te beschermen tegen AI-gerelateerde risico’s,” onder andere.

China AI-regulering

China begon in 2021 aan AI-wetgeving te werken, te beginnen met de ‘Nieuwe generatieve AI-gedragscode’.

Andere maatregelen zoals de Chinese Deep Synthesis Provisions, Provisions on the Management of Algorithmic Recommendations in Internet Information Services, Interim Measures for Generative Artificial Intelligence Service Management en de Personal Information Protection Law willen allemaal de positie van de socialistische regering vastleggen over de ontwikkeling, het gebruik en de beveiligingscontrole van AI-technologieën in China.

Uitdagingen voor AI-regulering

  • Technologiegroeitempo – De snelle versnellingsgraad van AI-innovatie maakt het moeilijk voor overheidsregelgeving om een alomvattend kader van reguleringen te voorspellen of in te voeren. De EU AI Act probeert dit aan te pakken door verschillende classificatieniveaus te gebruiken. Echter, de snelle evolutie van AI-technologie kan bestaande reguleringen voorbijstreven, waardoor constante flexibiliteit en responsmogelijkheden nodig zijn.
  • Bureaucratische verwarring – AI-regelgevingen, in veel gevallen vertrouwen, interacteren en overlappen met andere bestaande regelgevingen. Dit kan soms bureaucratische verwarring veroorzaken bij lokale implementatie en zelfs de internationale samenwerking hinderen, vooral vanwege verschillen in grensoverschrijdende regelgevingsnormen en kaders.
  • Regulatie-innovatie balans – Het reguleren van AI-technologie kan in sommige gevallen innovatie belemmeren en exploratieve groei beperken. Beslissen welke/wanneer regulatoire maatregelen innovatievriendelijk zijn of niet kan een lastige uitdaging zijn met ernstige gevolgen.

Afronding

Effectieve AI-regulering vereist een samenwerkingsaanpak waarbij overheden, bedrijfsleiders en experts uit de particuliere sector samenwerken om ervoor te zorgen dat ethische normen gelijke tred houden met technologische ontwikkelingen.

Het is echter ook belangrijk om een kritisch evenwicht te vinden tussen het beperken van de potentiële risico’s van AI en het benutten van de technologie voor het grotere goed van de mensheid.

Scroll naar boven