G7 gedragscode voor veilige kunstmatige intelligentie vanaf 2023

De landen van de G7 hebben na overleg een aantal gedragsregels opgesteld voor bedrijven die actief zijn in het ontwikkelen van kunstmatige intelligentie. Artificial Intelligence (AI) of Kunstmatige Intelligentie (KI) is volop in ontwikkeling geweest de afgelopen jaren en de mogelijkheden voor de toekomst voor kunstmatige intelligentie lijken bijna onbeperkt. Deze vorm van technologie maakt echter ook steeds meer mensen en overheden bezorgd. AI kan namelijk een toenemend aantal functies overnemen van mensen en kan daardoor taken en beslissingen van mensen overnemen. Het spookbeeld is dat mensen op een gegeven moment worden geregeerd en bestuurd door robots in plaats van andersom. Daarom moeten grenzen worden gesteld aan AI vinden steeds meer mensen in de maatschappij. De mens is de baas over de techniek en niet andersom.

Gedragsregels voor AI

De G7 wil er doormiddel van gedragsregels voor zorgen dat AI in de toekomst veilig en betrouwbaar blijft. Door experts werd al langere tijd gewaarschuwd voor de risico’s met betrekking tot kunstmatige intelligentie. Bovendien is AI helemaal niet zo foutloos als men denkt. Ook programma’s zoals ChatGPT maken fouten. Deze chatbots geven soms informatie die niet klopt. Verder kunnen AI programma’s waarmee je afbeeldingen en foto’s kunt generen ook polariseren en discrimineren. Zo kunnen bepaalde AI programma’s worden gebruikt om foto’s te generen en informatie te publiceren over gebeurtenissen die feitelijk niet hebben plaats gevonden. Zo kan er nepnieuws ontstaan of kunnen mensen tegen elkaar worden opgehitst. Dat zijn serieuze risico’s waardoor de maatschappij ontwricht kan raken.

Vrijwillige gedragscode

Omdat de ontwikkeling van kunstmatige intelligentie zo snel gaat kan het zijn dat de technologie de ethiek gaat inhalen. Dat moeten overheden voorkomen. De gedragscode van de G7 is opgesteld om te voorkomen dat de grip op AI verloren gaat. Er zijn 11 punten in de gedragscode opgenomen. Zo moeten bedrijven bijvoorbeeld rapporten opstellen en en publiceren over de mogelijkheden van AI. Deze rapporten moeten ook gaan over de beperkingen en het gebruik van kunstmatige intelligentie. Ook moeten bedrijven in kaart brengen hoe misbruik van AI-systemen voorkomen kan worden. Verder moeten bedrijven investeren in beveiligingscontroles. De gedragscode is op dit moment een vrijwillige gedragscode. Zo kunnen bedrijven die actief zijn in de ontwikkeling van AI de gedragscode vrijwillig onderschrijven maar dat hoeven ze niet verplicht te doen.