Reguleer KI vóór dié masjiene ‘oorvat’
Stelsels moet veilig, robuus wees
Kunsmatige intelligensie is die afgelope maande op almal se lippe. Volgens Google het die aantal soektogte met die soekwoorde "kunsmatige intelligensie" internasionaal én in Afrika in 2022 en tot dusver vanjaar rekordhoogtes bereik.
Basie van Solms – Die verskyning van die kletsbot ChatGPT op die horison gryp mense se verbeelding aan. Dit is maar een voorbeeld van kunsmatige intelligensie (KI). Maar, is KI iets wat beheer of gereguleer behoort te word?
KI is die afgelope maande op almal se lippe. Volgens Google het die aantal soektogte met die soekwoorde “kunsmatige intelligensie” internasionaal én in Suid-Afrika in 2022 en tot dusver vanjaar rekordhoogtes bereik.
ChatGPT is een van die redes vir hierdie belangstelling, en mense probeer uit alle oorde uitpluis waar en hoe dit in verskillende sektore en bedrywe toegepas kan word.
Maar miskien is ’n ander rede vir dié toenemende belangstelling ’n mate van kommer wat kop uitsteek oor die moontlike onbeheerde en ongereguleerde ontwikkeling van KI-stelsels. Want waartoe is hierdie stelsels in staat indien dit toegelaat word om sonder enige regulering te ontwikkel? En wat sal gebeur as die toepassing daarvan nie beheer word nie?
Hierdie kommer is nie misplaas nie, en oor die wêreld heen is lande en organisasies besig om te werk aan formele riglyne om die ontwikkeling van KI-stelsels te reguleer. ’n Voorbeeld is die Europese Unie (EU) se raamwerk vir die ontwikkeling van en navorsing in KI wat reeds in 2021 gepubliseer is.
Wat ten grondslag aan die EU se raamwerk lê, is dat die risiko’s verbonde aan verskillende tipes KI-gegronde stelsels geëvalueer word en in vier verskillende risiko-kategorieë geklassifiseer word. Deur die klassifikasie word gepoog om aan te dui wat die onderskeie risiko’s is wat aan ’n betrokke KI-stelsel verbonde is.
Die vier risiko-kategorieë wat gebruik word, is onaanvaarbare risiko’s, hoë risiko’s, beperkte risiko’s en minimale risiko’s. KI-stelsels wat in die kategorie van onaanvaarbare risiko’s val, mag byvoorbeeld glad nie in die EU ontwikkel of toegepas word nie.
RIGLYNE VIR KI-STELSELS
Die Organisasie vir Ekonomiese Samewerking en Ontwikkeling (OECD) het ook al in 2019 ’n stel riglyne opgestel om die ontwikkeling van KI-stelsels te bestuur.
Die OECD se riglyne sluit in:
• KI-stelsels moet tot voordeel van die mensdom wees deur die bevordering van inklusiewe groei, volhoubare ontwikkeling en algemene welstand;
• KI-stelsels moet te alle tye veilig en regverdig wees. Dit moet die oppergesag van die reg, menseregte, demokratiese waardes en diversiteit respekteer;
• KI-stelsels moet deursigtig wees sodat mense die werking, gevolge en uitsette van sulke stelsels kan verstaan. Geslote of sogenaamde “swartkas”-stelsels, waarin alles verskuil is, is onaanvaarbaar;
• KI-stelsels moet veilig en robuus wees en risiko’s moet duidelik uitgespel wees; en
• Organisasies en individue wat KI-stelsels ontwikkel, moet vir die betrokke werking van die stelsels, soos uiteengesit in die OECD se riglyne, verantwoordbaar gehou word.
WAT GEBEUR IN BRICS-LANDE?
In die lig van die OECD se riglyne en die EU se raamwerk, is dit interessant om kortliks te kyk wat gebeur in die Brics-lande, waarvan Suid-Afrika – saam met Brasilië, Rusland, Indië en China – ’n lid is.
• Brasilië het ’n konsepwet oor KI wat spesifiseer dat die ontwikkeling, inwerkingstelling en gebruik van dié stelsels onder meer deursigtig moet wees, vryheid van keuse moet toegelaat word en dit moet geoudit kan word. Brasilië verklaar ook duidelik dat hy die OECD se riglyne in dié verband volg.
• Rusland het in 2020 ’n soort raamwerk vir die ontwikkeling van KI-stelsels gepubliseer. Dit is later opgevolg deur federale wetgewing, Wet 258-FZ, wat in 2021 van krag geword het. Ingevolge hiervan kan KI-ontwikkeling plaasvind, maar dit moet aan sekere streng vereistes voldoen.
• China het reeds in 2017 ’n dokument met die titel “Plan vir die volgende generasie kunsmatige intelligensie” gepubliseer. ’n Groot deel van die plan bestaan uit wetlike aspekte van KI en KI-ontwikkeling.
• Indië het in 2018 ’n verslag oor KI gepubliseer, waarin tien spesifieke areas belig word waarin KI ’n besondere rol in dié land kan vervul. Dit sluit onder meer in vervaardiging, medies, landbou, onderrig en omgewing. Die verslag beklemtoon ook die uitwerking wat KI kan hê op werkverskaffing en die moontlikheid dat dit tot werkloosheid kan lei. Geen werklike regulasies of wette oor KI bestaan egter skynbaar in dié stadium nie.
• Sover bekend het Suid-Afrika nog geen regulasies of wette oor die rol van KI gepubliseer nie. ’n Verslag wat deur die president se taakspan oor die Vierde Nywerheidsrevolusie opgestel is, verwys na KI, maar bevat geen spesifieke voorstelle oor die regulering daarvan nie.
HOEKOM REGULEER?
Waarom is dit egter hoegenaamd nodig om KI te reguleer? Die meeste mense se begrip van KI lei tot vrese oor werkloosheid – wanneer robotte jou werk oorneem – soos ook in Indië se 2018-verslag oor KI uitgestippel is.
Maar daar is selfs groter risiko’s. KI-stelsels het die potensiaal om inbreuk op menseregte te maak. Dit is ’n kwessie wat duidelik deur die EU-raamwerk en OECD se riglyne uitgewys word. KI-stelsels moet dus beheer en gereguleer kan word ten einde te keer dat dit uiteindelik tot ’n skending van menseregte lei.
Hoe, sal ’n mens wonder, kan só ’n stelsel menseregte skend? ’n Kernaspek hiervan is om te voorkom dat die algoritmes van so ’n stelsel bevooroordeeld is. Dit beteken dat die algoritme – doelbewus of per ongeluk – so geskryf word dat dit sekere gevalle op grond van onaanvaarbare kriteria kan uitsluit. Om dié rede, en verskeie ander, is dit belangrik dat daar etiese en regulêre voorskrifte vir die ontwikkeling, toetsing en implementering van KI-stelsels moet wees.
Sommige lande in Afrika, waaronder Egipte, Rwanda en Mauritius, het reeds omvattende strategieë oor KI gepubliseer, en die Afrika Unie (AU) is ook besig met ’n raamwerk vir die vasteland.
STANFORD-WAARSKUWING
Dit is uiters belangrik dat Suid-Afrika so gou as moontlik ook begin om riglyne of ’n raamwerk vir KI op te stel. Die land se verbintenis met Brics behoort ’n aanknopingspunt hiervoor te wees, maar pogings van ander internasionale organisasies of lande kan ook as vertrekpunte gebruik word.
Die Universiteit van Johannesburg – in samewerking met die Tshwane-Universiteit vir Tegnologie en die departement van kommunikasie en digitale tegnologie se vestiging van ’n KI-instituut is ’n belangrike stap. Die instituut se rol is egter om op navorsing te konsentreer en dit kan nie self enige regulatoriese en wetlike voorskrifte vestig nie.
In die laaste instansie, en sonder om paranoïes te wees, moet ons hierdie omgewing begin reguleer om te voorkom dat die Universiteit van Stanford se kommer ’n werklikheid word. In ’n verslag oor KI is dié universiteit se gevolgtrekking dat mense moontlik eendag beheer oor KI- stelsels kan verloor as gevolg van die ontwikkeling van super-intelligente KI-toepassings wat nie meer op mense se wense reageer nie. In die ergste scenario kan sulke stelsels uiteindelik selfs die mensdom bedreig.
Daarom het ons nou reeds regulasies en wette nodig. – Netwerk24
• Prof. Von Solms is die direkteur van die sentrum vir kuberveiligheid aan die Universiteit van Johannesburg.
GRYSBLOK
WAT IS SWARTKAS-KI?
Swartkas-KI – ook genoem geslotekas-KI – is ’n soort KI wat so ingewikkeld is dat die masjien of stelsel se besluitnemingsproses nie verduidelik kan word op die vlak dat dit maklik vir mense verstaanbaar is nie.
Dié tipe KI is ongewens, omdat dit baie moeilik raak om te identifiseer wanneer so ’n stelsel bevooroordeelde uitsette lewer of wanneer foute in logika voorkom. Dit is boonop baie moeilik om met die gebruik van so ’n stelsel vas te stel wie verantwoordbaar gehou moet word indien die uitsette foutief of selfs gevaarlik is. Dit is makliker om die integriteit en akkuraatheid van die uitsette van KI-stelsels te vertrou wat deursigtig is en geïnterpreteer kan word. Deursigtigheid kan byvoorbeeld bereik word deur algoritmes te gebruik wat mense maklik kan verstaan en om seker te maak dat menslike terugvoering ’n rol in die stelsel se besluitnemingsproses speel. – www.techopedia.com
KI is die afgelope maande op almal se lippe. Volgens Google het die aantal soektogte met die soekwoorde “kunsmatige intelligensie” internasionaal én in Suid-Afrika in 2022 en tot dusver vanjaar rekordhoogtes bereik.
ChatGPT is een van die redes vir hierdie belangstelling, en mense probeer uit alle oorde uitpluis waar en hoe dit in verskillende sektore en bedrywe toegepas kan word.
Maar miskien is ’n ander rede vir dié toenemende belangstelling ’n mate van kommer wat kop uitsteek oor die moontlike onbeheerde en ongereguleerde ontwikkeling van KI-stelsels. Want waartoe is hierdie stelsels in staat indien dit toegelaat word om sonder enige regulering te ontwikkel? En wat sal gebeur as die toepassing daarvan nie beheer word nie?
Hierdie kommer is nie misplaas nie, en oor die wêreld heen is lande en organisasies besig om te werk aan formele riglyne om die ontwikkeling van KI-stelsels te reguleer. ’n Voorbeeld is die Europese Unie (EU) se raamwerk vir die ontwikkeling van en navorsing in KI wat reeds in 2021 gepubliseer is.
Wat ten grondslag aan die EU se raamwerk lê, is dat die risiko’s verbonde aan verskillende tipes KI-gegronde stelsels geëvalueer word en in vier verskillende risiko-kategorieë geklassifiseer word. Deur die klassifikasie word gepoog om aan te dui wat die onderskeie risiko’s is wat aan ’n betrokke KI-stelsel verbonde is.
Die vier risiko-kategorieë wat gebruik word, is onaanvaarbare risiko’s, hoë risiko’s, beperkte risiko’s en minimale risiko’s. KI-stelsels wat in die kategorie van onaanvaarbare risiko’s val, mag byvoorbeeld glad nie in die EU ontwikkel of toegepas word nie.
RIGLYNE VIR KI-STELSELS
Die Organisasie vir Ekonomiese Samewerking en Ontwikkeling (OECD) het ook al in 2019 ’n stel riglyne opgestel om die ontwikkeling van KI-stelsels te bestuur.
Die OECD se riglyne sluit in:
• KI-stelsels moet tot voordeel van die mensdom wees deur die bevordering van inklusiewe groei, volhoubare ontwikkeling en algemene welstand;
• KI-stelsels moet te alle tye veilig en regverdig wees. Dit moet die oppergesag van die reg, menseregte, demokratiese waardes en diversiteit respekteer;
• KI-stelsels moet deursigtig wees sodat mense die werking, gevolge en uitsette van sulke stelsels kan verstaan. Geslote of sogenaamde “swartkas”-stelsels, waarin alles verskuil is, is onaanvaarbaar;
• KI-stelsels moet veilig en robuus wees en risiko’s moet duidelik uitgespel wees; en
• Organisasies en individue wat KI-stelsels ontwikkel, moet vir die betrokke werking van die stelsels, soos uiteengesit in die OECD se riglyne, verantwoordbaar gehou word.
WAT GEBEUR IN BRICS-LANDE?
In die lig van die OECD se riglyne en die EU se raamwerk, is dit interessant om kortliks te kyk wat gebeur in die Brics-lande, waarvan Suid-Afrika – saam met Brasilië, Rusland, Indië en China – ’n lid is.
• Brasilië het ’n konsepwet oor KI wat spesifiseer dat die ontwikkeling, inwerkingstelling en gebruik van dié stelsels onder meer deursigtig moet wees, vryheid van keuse moet toegelaat word en dit moet geoudit kan word. Brasilië verklaar ook duidelik dat hy die OECD se riglyne in dié verband volg.
• Rusland het in 2020 ’n soort raamwerk vir die ontwikkeling van KI-stelsels gepubliseer. Dit is later opgevolg deur federale wetgewing, Wet 258-FZ, wat in 2021 van krag geword het. Ingevolge hiervan kan KI-ontwikkeling plaasvind, maar dit moet aan sekere streng vereistes voldoen.
• China het reeds in 2017 ’n dokument met die titel “Plan vir die volgende generasie kunsmatige intelligensie” gepubliseer. ’n Groot deel van die plan bestaan uit wetlike aspekte van KI en KI-ontwikkeling.
• Indië het in 2018 ’n verslag oor KI gepubliseer, waarin tien spesifieke areas belig word waarin KI ’n besondere rol in dié land kan vervul. Dit sluit onder meer in vervaardiging, medies, landbou, onderrig en omgewing. Die verslag beklemtoon ook die uitwerking wat KI kan hê op werkverskaffing en die moontlikheid dat dit tot werkloosheid kan lei. Geen werklike regulasies of wette oor KI bestaan egter skynbaar in dié stadium nie.
• Sover bekend het Suid-Afrika nog geen regulasies of wette oor die rol van KI gepubliseer nie. ’n Verslag wat deur die president se taakspan oor die Vierde Nywerheidsrevolusie opgestel is, verwys na KI, maar bevat geen spesifieke voorstelle oor die regulering daarvan nie.
HOEKOM REGULEER?
Waarom is dit egter hoegenaamd nodig om KI te reguleer? Die meeste mense se begrip van KI lei tot vrese oor werkloosheid – wanneer robotte jou werk oorneem – soos ook in Indië se 2018-verslag oor KI uitgestippel is.
Maar daar is selfs groter risiko’s. KI-stelsels het die potensiaal om inbreuk op menseregte te maak. Dit is ’n kwessie wat duidelik deur die EU-raamwerk en OECD se riglyne uitgewys word. KI-stelsels moet dus beheer en gereguleer kan word ten einde te keer dat dit uiteindelik tot ’n skending van menseregte lei.
Hoe, sal ’n mens wonder, kan só ’n stelsel menseregte skend? ’n Kernaspek hiervan is om te voorkom dat die algoritmes van so ’n stelsel bevooroordeeld is. Dit beteken dat die algoritme – doelbewus of per ongeluk – so geskryf word dat dit sekere gevalle op grond van onaanvaarbare kriteria kan uitsluit. Om dié rede, en verskeie ander, is dit belangrik dat daar etiese en regulêre voorskrifte vir die ontwikkeling, toetsing en implementering van KI-stelsels moet wees.
Sommige lande in Afrika, waaronder Egipte, Rwanda en Mauritius, het reeds omvattende strategieë oor KI gepubliseer, en die Afrika Unie (AU) is ook besig met ’n raamwerk vir die vasteland.
STANFORD-WAARSKUWING
Dit is uiters belangrik dat Suid-Afrika so gou as moontlik ook begin om riglyne of ’n raamwerk vir KI op te stel. Die land se verbintenis met Brics behoort ’n aanknopingspunt hiervoor te wees, maar pogings van ander internasionale organisasies of lande kan ook as vertrekpunte gebruik word.
Die Universiteit van Johannesburg – in samewerking met die Tshwane-Universiteit vir Tegnologie en die departement van kommunikasie en digitale tegnologie se vestiging van ’n KI-instituut is ’n belangrike stap. Die instituut se rol is egter om op navorsing te konsentreer en dit kan nie self enige regulatoriese en wetlike voorskrifte vestig nie.
In die laaste instansie, en sonder om paranoïes te wees, moet ons hierdie omgewing begin reguleer om te voorkom dat die Universiteit van Stanford se kommer ’n werklikheid word. In ’n verslag oor KI is dié universiteit se gevolgtrekking dat mense moontlik eendag beheer oor KI- stelsels kan verloor as gevolg van die ontwikkeling van super-intelligente KI-toepassings wat nie meer op mense se wense reageer nie. In die ergste scenario kan sulke stelsels uiteindelik selfs die mensdom bedreig.
Daarom het ons nou reeds regulasies en wette nodig. – Netwerk24
• Prof. Von Solms is die direkteur van die sentrum vir kuberveiligheid aan die Universiteit van Johannesburg.
GRYSBLOK
WAT IS SWARTKAS-KI?
Swartkas-KI – ook genoem geslotekas-KI – is ’n soort KI wat so ingewikkeld is dat die masjien of stelsel se besluitnemingsproses nie verduidelik kan word op die vlak dat dit maklik vir mense verstaanbaar is nie.
Dié tipe KI is ongewens, omdat dit baie moeilik raak om te identifiseer wanneer so ’n stelsel bevooroordeelde uitsette lewer of wanneer foute in logika voorkom. Dit is boonop baie moeilik om met die gebruik van so ’n stelsel vas te stel wie verantwoordbaar gehou moet word indien die uitsette foutief of selfs gevaarlik is. Dit is makliker om die integriteit en akkuraatheid van die uitsette van KI-stelsels te vertrou wat deursigtig is en geïnterpreteer kan word. Deursigtigheid kan byvoorbeeld bereik word deur algoritmes te gebruik wat mense maklik kan verstaan en om seker te maak dat menslike terugvoering ’n rol in die stelsel se besluitnemingsproses speel. – www.techopedia.com
Kommentaar
Republikein
Geen kommentaar is op hierdie artikel gelaat nie