Algoritme

Datum laatste wijziging: 2 mei 2021  |  Trefwoorden:

Inhoud

  1. Betekenis algoritme
  2. Doorlichten burgers sociale zekerheid met behulp van SyRI
  3. Computer vergroot kansen lager opgeleiden om aan het werk te blijven
  4. De computer als filter van sollicitanten
  5. Algoritme wijst ideale kandidaat aan
  6. Uitzendbureau van de toekomst: algoritmes boven recruiters
  7. Gemeenten voorspellen bijstandsfraude met algoritme
  8. Voordelen
  9. Vooroordelen
  10. Solliciteren per webcam
  11. Tweede Kamer
  12. Zorg voor transparantie
  13. Algoritmes bepalen wie bij Unilever een traineeship krijgt
  14. Geheime algoritmes mogen
  15. Ook algoritmen maken fouten
  16. Betere controles gebruik algoritmes
  17. Algoritmes moeten door accountants worden gecontroleerd
  18. Technische voortgang en toch onbehagen
  19. Solliciteren bij een algoritme
  20. Geen ontkomen aan
  21. Algoritme doorzoekt bankgegevens op arbeidsuitbuiting
  22. 2020: de start van het algoritme-decennium
  23. Toezicht op algoritmes
  24. Algoritme inzetten voor strijd tegen illegale verhuur
  25. Drie categorieën algoritmes binnen machine learning
  26. Ombudsman werkt aan visie op behoorlijk gebruik van data en algoritmen door de overheid
  27. Algoritmes kunnen kans op discriminatie bij sollicitaties vergroten, maar ook verkleinen
  28. Nederlandse doorbraak maakt ai zuiniger
  29. Verkeerd gebruik algoritme kan leiden tot uitsluiting
  30. Algoritmes zangeres-onvriendelijk
  31. Tweede Kamer: stop met discriminerend algoritme
Zie ook rubriek Artificial Intelligence(ai)

Betekenis algoritme

Een strikt technische redeneermethode waarbij géén gebruik wordt gemaakt van menselijke intuïtie om tot een resultaat te komen. Een algoritme is een eindige reeks instructies waarbij vanuit een gegeven begintoestand naar een beoogd doel wordt gewerkt.

De naam komt uit het Perzisch. Voor het uitvoeren van algoritme wordt van een computer gebruik gemaakt.

Doorlichten burgers sociale zekerheid met behulp van SyRI

Gemeenten en andere overheidsinstanties krijgen de mogelijkheid gegevens over burgers aan elkaar te koppelen om fraude met belastingen, uitkeringen en toeslagen op te sporen. Hiervoor is de Wet SUWI vorig jaar oktober gewijzigd (toelichting). Ministers Asscher en Opstelten publiceerden op 11 september 2014 een concrete uitwerking van deze wetswijziging. Volgens dit plan worden de volgende gegevens over iedere burger aan elkaar gekoppeld:
  • arbeidsgegevens,
  • boete en sanctiegegevens,
  • belastinggegevens,
  • gegevens over bezittingen,
  • gegevens waaruit blijkt dat een persoon niet in aanmerking komt voor een uitkering,
  • eventuele bedrijfsgegevens uit het handelsregister,
  • woon- en verblijfgegevens
  • identificerende gegevens, waaronder naam, adres, woonplaats, postadres, geboortedatum, geslacht en administratieve kenmerken,
  • gegevens over eventuele inburgering en inburgeringsverplichtingen,
  • nalevingsgegevens (of je je aan de wet hebt gehouden),
  • onderwijsgegevens,
  • pensioengegevens,
  • gegevens of een persoon na een periode van ziekte zich aan de re-integratieverplichtingen houdt of heeft gehouden,
  • gegevens over schulden,
  • uitkerings-, toeslagen- en subsidiegegevens,
  • gegevens over vergunningen en ontheffingen,
  • zorgverzekeringsgegevens.
De Raad van State oordeelt zeer kritisch over de aanpak van de ministers Asscher en Opstelten om fraudeurs op te sporen. Volgens het adviesorgaan stellen de ministers vrijwel geen grenzen aan de hoeveelheid gegevens die ze verzamelen. Bovendien is de database waarin risicomeldingen over burgers worden vastgelegd, niet wettelijk geregeld en zouden burgers over een risicomelding geïnformeerd moeten worden.

Ministers leggen het oordeel van de Raad van State naast zich.

Computer vergroot kansen lager opgeleiden om aan het werk te blijven

De mobiliteit van laagopgeleide flexkrachten aan de onderkant van de arbeidsmarkt kan sterk worden vergroot. Dit stelt Timing uitzendteam. De arbeidsmarktspecialist zet voor dit doel een zelflerend algoritme in.

Binnen de uitzendbranche wordt al enkele jaren fors geïnvesteerd in smart-technologie om slimmer te kunnen matchen bij werving en selectie. Met de introductie van Do loopt Timing voorop in dit innovatieproces. Do is een zelflerend algoritme dat kandidaten voor een (flex)baan behalve op hun kennis en ervaring matcht op basis van persoonlijke vaardigheden en persoonlijkheid.

Do wordt aangesloten op interne systemen van inlenende bedrijven, put uit informatie over o.a. functieprofielen en beoordelingen en vergelijkt het profiel van een kandidaat automatisch met dat van uitzendkrachten die eerder voor hetzelfde bedrijf hebben gewerkt en positief zijn beoordeeld. Iedere paar weken vraagt Do flexkrachten en werkgevers om elkaar in de praktijk te beoordelen. Door het zelflerend algoritme kunnen hierdoor steeds betere matches worden gemaakt. (Bron: Flex Nieuws, 4 sep. 2017)

De computer als filter van sollicitanten

Met kunstmatige intelligentie als poortwachter in sollicitatieprocedures wordt jouw cv steeds minder relevant. Algoritmes worden met de dag slimmer en mogen daarom in toenemende mate bepalen wie er doorgaan naar de volgende ronde.

Goed testen is noodzakelijk, zegt de woordvoerster van ING, dat met software de eerste selecties maakt voor het populaire traineeshipprogramma. De technologie helpt om uit tweeduizend kandidaten zestig mensen te selecteren om uit te nodigen voor een gesprek. ‘Momenteel zetten we bij drie testen met software de kandidaat af tegen de normgroep. Hierdoor proberen we op een objectieve manier te voorspellen of iemand geschikt is, en dat werkt zeer efficiënt. Met diepgaander gebruik van AI (artificial intelligence) gaan we experimenteren in ons innovation center.’

Unilever gebruikt twee softwareprogramma’s voor de selectie van trainees voor het Future Leaders Programme, waaraan elk half jaar duizenden jongeren willen meedoen. Slechts tien tot twintig van hen komen door de weging. AI-programma’s zijn nu twee keer ingezet en een derde keer is begin oktober begonnen. (Bron en meer: Intermediair, 26 okt. 2017)

Algoritme wijst ideale kandidaat aan

De perfecte kandidaat uit een rij sollicitanten wordt steeds meer door wiskundige formules gehaald. Software verzamelt gegevens over een sollicitant door taalgebruik te analyseren, games te laten spelen of psychologische testen af te nemen. Vervolgens krijgt de manager een lijst met geschikte kandidaten.

De algoritmen van de beide softwarebedrijven zijn zelflerend. Wat inhoudt dat werknemers die al langer bij het betreffende bedrijf werken de open vragen invullen en de games spelen. De software vergelijk vervolgens de prestaties van de sollicitanten met die van de best presterende werknemers van het bedrijf. (Bron: HR Praktijk, 21 sep. 2017)

Uitzendbureau van de toekomst: algoritmes boven recruiters

De tijd dat een werkzoekende langs de etalages van uitzendbureaus liep om zich te oriënteren op zijn mogelijkheden op de arbeidsmarkt, vervolgens gewapend met een geprint cv naar binnen stapte en daar met een intercedent een plaatsing regelde, ligt definitief achter ons. Het aantal uitzendbureaus in winkelstraten waar veel voetgangers langslopen, neemt de afgelopen jaren drastisch af. Randstad kondigde onlangs aan een groot deel van de 206 uitzendbureaus op A-locaties te sluiten en te verplaatsen naar bedrijventerreinen, een paar ‘flagshipstores’ in grote steden uitgezonderd.

Zijn de criteria van de te vervullen functie bepaald, dan moet er een kandidaat gevonden worden. Daar zal de computer een hoop werk uit handen kunnen nemen. Het begint bij een eerste selectie. Stel er zijn honderd potentiële kandidaten. Voor een recruiter is het onmogelijk om die allemaal te bellen en te polsen. Met behulp van chatbots* kan kandidaten gevraagd worden of ze interesse hebben en, bijvoorbeeld, of hun salarisindicatie in lijn is met de functie (Bron: MT, 28 dec. 2017)

*Een chatterbot, chatbot of kortweg bot is een geautomatiseerde gesprekspartner. Het is dan ook een samenvoeging van het woord 'chat' en 'robot'. (Bron en meer: Wikipedia)

Gemeenten voorspellen bijstandsfraude met algoritme

Een viertal gemeenten gebruikt een algoritme om te voorspellen welke burgers bijstandsfraude plegen. Sociaal rechercheurs onderzoeken degenen die door de software worden aangewezen als vermoedelijke fraudeur.

Het algoritme bekijkt twee tot driehonderd variabelen in een periode van 25 jaar waaronder geboortedata, gezinssamenstelling, uitkeringsverleden en gegevens van de Belasting, RDW en kadaster. Volgens NRC wordt bij de helft van de personen die het algoritme aanwijst daadwerkelijk fraude aangetoond, bij de andere helft zou dit ook het geval kunnen zijn, maar is er geen bewijs. (Bron: Binnenlands Bestuur, 9 apr. 2018)

Voordelen

De beloftes van big data zijn enorm. Dankzij de grote berg gegevens die tegenwoordig ter beschikking staan aan bedrijven, wetenschappers en overheden kunnen we epidemieën veel sneller ontdekken, we kunnen voorspellen hoe lekker de wijn gaat smaken van de druiven die nog geplukt moeten worden, en we kunnen bepalen waar de kans op criminaliteit het grootst is en waar de politie dus extra moet patrouilleren. (Binnenlands Bestuur, 11 apr. 2018)

Vooroordelen

De grootste problemen met de modellen die de financiële sector gebruikte, waren dat risico's compleet verkeerd werden ingeschat en dat de aannames waarop de modellen waren gebaseerd, niet klopten. Vergelijkbare problemen zien we terug op tal van andere plaatsen waar rekenkundige modellen worden ingezet om de bedrijfsvoering te verbeteren en de omzet te verhogen, betoogt O'Neil.

Ze verhaalt in haar boek van Sarah Wysocki, een docente uit Washington DC die ondanks goede beoordelingen van de rector en de ouders van haar leerlingen werd ontslagen. De reden: een slechte score bij de jaarlijkse evaluatie van de gemeente. Wysocki zat bij de 200 slechtste.

Solliciteren per webcam

Vaak is het eerder een monoloog dan een gesprek: sollicitanten beantwoorden de vragen op het scherm dikwijls zonder dat hun beoogde werkgever meeluistert. Hirevue beoordeelt de opgenomen video's op woordkeus, stemklank en 'micro-expressies': de soms hooguit vier honderdsten van een seconde durende gezichtsuitdrukkingen waarmee we ongewild onze ware emoties zouden verraden. Zo krullen de mondhoek en wenkbrauwen van een sollicitant misschien net iets op en kantelt hij zijn hoofd een fractie van een seconde zijwaarts als hij tijdens een sollicitatiegesprek een leugentje vertelt. De software van Hirevue splitst de videosollicitaties uit in tienduizenden minuscule observaties, plakt daar een score op en vergelijkt die met de scores van vijf miljoen eerdere videosollicitanten. Wie het best scoort, krijgt de baan.

Klinkt dit eng? Besef dan wel hoe hopeloos willekeurig het ouderwetse sollicitatieproces is, zegt Walter Hueber, bestuursvoorzitter van Cammio, dat zijn klandizie vorig jaar zag verdrievoudigen. Neem het curriculum vitae, waarschijnlijk de enige tekst die niemand graag schrijft en niemand graag leest. Zes seconden, zo lang nemen werkgevers gemiddeld de tijd een cv te lezen. Wie in die tijd zo'n verpletterende indruk maakt dat hij op gesprek mag, is alsnog aan de goden overgeleverd. (Bron: De Volkskrant, 11 apr. 2018)

Tweede Kamer

De gevaren van “historische vooroordelen”, onjuiste data en gebrekkige inzichtelijkheid zijn volgens D66 en SP problematisch bij de bestrijding van bijstandsfraude door gemeenten. In reactie op Kamervragen heeft de verantwoordelijke staatssecretaris Van Ark echter niet de gevraagde openheid toegezegd. (Bron: AG Connect, 12 apr. 2018)

Zorg voor transparantie

De mens ontkomt er vroeg of laat niet aan te kunnen verklaren waarom een computer een bepaalde beslissing heeft genomen. Volgens Bennie Mols zijn er drie paden te behandelen:
  1. technisch: de computer geeft weer waarom de conclusie is getrokken
  2. juridisch: de wet vereist uitleg te geven waarom de computer een bepaalde beslissing heeft genomen, zie de General Data Protection Regulation.

Algoritmes bepalen wie bij Unilever een traineeship krijgt

Niet je CV, maar de manier waarop je puzzels oplost is je ticket naar een traineeship bij Unilever. Met behulp van kunstmatige intelligentie wordt een schifting gemaakt in het grote aanbod. Met behulp van kunstmatige intelligentie maakt Unilever sinds 2016 een selectie in de 4000 aanmeldingen voor de 40 traineeplaatsen die het bedrijf jaarlijks heeft.

In de eerste ronde worden twaalf spelletjes gespeeld, waaruit onder andere concentratie, intelligentie en risicogedrag moeten blijken. Daarbij wordt rekening gehouden met de functie waarop gesolliciteerd wordt: sales mag zich risicovoller gedragen dan een controleur van de financiën.

De tweede ronde bestaat uit een interview waarbij vragen op het scherm te zien zijn, de kandidaat geeft in de camera van zijn/haar laptop of telefoon antwoord. Met behulp van software wordt geanalyseerd wat de antwoorden zijn, maar ook hoe sollicitanten reageren in emoties of twijfel. Pas in het derde gedeelte van de sollicitatieronde komen de sollicitanten tegenover een menselijk persoon te zitten. (Bron en meer: MT, 31 mei 2018)

Geheime algoritmes mogen

Gemeenten die fraude laten opsporen met behulp van algoritmes mogen die algoritmes geheim houden in het belang van effectieve uitkeringsfraudebestrijding. Dat zegt staatssecretaris Van Ark van Sociale Zaken en Werkgelegenheid in een reactie op Kamervragen.

De D66-Tweede Kamerleden Raemakers en Verhoeven wilden onder meer weten of het gebruik van algoritmes controleerbaar is. Van Ark erkent dat er een risico op discriminatie kan ontstaan door het gebruik van algoritmes die zijn gebaseerd op historische fraudedata. Die risico’s moeten worden verkleind door het algoritme te blijven actualiseren met de uitkomsten van nieuwe fraudeonderzoeken. Ze benadrukt ook dat fraude pas kan worden vastgesteld na toepassing van hoor en wederhoor. Gemeenten moeten bij de gegevensverwerking en data-analyse rekening houden aan de Wet bescherming persoonsgegevens en de Algemene verordening gegevensbescherming. (Bron: Binnenlands Bestuur, 8 jun. 2018)

Ook algoritmen maken fouten

Er is een groot probleem: het probleem van zelflerende algoritmen die op basis van stapels data allerlei conclusies trekken. Conclusies die we klakkeloos geloven, zonder uitleg. Hoogleraar psychologie Mark van Vugt roept in zijn wetenschapsrubriek op tot een debat daarover (Trouw, 2 juni). Dat debat is nodig en nuttig. Soms moet je een spade dieper graven.

Van Vugt noemt een algoritme dat op basis van foto’s van gezichten criminelen van niet-criminelen zou onderscheiden. Twee hoogleraren van de Universiteit van Washington keken hier kritisch naar en leggen uit dat er een bias (vertekening) in het algoritme is geslopen door de foto’s waarmee het algoritme is getraind. Het algoritme is getraind met twee sets foto’s: politiefoto’s van veroordeelde criminelen, die nors kijken, en willekeurige foto’s van professionele websites, waarop de mannen glimlachen.
Het algoritme heeft dus geleerd om onderscheid te maken tussen nors kijken en glimlachen. Niet om criminelen te herkennen. (Bron: Trouw, 23 jun. 2018)

Betere controles gebruik algoritmes

Er moet meer transparantie komen over welke data worden verzameld en wat daarmee gebeurt, zeker wanneer algoritmes steeds belangrijker worden bij het nemen van beslissingen die werknemers aangaan.”

FNV wil daarom dat er ‘data-accountants’ worden aangesteld die de algoritmes controleren. “Zo’n accountant moet jaarlijks diep in de systemen kijken en erop toezien dat er geen zaken gebeuren die we niet willen. Net als een financiële accountant moet zo iemand een organisatie controleren. Wij vertrouwen niet op zelfregulering.” (Bron: HR Praktijk, 13 nov. 2018)

Algoritmes moeten door accountants worden gecontroleerd

In mei 2019 stelde regeringspartij VVD voor dat accountants standaard een oordeel geven over de eerlijkheid en betrouwbaarheid van uitkomsten van algoritmes die bedrijven en overheden inzetten bij het nemen van beslissingen.

De VVD wil dat accountants jaarlijks rapporteren over de betrouwbaarheid en eerlijkheid van de algoritmes die bedrijven en overheden gebruiken. Algoritmes bieden allerlei voordelen maar kunnen ook, vaak onbedoeld, de privacy schenden en discrimineren. Accountants moeten de algoritmes toetsen, zoals ze dat ook doen bij de financiële verslaggeving van bedrijven en overheden, en wil daarnaast dat er een nieuwe toezichthouder komt die zich specifiek richt op rapportages en kennisdeling op dit vlak.

Technische voortgang en toch onbehagen

De vooruitgang brengt ons rijkdom en gemak. Ooit waren onze voorouders bestemd tot armoede en noeste arbeid, wij daarentegen hebben met onze innovatieve technische vooruitgang en voortschrijdende inzichten toegang tot oneindige mogelijkheden. En toch domineert angst en onbehagen m.b.t de inzet van deze technologische tooling onze huidige maatschappij.

Solliciteren bij een algoritme

Het CV heeft zijn langste tijd gehad. Met tests, games en slimme software proberen bedrijven de beste kandidaten te selecteren. Al is dat niet voor iedereen goed nieuws.

Unilever, KPN, Albert Heijn, Jumbo, Hema, Deloitte, Heineken, USG People, Randstad, McKinsey en de luchtverkeersleiding: allemaal maken ze gebruik van algoritmes en artificiële intelligentie in selectieprocedures. (Diverse bronnen: 9 juli 2019)

Geen ontkomen aan

Tegenwoordig (2019) is er geen ontkomen aan, algoritmen zijn overal.  Van algoritmen die toegepast worden door Facebook, Twitter, Google, maar bijvoorbeeld ook door publieke organisaties zoals de Belastingdienst, provincies, gemeenten en ga zo maar door.
Maar wat zijn algoritmen nu eigenlijk? Op Wikipedia wordt het begrip algoritme gedefinieerd als ‘een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt’. Simpel gezegd zijn algoritmen vooraf gedefinieerde en ingegeven instructies die autonoom of (in combinatie) met menselijke betrokkenheid geautomatiseerde beslissingen nemen.

Je kan een algoritme goed vergelijken met een keukenrecept. Het recept beschrijft welke handelingen verricht moeten worden om een goed gerecht te bereiden. Om brood te bakken heb je ingrediënten nodig (input), die je vervolgens volgens de receptuur bewerkt (algoritmen) om uiteindelijk vers brood te verkrijgen (output).

Algoritme doorzoekt bankgegevens op arbeidsuitbuiting

Recent (7 november 2019)

Het is gebleken dat, door data van klanten te controleren met een algoritme, ABN-AMRO mensen kon opsporen die zich mogelijk schuldig maken aan arbeidsuitbuiting. Verdachte gevallen zijn door de bank aan de Inspectie Sociale Zaken en Werkgelegenheid (Inspectie SZW) doorgegeven, in 7 gevallen werd arbeidsuitbuiting geconstateerd.

Hoeveel zaken aan Inspectie SZW zijn overgedragen kan met het oog op verder onderzoek niet worden meegedeeld. Feit is dat de Inspectie alle gevallen serieus neemt.
(Bron: Inspectie SZW)

2020: de start van het algoritme-decennium

Dat het komende decennium dé bloeiperiode wordt van algoritmes, had de naamgever ervan – Mohammed ibn Moesa al-Chwarizmi, door zijn Latijns sprekende vrienden 'Algoritmi' genoemd – nooit kunnen vermoeden. Maar algoritmes zijn al overal te vinden. Denk maar aan Spotify, Netflix, de aanbevelingen bij Bol.com, weersvoorspellingen, Siri, Uber of Google. Dat algoritmes betere beslissingen kunnen nemen bij rationele keuzes, staat inmiddels wel vast. De echte vooruitgang is mede afhankelijk van het vertrouwen in algoritmes bij het nemen van de meer menselijke beslissingen.

Toezicht op algoritmes

Volgens Aleid Wolfsen (voorzitter van de AP) vindt de inzet van algoritmes inmiddels op grote schaal plaats. Dat geldt niet alleen voor private organisaties, maar ook voor de overheid: van de belastingdienst en de politie tot verschillende gemeentes.

De verantwoordingsplicht geeft belangrijke handvatten voor het toezicht op algoritmes en is in de AVG uitgewerkt in verschillende instrumenten. Zo moet een verwerkingsverantwoordelijke bijvoorbeeld verplicht een register bijhouden, waarin activiteiten waarbij persoonsgegevens worden verwerkt worden beschreven, inclusief de doeleinden van die verwerkingen.

Daarnaast moet een verwerkingsverantwoordelijke voorafgaand aan een bepaalde verwerking een beoordeling uitvoeren van het effect hiervan op de bescherming van persoonsgegevens. Deze zogeheten data protection impact assessment (DPIA) is bij het gebruik van algoritmes veelal verplicht. (Bron: AP, 17 feb. 2020)

Algoritme inzetten voor strijd tegen illegale verhuur

Met een algoritme moet de illegale vakantieverhuur in Amsterdam worden bestreden. Verhuur van woningen via deelplatformen als Airbnb nam de afgelopen jaren toe.

Volgens de gemeente moet het algoritme ervoor zorgen dat beter kan worden ingeschat of op een adres woonfraude wordt gepleegd. Uiteindelijk moeten handhavers wel zelf bepalen of zij ook naar het adres gaan. (Bron: NRC, 26 feb. 2020 e.a.)

Drie categorieën algoritmes binnen machine learning

  1. Supervised learning. Bij deze vorm van machine learning, gecontroleerd leren in het Nederlands, heeft men zowel input-variabelen als output-variabelen tot zijn beschikking.
  2. Bij unsupervised learning - in het Nederlands ongecontroleerd leren - is het tegenovergestelde van supervised learning. Er is een dataset maar de output is nog niet bekend.
  3. Reinforcement learning is een vorm van machine learning waarin een machine leert aan de hand van trial and error. Van de ervaringen leert men hoe het niet moet.

Ombudsman werkt aan visie op behoorlijk gebruik van data en algoritmen door de overheid

De Nationale ombudsman wil dat voor burgers helder is wat zij vanuit behoorlijkheid mogen verwachten van de overheid als deze data en algoritmen gebruikt waarvan het effect de burger persoonlijk raakt. Hij ontwikkelt hiervoor een ombudsvisie op behoorlijk gebruik van data en algoritmen door de overheid. De ombudsvisie moet de overheid ook helpen het burgerperspectief al te waarborgen bij het opstellen van richtlijnen voor gebruik van gegevens. (Bron: Nationale ombudsman, 1 sep. 2020)

Algoritmes kunnen kans op discriminatie bij sollicitaties vergroten, maar ook verkleinen

Iedereen wil een eerlijke kans op een baan. We willen allemaal dat werkgevers en bemiddelaars kijken naar onze talenten, vaardigheden en ervaring en niet naar bijvoorbeeld onze leeftijd, afkomst, gender of seksuele voorkeur. Om snel te kunnen selecteren zetten steeds meer werkgevers algoritmes in. Uit nieuw onderzoek van het College voor de Rechten van de Mens, blijkt dat de inzet van algoritmes de kans op discriminatie kan vergroten, maar ook verkleinen.

Ondanks de risico’s is het ook mogelijk om juist mét algoritmes te zorgen dat mensen een eerlijke kans maken op een baan en dus gelijke behandeling te vergroten. Ook zonder algoritmes wordt er namelijk gediscrimineerd en algoritmes hebben de potentie om vrij van vooroordelen over bijvoorbeeld ras of geslacht besluiten te nemen. Maar voorzichtigheid blijft belangrijk. Algoritmes kunnen zelfs onbewust tot discriminatie leiden en de techniek om dit te corrigeren staat nog in de kinderschoenen. (Bron: Mensenrechten.nl, 2 sep. 2020)

Nederlandse doorbraak maakt ai zuiniger

Onderzoekers van het Centrum voor Wiskunde en Informatica (CWI) hebben een algoritme ontwikkeld dat ai-toepassingen met een factor honderd tot duizend energiezuiniger maakt. Met de nieuwe rekenmethode kunnen ai-taken zonder cloudverbinding op een lokaal apparaat plaatsvinden, bijvoorbeeld een smartwatch. CWI spreekt van 'een doorbraak'. Kanttekening: er zijn nog geen geschikte chips voor deze ai-toepassing.

‘Dankzij een wiskundige doorbraak kunnen toepassingen van kunstmatige intelligentie, zoals spraakherkenning, gebarenherkenning en de classificatie van elektrocardiogrammen (ecg), een factor honderd tot duizend energiezuiniger worden’, meldt het CWI op 8 okt. 2020.

Verkeerd gebruik algoritme kan leiden tot uitsluiting

Kunstmatige intelligentie lijkt handig om in te zetten uit het oogpunt van tijdsbesparing, bijvoorbeeld bij sollicitaties. Maar als algoritmes niet goed worden opgezet en uitgewerkt, kunnen ze juist leiden tot uitsluiting en discriminatie. (Bron: Fundament, 1 apr. 2021)

Algoritmes zangeres-onvriendelijk

Onderzoeker Christine Bauer e.a. analyseerden het luistergedrag van 330.000 gebruikers van online-muziekplatforms over een periode van negen jaar. Slechts een kwart van de artiesten waarnaar werd geluisterd, was een vrouw. Bij het testen van het algoritme bleek dat gemiddeld het eerstvolgende aanbevolen nummer van een man was, samen met de volgende zes. Als gebruikers naar de aanbevolen nummers luisteren, leert het algoritme hiervan. Zo ontstaat er een feedbackcyclus die oneerlijk is tegenover vrouwelijke artiesten. (Bron: Computable, 14 apr. 2012)

Tweede Kamer: stop met discriminerend algoritme

Een ruime meerderheid van de Tweede Kamer keert zich tegen het gebruik van discriminerende algoritmes door de overheid. Dat bleek vannacht tijdens het marathondebat over de vrijgegeven geheime ministerraadnotulen over de toeslagenaffaire. (Bron: Computable, 30 apr. 2021)