Managed hosting door True

Visterin Fileert: Moord op Facebook

Grenzen van artificiële intelligentie

 

social media

Een foto van een vrouw die borstvoeding geeft, kan nog steeds snel van Facebook gegooid worden. Maar vermoord je iemand in een filmpje, dan blijft dat vaak een tijd onder de radar. Artificiële intelligentie heeft nog zo zijn beperkingen.

Vooreerst: artificiële intelligentie is aan een razende opmars bezig. Ook in zakelijke technologie zien we het doorbreken in dagelijkse gebruik. Denk maar aan oplossingen van Salesforce (Einstein) of IBM (Watson). Een mooi voorbeeld is de bank JP Morgan. Hun nieuwe softwareprogramma zou in enkele seconden het werk uitvoeren waaraan voordien juristen en kredietspecialisten jaarlijks ruim 360.000 uur aan moesten besteden.

Nirvana

Tegelijk is artificiële intelligentie vandaag de gatekeeper op internet. Vooral bij foto’s gebeurt dit steeds accurater. Facebook kan intussen nauwkeurig en snel het kaf van het koren scheiden. Akkoord, soms loopt dat fout. Herinner je dat de iconische foto van het (naakte) napalm-meisje werd verwijderd om vervolgens weer te worden teruggeplaatst. Of de overbekende Nevermind-cover van Nirvana met de naakte baby in een zwembad, die ook werd geweerd en teruggeplaatst. Maar de software deed wel zijn werk.

Fotoherkenning werkt alsmaar preciezer. En het beste moet nog komen. Ik herinner me dat ik een jaar geleden voor Radio1 de Planet-toepassing van Google uit de doeken mocht doen. Die kan zowel recente foto's als foto's uit de oude doos aan een locatie toewijzen, door deze te matchen met andere foto’s. Waardoor Google je precies kan vertellen waar je een foto hebt genomen als je dat zelf niet meer zou weten.

Beperkingen met video

Een ander verhaal bij video. Hier lijkt artificiële intelligentie nog maar in de kinderschoenen te staan. Ze kan alleszins niet verhinderen dat enkele dagen geleden, nog maar eens, een video van een moord op Facebook werd geplaatst. Op het filmpje kon iedereen zien hoe een Amerikaanse man een bejaarde voorbijganger neerknalt. De video stond enkele uren op Facebook voordat een Facebook-medewerker hem manueel verwijderde.

Voorlopig stoot de herkenningssoftware bij video dus duidelijk op zijn beperkingen. Blijkbaar zijn handelingen veel moeilijker te herkennen dan voorwerpen. Een lichaamsdeel lukt bijvoorbeeld al aardig, maar het onderscheid of iemand, ik zeg maar wat, pakweg hout hakt of een slachtoffer aanvalt met een voorwerp, is moeilijker in te schatten. Niet alleen voor Facebook, maar ook voor een site als YouTube.

Kortom, wil je alle moorden snel weren van deze sites, dan moet je de software vandaag heel erg streng instellen.

Menselijke moderatoren

Als het van Facebook-baas Mark Zuckerberg afhangt, is het een kwestie van tijd. Dan herkennen slimme algoritmes in de toekomst een moordvideo automatisch. Ooit zal dat ook wel zo zijn, als (bijvoorbeeld) de Wet van Moore verder is geëvolueerd en als er zoveel voorbeeldvideo’s zijn om de software te verfijnen.

Zover zijn we nog niet, en ik betwijfel of we die honderd procent accuraatheid ooit halen. Momenteel vertrouwen sites als Facebook vooral op ons als gebruikers, die aanstootgevend materiaal rapporteren. En vooral: op hun menselijke moderatoren die checken of al die gerapporteerde berichten in overeenstemming zijn met hun policy.

De job die niemand wil

Want vergeet dit niet. Ergens in de kelders van bedrijven als Facebook of Google zitten echte mensen die ‘echte’ moorden van ‘valse’ moeten onderscheiden. Ik noem dit de job bij Google of Facebook (toch allebei erg gegeerde werkgevers), die niemand wil doen.

En terecht, want hoe zou je zelf zijn, als je dagtaak erin bestaat om de hele dag extremistische content te controleren? In de praktijk betekent dat een hele dag beelden bekijken van onder meer bestialiteit, onthoofdingen, kinderporno, zelfmoorden en andere uitspattingen. Dergelijke screeningteams opereren achter de schermen. Ze spreken nooit op conferenties of geven nooit interviews. En toch is hun werk cruciaal voor de goede werking van de Facebooks en Googles van deze wereld. Ook voor deze medewerkers mag je hopen dat artificiële intelligentie snel verder evolueert.

Dit artikel is afkomstig van Computable.be (https://www.computable.be/artikel/6004370). © Jaarbeurs IT Media.

?


Lees meer over


 

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×