Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief
social media

Visterin Fileert: Moord op Facebook

19 april 2017 - 09:274 minuten leestijdOpinieInnovatie & TransformatieFacebookGoogleIBMSalesforce
William Visterin

Een foto van een vrouw die borstvoeding geeft, kan nog steeds snel van Facebook gegooid worden. Maar vermoord je iemand in een filmpje, dan blijft dat vaak een tijd onder de radar. Artificiële intelligentie heeft nog zo zijn beperkingen.

Vooreerst: artificiële intelligentie is aan een razende opmars bezig. Ook in zakelijke technologie zien we het doorbreken in dagelijkse gebruik. Denk maar aan oplossingen van Salesforce (Einstein) of IBM (Watson). Een mooi voorbeeld is de bank JP Morgan. Hun nieuwe softwareprogramma zou in enkele seconden het werk uitvoeren waaraan voordien juristen en kredietspecialisten jaarlijks ruim 360.000 uur aan moesten besteden.

Nirvana

Tegelijk is artificiële intelligentie vandaag de gatekeeper op internet. Vooral bij foto’s gebeurt dit steeds accurater. Facebook kan intussen nauwkeurig en snel het kaf van het koren scheiden. Akkoord, soms loopt dat fout. Herinner je dat de iconische foto van het (naakte) napalm-meisje werd verwijderd om vervolgens weer te worden teruggeplaatst. Of de overbekende Nevermind-cover van Nirvana met de naakte baby in een zwembad, die ook werd geweerd en teruggeplaatst. Maar de software deed wel zijn werk.

Fotoherkenning werkt alsmaar preciezer. En het beste moet nog komen. Ik herinner me dat ik een jaar geleden voor Radio1 de Planet-toepassing van Google uit de doeken mocht doen. Die kan zowel recente foto’s als foto’s uit de oude doos aan een locatie toewijzen, door deze te matchen met andere foto’s. Waardoor Google je precies kan vertellen waar je een foto hebt genomen als je dat zelf niet meer zou weten.

Beperkingen met video

Een ander verhaal bij video. Hier lijkt artificiële intelligentie nog maar in de kinderschoenen te staan. Ze kan alleszins niet verhinderen dat enkele dagen geleden, nog maar eens, een video van een moord op Facebook werd geplaatst. Op het filmpje kon iedereen zien hoe een Amerikaanse man een bejaarde voorbijganger neerknalt. De video stond enkele uren op Facebook voordat een Facebook-medewerker hem manueel verwijderde.

Voorlopig stoot de herkenningssoftware bij video dus duidelijk op zijn beperkingen. Blijkbaar zijn handelingen veel moeilijker te herkennen dan voorwerpen. Een lichaamsdeel lukt bijvoorbeeld al aardig, maar het onderscheid of iemand, ik zeg maar wat, pakweg hout hakt of een slachtoffer aanvalt met een voorwerp, is moeilijker in te schatten. Niet alleen voor Facebook, maar ook voor een site als YouTube.

Kortom, wil je alle moorden snel weren van deze sites, dan moet je de software vandaag heel erg streng instellen.

Menselijke moderatoren

Als het van Facebook-baas Mark Zuckerberg afhangt, is het een kwestie van tijd. Dan herkennen slimme algoritmes in de toekomst een moordvideo automatisch. Ooit zal dat ook wel zo zijn, als (bijvoorbeeld) de Wet van Moore verder is geëvolueerd en als er zoveel voorbeeldvideo’s zijn om de software te verfijnen.

Zover zijn we nog niet, en ik betwijfel of we die honderd procent accuraatheid ooit halen. Momenteel vertrouwen sites als Facebook vooral op ons als gebruikers, die aanstootgevend materiaal rapporteren. En vooral: op hun menselijke moderatoren die checken of al die gerapporteerde berichten in overeenstemming zijn met hun policy.

De job die niemand wil

Want vergeet dit niet. Ergens in de kelders van bedrijven als Facebook of Google zitten echte mensen die ‘echte’ moorden van ‘valse’ moeten onderscheiden. Ik noem dit de job bij Google of Facebook (toch allebei erg gegeerde werkgevers), die niemand wil doen.

En terecht, want hoe zou je zelf zijn, als je dagtaak erin bestaat om de hele dag extremistische content te controleren? In de praktijk betekent dat een hele dag beelden bekijken van onder meer bestialiteit, onthoofdingen, kinderporno, zelfmoorden en andere uitspattingen. Dergelijke screeningteams opereren achter de schermen. Ze spreken nooit op conferenties of geven nooit interviews. En toch is hun werk cruciaal voor de goede werking van de Facebooks en Googles van deze wereld. Ook voor deze medewerkers mag je hopen dat artificiële intelligentie snel verder evolueert.

Meer over

Kunstmatige intelligentieSocial media

Deel

Fout: Contact formulier niet gevonden.

Meer lezen

Justitia
ActueelCloud & Infrastructuur

Privacycommissie versus Facebook in de rechtbank

Webshop e-commerce bestelling postbezorger pakketje
OpinieCloud & Infrastructuur

Visterin Fileert: Helft online-aankopen retour

OpinieCarrière

Visterin Fileert: Tips om meer te verdienen

Tickets
OpinieInnovatie & Transformatie

Visterin Fileert: Leren van de ecocheque

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Populaire berichten

Meer artikelen

Footer

Direct naar

  • Kennisbank
  • Computable Awards
  • Colofon
  • Cybersec e-Magazine

Producten

  • Adverteren en meer…
  • Persberichten

Contact

  • Contact
  • Nieuwsbrief

Social

  • Facebook
  • X
  • LinkedIn
  • YouTube
  • Instagram
© 2025 Jaarbeurs
  • Disclaimer
  • Gebruikersvoorwaarden
  • Privacy statement
Computable.be is een product van Jaarbeurs