Computable.be
  • Thema’s
    • Security & Awareness
    • Cloud & Infrastructuur
    • Data & AI
    • Software Innovation
  • Computable Awards
    • Nieuws Computable Awards
    • Hall of Fame
  • Cybersec e-Magazine
  • Kennisbank
  • Inlog
  • Nieuwsbrief

Gesign-ai-leerd: In 2030 ai-trainingen met 10.000 keer meer rekenkracht 

27 augustus 2024 - 12:054 minuten leestijdActueelData & AIEpoch AIMicrosoftOpenAI
Alfred Monterie
Alfred Monterie

In deze rubriek een greep uit de stortvloed aan berichten over artificial intelligence (ai).

Grote opschaling ai-trainingen mogelijk

De rekenkracht om state-of-the-art-ai-modellen te trainen, groeide vanaf 2010 met een factor vier tot vijf per jaar, meldt onderzoeksinstelling Epoch AI in een blog. Twee derde van de betere prestaties in taalmodellen is te danken aan een toename van de modelschaal. In een rapport probeert de onderzoeksinstelling Epoch AI antwoord te vinden op de hamvraag: gaat deze schaalvergroting tot 2030 zo door? Een belangrijke kwestie, want schaalbaarheid is de sleutel voor vooruitgang in ai. Modellen krijgen steeds meer parameters en worden getraind op alsmaar grotere datasets. Om hun prestaties te verbeteren, is een exponentiële groei nodig in rekenkracht. 

Volgens Epoch AI is technisch een tienduizendvoudige toename van ai-trainingen mogelijk , aldus het onderzoek. Bij extrapolatie van de huidige trend zijn over ruim vijf jaar trainingen te verwachten met een omvang van 2e29 flop (twee keer 10 tot de macht 29 zwevende komma-bewerkingen, waarbij een flop een maatstaf voor de hoeveelheid rekenkracht is). Anders gezegd: rond 2030 is het naar alle waarschijnlijkheid mogelijk ai-modellen te trainen die GPT-4 op even grote schaal overtreffen als bij de spectaculaire sprong destijds van GPT-2 naar GPT-4. GT-2 bood in 2019 rudimentaire tekstproductie, terwijl GPT-4 allerlei taken aan kan en bijna menselijk gedrag vertoont.

Grootste knelpunten bij schaalvergroting 

De onderzoekers van Epoch AI onderscheiden vier factoren potentiële knelpunten voor het opschalen van ai-trainingen. Dit zijn stroomvoorziening, chip-productiecapaciteit, data-schaarste en de zogenaamde latency wall. Een training van de eerdergenoemde omvang zou bijna honderd miljoen H100-equivalente gpu’s vereisen. De H100 is nu de krachtigste, ruim verkrijgbare ai-chip van Nvidia. Er is weinig fantasie voor nodig om te begrijpen welk een kolossale chip-productiecapaciteit straks nodig is. De beperkte capaciteit voor geavanceerde verpakkingen en geheugens met hoge bandbreedte vormen een beperking. Maar EpochAI ziet de productie in de chipindustrie en de efficiëntie van hardware zo snel toenemen dat in 2030 voldoende capaciteit beschikbaar is. 

Stroomvoorziening hinderpaal

Het andere grote knelpunt, de stroomvoorziening, is lastiger op te lossen. Maar ook daar wordt hard aan gewerkt. Microsoft en OpenAI hebben plannen voor de bouw van gigantische datacenters met bijbehorende elektriciteitscentrales. In Amerika staan bovendien nieuwe datacenters op stapel die samen een gedistribueerd netwerk vormen met een capaciteit van 2 tot 45 gigawatt. De latency wall is het derde knelpunt. Door tokens parallel te trainen worden vertragingen tegengegaan. Maar op de omvang van zo’n ‘stapel’ zit een limiet. Na een bepaald punt gaat het steeds meer tijd kosten om een respons te krijgen naarmate de omvang van de ‘batch’ toeneemt. En dan is er uiteraard ook nog een schaarste aan data om te trainen. Dataschaarste is niet de grootste maar wel de onzekerste beperking. Behalve de beschikbaarheid zijn ook de kwaliteit en de mogelijkheid uit plaatjes, video en audio bruikbare gegevens te halen onzekere factoren.

Mensen onderscheiden van ai-personages

Onderzoekers van OpenAI, Microsoft en MIT hebben een methode ontwikkeld om mensen online anoniem te onderscheiden van ai-personages. Ze maken gebruik van zogenaamde ‘persoonlijkheidsreferenties’, digitale inloggegevens die bevestigen dat de houder een echte persoon is zonder verdere identiteitsinformatie prijs te geven. Deze zogeheten ‘personhood credentials’ (phc’s) zijn bedoeld om identiteitsdiefstal door ai en de overvloed aan bots tegen te gaan. De aanpak profiteert van de beperkingen van kunstmatige intelligentie. Ai-systemen kunnen mensen offline niet overtuigend imiteren en kunnen moderne cryptografie niet omzeilen.

‘Personhood credentials’ (phc’s) zijn bedoeld om identiteitsdiefstal door ai en de overvloed aan bots tegen te gaan

Meta-baas Mark Zuckerberg zei dat er binnenkort ‘honderden miljoenen of miljarden ai-agenten zullen zijn die het internet gebruiken namens mensen’. Hij riep op om prioriteit te geven aan phc-systemen, daarin te investeren en de acceptatie ervan te bevorderen.

Microsoft lanceert taalmodellen los van OpenAI

Microsoft vertrouwt bij de ontwikkeling van ai niet alleen op zijn samenwerking met OpenAI. De drie nieuwe grote taalmodellen in de Phi-serie die ’s werelds grootste softwarebedrijf deze maand uitbracht, zijn zeker niet minder geavanceerd. Volgens vergelijkende tests behoren Phi-3.5-mini-instruct (voor het ‘gewone’ snelle werk), Phi-3.5-MoE-instruct (voor meer veeleisende taken) en Phi-3.5-vision-instruct (voor beeld- en videoanalyse) tot de besten in hun klasse. Ze verslaan Google’s Gemini 1.5 Flash, Meta’s Llama 3.1 en in sommige gevallen zelfs koploper GPT-4o. Ontwikkelaars kunnen al deze modellen bij Hugging Face gratis gebruiken. Dit gebeurt op basis van een aangepaste MIT-licentie die weinig restricties kent voor hergebruik en veel in opensourceprojecten opduikt. 

Meer over

AIArtificial IntelligenceKunstmatige intelligentie

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Meer lezen

    ActueelInnovatie & Transformatie

    Apple bepaald geen voorloper met ai

    AchtergrondInnovatie & Transformatie

    Nvidia lanceert 20 nieuwe ai-fabrieken in Europa, maar passeert België

    Sap-Sapphire-2024
    AchtergrondCloud & Infrastructuur

    Joule verandert alles: zo werken we straks met erp

    ActueelData & AI

    Ai moet uitsterven zeldzame walvissen voorkomen

    ActueelCloud & Infrastructuur

    AWS maakt EU-cloud meer soeverein

    AchtergrondCloud & Infrastructuur

    Snowflake gaat van datacloud naar ai-ecosysteem

    Geef een reactie Reactie annuleren

    Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Kennisbank
    • Computable Awards
    • Colofon
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Persberichten

    Contact

    • Contact
    • Nieuwsbrief

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.be is een product van Jaarbeurs