Wie denkt dat Artificial Intelligence (AI) iets nieuws is, heeft het mis. In de jaren 50 beginnen onderzoekers te experimenteren met het idee om machines intelligent gedrag te laten vertonen. Hoewel het concept van artificial intelligence al eeuwenoud is, zetten wetenschappers in deze periode concrete stappen om AI als een wetenschappelijk vakgebied te ontwikkelen.
Om iets van de hedendaagse werking van AI te begrijpen, is het denk ik goed om iets van het verleden te kennen. Vandaar dat ik nu terugreis naar het begin van artificial intelligence. Ga je mee?
De geschiedenis van artificial intelligence: een reeks beloften en teleurstellingen
De ontwikkeling van AI gaat gepaard met beloften en teleurstellingen, met pieken en dalen. Het vormen van ideeën en bijsturen. Als er één ding is dat we hebben geleerd, dan is het wel dat de eerste 80% van het ontwikkelproces het eenvoudigst is. De laatste 20% die AI betrouwbaar en eenvoudig maken zijn zwaar en kosten veel energie en tijd.
Denk eens aan een zelfrijdende auto. Het idee bestaan al jaren. De ontwikkelingen gaan in het begin heel hard. De auto kan zelfstandig tussen twee lijnen rijden, inhalen, een afslag nemen, verkeersborden lezen, afstand houden en remmen voor fietsers. Toch verwacht ik dat het stuur en de pedalen er de komende (twintig) jaren nog in blijven. Medeweggebruikers creëren te veel uitzonderlijke situaties; meer dan er ooit te leren zijn door ervaring of te programmeren zijn. Een computer heeft geen bewustzijn en kan zich lastig verplaatsen in vergelijkbare situates. Een fiets op klaarlichte dag heeft een andere vorm dan een fiets tijdens een sneeuwbui. Maar lijkt heel veel op een foto van een fiets achterop een vrachtauto. En dus remde de eerste Tesla's voor een fiets achter op een vrachtauto en zag een fietser in de sneeuw over het hoofd.
Een autonoom rijdende auto is er nog niet. De verschillende situaties die je meemaakt in het verkeer zijn letterlijk ontelbaar. Dat is lastig voor AI. Waarom kan AI bepaalde taken heel goed, en andere enorm slecht?
De term Artificial Intelligence
In de jaren 50 en 60 worden de eerste programmeertalen en -systemen ontwikkeld. Een belangrijk moment was de Dartmouth-conferentie in 1956, waar de term "Artificial Intelligence" is geïntroduceerd. Onderzoekers zijn optimistisch en geloven dat AI binnen enkele decennia realiteit is. De focus ligt op het creëren van computersystemen die logisch redeneren, problemen oplossen en vormen van menselijke intelligentie nabootsen. Tegenwoordig gebruiken we hiervoor de term General AI, een systeem met een mens-breed takenpakket. Zeg maar AI dat tekent, verhalen schrijft, marketingstrategieën ontwikkelt, componeert, voertuigen bestuurt, schaakt en Go speelt. En nog vele andere dingen. AI kan rekenen op belangstelling en nog belangrijker: investeringen.
Kennisgebaseerde AI-systemen
Dat blijkt allemaal toch wat te hoog gegrepen. In de jaren 60 en 70 verschuift daarom de aandacht naar kennisgebaseerde systemen. Onderzoekers proberen AI-systemen te ontwikkelen die kennis en expertise op een specifiek gebied gebruiken om problemen op te lossen. Na de teleurstelling dat general AI wel erg lastig is en ook de pogingen met een meer afgebakend onderwerp tegenvallen, blijft het een beetje aanmodderen en zowel interesse en funding zakken in.
Machine learning en neurale netwerken
In de jaren 80 en 90 zorgen nieuwe ontwikkelingen in machine learning en neurale netwerken voor een heropleving. Machine learning-algoritmen en snellere hardware maken het mogelijk om computers zelfstandig te laten leren van data. In de late jaren 90 en het begin van de 21e eeuw past men AI toe in praktische toepassingen, zoals spraakherkenning, chatbots, vertaalmodules, beeldverwerking en datamining. Ik kocht destijds een speech to text-applicatie (RSI was ook in) en dat was werkelijk een drama. Weet je nog dat ik het over de 80%-regel had? In iedere zin een woord corrigeren is een zeer frustrerende zaak.
Een belangrijke mijlpaal is de nipte overwinning van IBM's Deep Blue-schaakcomputer op de wereldkampioen Garry Kasparov in 1997. Deep Blue maakt echter vooral gebruik van de beschikbaarheid van rekenkracht. In de software zijn de schaakregels hard gecodeerd en Deep Blue rekent per bord alle mogelijke zetten tot een overwinning uit en speelt vervolgens de zet met de grootste kans op een overwinning. Je kunt je afvragen of dit AI is.
In het onderstaande fragment is duidelijk de frustratie van Kasparov te zien. Maar zou hij net zo gefrustreerd zijn als hij begreep dat hij niet verslagen is door intelligentie, maar door brute rekenkracht?
Als de vreugde rondom de schaak-overwinning op de mens wat getemperd is en IBM toe is aan een volgende stap, blijkt dat toch een grotere uitdaging dan gedacht. Het winnen van een potje Go blijkt voor AI een te grote uitdaging vanwege de vele mogelijke zetten en strategische aspecten van het spel.
Artificial Intelligence steeds beter in het ontdekken van patronen
In de afgelopen jaren heeft AI grote sprongen voorwaarts gemaakt dankzij de ontwikkelingen van deep learning, de beschikbaarheid van grote hoeveelheden digitale data en de groei in rekenkracht. Deep learning, gebaseerd op neurale netwerken met vele lagen, zorgt voor een zeer sterke verbetering op gebieden zoals beeldherkenning, natuurlijke taalverwerking (NLP) en spraakherkenning. AI wordt steeds beter in het zelfstandig ontdekken van patronen en kan stilaan bepaalde elementen in foto’s herkennen en teksten interpreteren en vertalen.
IBM's Watson speelt Jeopardy!
In 2011 vestigt IBM opnieuw de aandacht op AI met Watson. Watson neemt het op tegen mensen in de populaire tv-game Jeopardy! In Jeopardy! geven kandidaten binnen een geselecteerde categorie op basis van een hint de bijbehorende vraag.
In de categorie: Apparaten
Hint: Zelfs defect is dit apparaat aan de muur twee maal per dag correct.
Antwoord: Wat is een klok?
Watson is gevoed met miljoenen pagina's aan informatie van encyclopedieën, Wikipedia, woordenboeken, boeken, toneelstukken en niet te vergeten meer dan 10.000 Jeopardy!-vragen uit het verleden. Om tot een antwoord te komen, combineert Watson diverse methoden. Zo worden verschillende LLM-processen gebruikt om de zin te ontleden, te ontdekken welke woorden belangrijk zijn en welk type antwoord verwacht wordt (persoon, lokatie, getal, filmtitel,...) Watson draait op een serie speciale computers om snel een antwoord te kunnen vinden in de enorme berg aan informatie. Het AI-systeem genereert meerdere antwoorden waarbij een algoritme een waarschijnlijkheidswaarde toekent. Zodra een antwoord een bepaalde drempelwaarde behaald, wordt dit antwoord gegeven.
Alhoewel Watson niet in staat is de vraag te horen - het krijgt de vraag in tekst toegespeeld - geeft het wel antwoord in een menselijke spraak. Voor veel mensen is dit een eerste kennismaking met NLP.
Watson won Jeopardy!, maar maakte ook fouten, net als alle andere kandidaten overigens. De fouten die Watson maakte, lieten duidelijk zien dat het geen idee had van de wereld om hem heen. Het probeerde enkel overeenkomstige teksten te koppelen. Kan Watson echt vragen oplossen of enkel de sterk gestructureerde Jeopardy!-vragen met een voorspelbaar patroon? IBM wilde Watson verder uitbreiden tot versies speciaal voor medische of juridische taken, maar dat is tot op heden nog niet uit de verf gekomen.
Artificial Intelligence speelt Go!
In 2016 zorgt een doorbraak voor een belangrijk keerpunt. Het AI-programma AlphaGo, ontwikkeld door DeepMind (een dochteronderneming van Google), verslaat de wereldkampioen Go, Lee Sedol. Wat AlphaGo revolutionair maakt, is het gebruik van deep learning-technieken als reinforcement learning om zelfstandig het spel te leren en strategieën te ontwikkelen. Door een groot aantal Go-spellen te analyseren en zichzelf te trainen ontdekt AlphaGo strategische zetten en patronen die voorheen onbekend waren voor menselijke spelers. Het succes van AlphaGo heeft geleid tot verdere ontwikkelingen in AI en Go. AI wordt inmiddels veelvuldig ingezet. Binnen marketing zien we een opkomst van het analyseren en voorspellen van klantgedrag, lookalike-analyse, dynamic pricing en zelflerende chatbots.
Het onderstaande documentaire over AlphaGo is geweldig. Het volgt de makers van AlphaGo en Lee Sedol. Een prachtig keerpunt is dat AlphaGo op een gegeven moment een zet doet die analisten, makers en Sedol als uiterst twijfelachtig bestempelen, maar die uiteindelijk leidt tot overwinning. Ook de reactie op het verlies van Lee Sedol op AlphaGo is lovenswaardig: hij heeft verloren, maar niet van een mens.
OpenAI
OpenAI is een Amerikaanse onderneming die onderzoek doet naar en producten ontwikkelt op het gebied van kunstmatige intelligentie. OpenAI is bekend van generative producten als DALL-E (afbeeldingen) en ChatGPT (tekst). De organisatie werd eind 2015 opgericht door Elon Musk, Sam Altman, Peter Thiel en anderen, met een startkapitaal van 1 miljard dollar.
Met het in 2018 openbaar maken van het GPT (Generative Pre-trained Transformer) model door OpenAI krijgt AI een echte opleving en ontstaat er een race tussen softwaregiganten als Google, Microsoft en Facebook. Onder het brede publiek is GPT nog onbekend.
GPT vormt de basis van het latere Chat GPT en is getraind op een enorme hoeveelheid tekstgegevens om de structuur en het patroon van menselijke taal te leren. De eerste versie van GPT is beschikbaar als open source. Inmiddels zijn er ook andere open source-modellen beschikbaar zoals Stable Diffusion, waardoor met een trainingsbudget vanaf $600 al een eigen AI-model te draaien is.
Musk verlaat in februari 2018 de Raad van bestuur. In 2019 wordt een commerciële tak opgericht met een investering van 1 miljard dollar van Microsoft. In 2023 beloofde Microsoft een investering tot 10 miljard dollar om de capaciteit van OpenAI verder uit te breiden. Van de opensource-filosofie is inmiddels niet zo veel meer over en code van nieuwe ontwikkelingen wordt nauwelijks openbaar gemaakt.
De opkomst van Chat GPT
In 2021 introduceert OpenAI GPT-3, dat met 175 miljard parameters een van de grootste en gecompliceerde AI-modellen ter wereld is. Parameters worden gebruikt om de verbindingen tussen de neuronen in het neurale netwerk te definiëren. Het model is getraind op 30 terabyte tekst en is in staat om indrukwekkende taalgebaseerde taken uit te voeren. Plugins maken het combineren en verwerken van actuele data uit specifieke bronnen mogelijk.
Op basis van het GPT-3-model is Chat GPT ontwikkeld als een variant geoptimaliseerd voor conversaties. Chat GPT is ontworpen om natuurlijke en coherente interacties met gebruikers mogelijk te maken (LLM). Het is getraind op een brede reeks teksten, waaronder conversaties, om een goed begrip van context en menselijke taaluitdrukkingen te ontwikkelen.
Reinforced learning
Inmiddels is het wetenschappers ook gelukt om robots geheel zelfstandig en zonder instructies te leren voetballen op basis van reinforced learning. Bij reinforced learning zeggen we eigenlijk tegen het algoritme: Als je X bereikt, krijg je een beloning. Als je Y doet krijg je een stafpunt. Zoek zelf maar uit hoe je een maximale beloning behaalt. Het algoritme zoekt op basis van trial and error naar een optimaal resultaat en leert van fouten. Hierdoor kan AI zelfstandig taken leren.
Het onderstaande filmpje toont heel mooi hoe langzaam zo'n proces gaat, tenzij je het natuurlijk heel snel in het geheugen van een computer kunt late afspelen.
De toekomst van AI
We zijn nog ver verwijderd van de natte droom van iedere AI-ontwikkelaar: General AI met een StarTrek-level spraakinterface.
Hoe gaat AI zich ontwikkelen? Niemand weet het. De geschiedenis van AI laat zien dat AI een dynamisch vakgebied is dat constant evolueert over de volle breedte. De recente doorbraken in deep learning hebben de weg vrijgemaakt voor vooruitgang in verschillende domeinen.
Je zou AI kunnen vergelijken met de introductie van de computer. Deze heeft inmiddels invloed op vrijwel alles wat wij als mens doen. De ontwikkeling van AI gaat echter sneller en raakt voor het eerst niet alleen onze werkzaamheden aan, maar is ook zelf genererend. Dat maakt het wezenlijk anders.
De recente ontwikkelingen en populariteit van AI hebben niet voor niets de discussie over ethische en sociale kwesties rondom AI aangewakkerd: privacy, veiligheid, data-bias en de impact op de arbeidsmarkt. We zullen moeten blijven nadenken over hoeveel we uit handen willen geven aan een automatisch systeem en wat de consequenties hiervan zijn.