Voor de meeste koersbepalers begint hun beeld van AI in 2022. Maar de verschuiving die alles mogelijk maakte, vond een halve eeuw eerder plaats. Wie begrijpt hoe de eerste generatie AI werkte en waarom deze vastliep, heeft een fundamenteel voordeel bij het beoordelen van wat AI vandaag kan en wat niet. Want de grenzen van toen verklaren de keuzes van nu.
Roland Bieleveldt
In de zomer van 1956 kwamen tien wetenschappers bijeen op Dartmouth College in de Verenigde Staten. Onder leiding van wiskundige John McCarthy deelden ze een overtuiging: menselijke intelligentie is te beschrijven als een verzameling regels, en een machine kan die regels uitvoeren. Op die conferentie kreeg het vakgebied zijn naam: artificial intelligence.
De aanpak was logisch en overzichtelijk. Een mens analyseerde een probleem, schreef de oplossingsregels op, en een computer voerde ze uit. Dit is wat later symbolische AI ging heten: intelligentie als een keten van logische regels.
Concreet zag dat er zo uit. Neem een bank die beslist over kredietaanvragen. Een menselijke analist zou die beslissing nemen op basis van ervaring en buikgevoel. Maar die ervaring is te vertalen in regels:
[KADER — voorbeeld regelgebaseerd systeem ALS jaaromzet hoger dan 500.000 EN langer dan drie jaar actief EN geen betalingsachterstanden → ken krediet toe. Anders → weiger. ]
Dat is de kern van symbolische AI. De kennis zit in de regels, de computer voert ze uit. Schaakprogramma’s werkten op dezelfde manier: ALS de koningin bedreigd wordt EN er is een vluchtroute → verplaats de koningin. Vertaalsystemen koppelden woorden via woordenboeken met grammaticaregels. Wiskundige bewijzen werden stap voor stap doorlopen volgens logische afleidingsregels.
De eerste resultaten waren bemoedigend genoeg om een golf van optimisme te veroorzaken. Onderzoekers voorspelden dat machines binnen twintig jaar op menselijk niveau zouden presteren. De financiering stroomde binnen. Het idee dat intelligentie formaliseerbaar was, voelde als een kwestie van tijd.
In de jaren tachtig bewees symbolische AI dat ze commercieel waardevol kon zijn. De doorbraak heette expert systems: programma’s die de kennis van een menselijke specialist vastlegden in honderden of duizenden als-dan-regels.
Het meest geciteerde voorbeeld is MYCIN, ontwikkeld aan Stanford University. MYCIN bevatte ruim zeshonderd regels over bloedinfecties en de antibiotica die erbij pasten. In vergelijkende tests stelde het systeem in een meerderheid van de gevallen de juiste diagnose, soms vaker dan beginnende artsen. MYCIN kwam nooit in de klinische praktijk, maar het bewees dat regelgebaseerde systemen binnen een afgebakend domein op expertniveau konden presteren.
Waar MYCIN een demonstratie bleef, werd XCON een commercieel succes. Digital Equipment Corporation, destijds een van de grootste computerfabrikanten ter wereld, gebruikte dit expert system om computerconfiguraties samen te stellen. Het systeem verving een taak die voorheen door gespecialiseerde technici werd gedaan en bespaarde het bedrijf naar eigen opgave veertig miljoen dollar per jaar.
Expert systems werden de eerste AI-technologie waar bedrijven serieus geld aan verdienden. En tegelijkertijd legden ze de fundamentele beperking bloot die de hele aanpak zou ondermijnen.
De wereld laat zich niet vangen in regels.
Neem het kredietvoorbeeld van eerder.
[KADER — waarom regels breken Regel 1: ALS jaaromzet > 500.000 EN langer dan drie jaar actief EN geen achterstanden → ken krediet toe.
Een startup van twee jaar oud met drie miljoen omzet dient een aanvraag in. Het systeem weigert: niet langer dan drie jaar actief.
Regel 2: ALS jaaromzet > 2.000.000 → negeer de driejaareis.
Nu krijgt ook een bedrijf met hoge omzet maar een wankel verdienmodel krediet.
Regel 3, 4, 5…
Na honderden regels: broos, moeilijk te onderhouden, vol onvoorziene interacties tussen regels die elk apart logisch zijn maar samen tot onverwachte uitkomsten leiden. ]
Dat was precies het probleem dat symbolische AI op grote schaal trof. Zolang het domein klein en afgebakend was, werkten de systemen goed. Maar zodra de complexiteit toenam, ontstonden problemen die geen extra regels konden oplossen. Wie taal wil verwerken, krijgt te maken met dubbelzinnigheid, context en uitzonderingen op uitzonderingen. Het woord “bank” betekent iets anders in “hij zat op de bank” dan in “hij ging naar de bank.” Een mens lost dat moeiteloos op. Maar een regelsysteem heeft voor elke mogelijke context een aparte regel nodig, en het aantal contexten is oneindig.
Hetzelfde gold voor beeldherkenning. Eén voorwerp ziet er op duizend manieren anders uit, afhankelijk van belichting, hoek en achtergrond. Regels schrijven voor elke variatie is onbegonnen werk. Hoe meer regels onderzoekers toevoegden, hoe brozer de systemen werden bij situaties die net buiten die regels vielen.
Halverwege de jaren zeventig sloeg de teleurstelling toe. In 1973 publiceerde de Britse wiskundige James Lighthill een vernietigend rapport voor de Britse overheid. Zijn conclusie: AI-onderzoek had de beloften niet waargemaakt. Het gevolg was dat de Britse overheid de financiering drastisch terugschroefde. De Verenigde Staten volgden. Onderzoeksgroepen vielen uiteen. Het optimisme van Dartmouth was verdampt.
Eind jaren tachtig herhaalde het patroon zich. De markt voor gespecialiseerde AI-hardware stortte in. Bedrijven die miljoenen hadden geïnvesteerd in expert systems ontdekten dat de systemen duur waren in onderhoud, moeilijk aan te passen aan veranderende omstandigheden en broos bij onverwachte invoer. De belofte was groter dan wat de technologie kon dragen.
In 1997 bereikte symbolische AI haar meest zichtbare triomf. Deep Blue, een schaakcomputer van IBM, versloeg wereldkampioen Garry Kasparov in een zesdelige match. Het moment waarop een machine de beste menselijke speler versloeg in het spel dat eeuwenlang gold als de ultieme test van het menselijk denken.
Maar wie goed keek, zag precies waar de grens lag. Deep Blue begreep niets van schaken. Het rekende tweehonderd miljoen posities per seconde door. Elke mogelijke zet, elke mogelijke tegenzet, tientallen stappen vooruit. Brute rekenkracht, gecombineerd met evaluatieregels die menselijke schaakgrootmeesters hadden opgesteld.
Datzelfde systeem kon geen damspel spelen zonder volledig herprogrammeerd te worden. De intelligentie zat in de programmeurs die de regels hadden geschreven, en die regels werkten alleen in dat ene domein.
Voor koersbepalers zit hier een les die vandaag nog relevant is. Wanneer een AI-systeem indrukwekkend presteert op één specifieke taak, is de eerste vraag: hoe smal is het domein? De tweede: wat gebeurt er als de situatie net buiten dat domein valt?
Vier decennia aan onderzoek, twee AI-winters en een schaakoverwinning die de wereld verbijsterde, leverden samen één inzicht op.
Je kunt intelligentie niet opschrijven.
De onderzoekers waren slim genoeg. De computers waren krachtig genoeg. Het probleem was de wereld zelf. Te complex en te veranderlijk om in regels te vatten. Elke regel die je toevoegt, creëert nieuwe randgevallen. Elke uitzondering die je afvangt, onthult drie nieuwe. Het is als het dichten van een dam met klei: elke scheur die je repareert, verlegt de druk naar een plek die je niet zag aankomen.
Als je intelligentie niet kunt opschrijven, moet je een andere weg vinden. Je moet het systeem laten leren.
Die verschuiving van regels naar leren, van symbolische AI naar machine learning, is het onderwerp van de volgende dieptepagina. Het was geen plotselinge omslag. De wiskundige basis bestond al sinds de jaren vijftig. Maar het duurde tot de jaren negentig voordat machine learning de praktijk bereikte op een manier die symbolische AI niet meer kon evenaren.
Wie wil begrijpen hoe machine learning de verschuiving van regels naar patronen concreet maakte en waarom ook die aanpak tegen grenzen aanliep, leest verder bij Machine learning: van regels naar patronen.
Wie wil zien hoe deep learning vervolgens de beperkingen van machine learning doorbrak, vindt dat bij Deep learning: de doorbraak die alles veranderde.
Wie het complete overzicht van alle vijf fases wil zien, keert terug naar De geschiedenis van AI (cluster 1.2).