Daboost / Shutterstock

Met de recent ontslag en snelle nieuwe aanstelling van Sam Altman van OpenAI staan ​​debatten rond de ontwikkeling en het gebruik van kunstmatige intelligentie (AI) opnieuw in de schijnwerpers. Wat ongebruikelijker is, is dat een prominent thema in de berichtgeving in de media het vermogen is geweest om AI-systemen om wiskunde te doen.

Blijkbaar hield een deel van het drama bij OpenAI verband met de ontwikkeling van een nieuw bedrijf door het bedrijf AI-algoritme genaamd Q*. Er wordt over het systeem gesproken als een belangrijke vooruitgang en een van de meest opvallende kenmerken ervan was het vermogen om wiskundig te redeneren.

Maar is wiskunde niet de basis van AI? Hoe kan een AI-systeem moeite hebben met wiskundig redeneren, gegeven het feit dat computers en rekenmachines wiskundige taken kunnen uitvoeren?

AI is geen enkele entiteit. Het is een lappendeken van strategieën voor het uitvoeren van berekeningen zonder directe instructies van mensen. Zoals we zullen zien, zijn sommige AI-systemen bekwaam in wiskunde.

Een van de belangrijkste huidige technologieën, de grote taalmodellen (LLM's) achter AI-chatbots zoals ChatGPT, heeft echter tot nu toe moeite gehad om wiskundig redeneren te emuleren. Dit komt omdat ze zijn ontworpen om zich op taal te concentreren.


innerlijk abonneren grafisch


Als het nieuwe Q*-algoritme van het bedrijf onzichtbare wiskundige problemen kan oplossen, dan zou dat heel goed kunnen een belangrijke doorbraak zijn. Wiskunde is een eeuwenoude vorm van menselijk redeneren grote taalmodellen (LLM's) hebben tot nu toe moeite gehad om te emuleren. LLM's zijn de technologie die ten grondslag ligt aan systemen zoals ChatGPT van OpenAI.

Op het moment van schrijven zijn de details van het Q*-algoritme en de mogelijkheden ervan beperkt, maar zeer intrigerend. Er zijn dus verschillende subtiliteiten waarmee u rekening moet houden voordat u Q* als een succes beschouwt.

Zo is wiskunde een onderwerp waar iedereen zich in verschillende mate mee bezighoudt, en blijft onduidelijk op welk wiskundeniveau Q* bekwaam is. Er is echter academisch werk gepubliceerd waarin alternatieve vormen van AI worden gebruikt om de wiskunde op onderzoeksniveau te bevorderen (inclusief enkele door mijzelf geschrevenen één geschreven door een team van wiskundigen in samenwerking met onderzoekers van Google DeepMind).

Deze AI-systemen kunnen worden omschreven als bekwaam in wiskunde. Het is echter waarschijnlijk dat Q* niet wordt gebruikt om academici te helpen bij hun werk, maar eerder voor een ander doel is bedoeld.

Niettemin is er, ook al is Q* niet in staat de grenzen van baanbrekend onderzoek te verleggen, zeer waarschijnlijk een betekenis te vinden in de manier waarop het is opgebouwd, die verleidelijke mogelijkheden voor toekomstige ontwikkeling zou kunnen bieden.

Steeds comfortabeler

Als samenleving voelen we ons steeds meer op ons gemak als specialistische AI ​​wordt gebruikt om vooraf bepaalde soorten problemen op te lossen. Bijvoorbeeld, digitale assistenten, gezichtsherkenning en online aanbevelingssystemen zal voor de meeste mensen bekend voorkomen. Wat ongrijpbaar blijft is een zogenaamde “kunstmatige algemene intelligentie” (AGI) die een breed redeneervermogen heeft dat vergelijkbaar is met dat van een mens.

Wiskunde is een basisvaardigheid die we aan elk schoolkind willen leren, en zou zeker in aanmerking komen als een fundamentele mijlpaal in de zoektocht naar AGI. Dus hoe zouden wiskundig competente AI-systemen anders de samenleving kunnen helpen?

De wiskundige mentaliteit is relevant voor een groot aantal toepassingen, bijvoorbeeld coderen en engineering, en daarom is wiskundig redeneren een essentiële overdraagbare vaardigheid voor zowel menselijke als kunstmatige intelligentie. Eén ironie is dat AI op een fundamenteel niveau gebaseerd is op wiskunde.

Veel van de technieken die door AI-algoritmen worden geïmplementeerd, komen bijvoorbeeld uiteindelijk neer op een wiskundig gebied dat bekend staat als matrixalgebra. Een matrix is ​​eenvoudigweg een raster van getallen, waarvan een digitaal beeld een bekend voorbeeld is. Elke pixel is niets meer dan numerieke gegevens.

Grote taalmodellen zijn ook inherent wiskundig. Op basis van een enorme hoeveelheid tekst kan een machine de kansen leren voor de woorden die dat zijn hoogstwaarschijnlijk een prompt (of vraag) van de gebruiker volgen naar de chatbot. Als je wilt dat een vooraf opgeleide LLM zich specialiseert in een bepaald onderwerp, dan kan deze worden afgestemd op de wiskundige literatuur of een ander leerdomein. Een LLM kan tekst genereren die leest alsof hij wiskunde begrijpt.

Helaas levert dit een LLM op die goed is in bluffen, maar slecht in details. Het probleem is dat een wiskundige uitspraak per definitie een uitspraak is waaraan een ondubbelzinnige Booleaanse waarde (dat wil zeggen waar of onwaar). Wiskundig redeneren komt neer op de logische afleiding van nieuwe wiskundige uitspraken uit eerder vastgestelde uitspraken.

advocaat van de duivel

Uiteraard zal elke benadering van wiskundig redeneren die zich baseert op taalkundige waarschijnlijkheden buiten zijn boekje gaan. Eén manier om dit te omzeilen zou kunnen zijn om een ​​systeem van formele verificatie in de architectuur op te nemen (precies hoe de LLM is gebouwd), dat voortdurend de logica controleert achter de sprongen die het grote taalmodel maakt.

Een aanwijzing dat dit is gebeurd zou in de naam Q* kunnen zitten, waar plausibel naar zou kunnen verwijzen een algoritme dat helemaal in de jaren zeventig is ontwikkeld helpen bij deductief redeneren. Als alternatief zou Q* kunnen verwijzen naar Q-learning, waarbij een model in de loop van de tijd kan verbeteren door correcte conclusies te testen en te belonen.

Maar er bestaan ​​verschillende uitdagingen bij het bouwen van wiskundig bekwame AI’s. Een deel van de meest interessante wiskunde bestaat bijvoorbeeld uit zeer onwaarschijnlijke gebeurtenissen. Er zijn veel situaties waarin je zou kunnen denken dat er een patroon bestaat op basis van kleine aantallen, maar dat het onverwachts uiteenvalt als je voldoende gevallen controleert. Deze mogelijkheid is moeilijk in een machine te integreren.

Een andere uitdaging kan als een verrassing komen: wiskundig onderzoek kan zeer creatief zijn. Dat moet wel zo zijn, omdat beoefenaars nieuwe concepten moeten bedenken en toch binnen de grenzen moeten blijven formele regels van een oud onderwerp.

Elke AI-methodologie die alleen is getraind om patronen te vinden in reeds bestaande wiskunde, zou vermoedelijk nooit echt nieuwe wiskunde kunnen creëren. Gezien de pijplijn tussen wiskunde en technologie lijkt dit de conceptie van nieuwe technologische revoluties in de weg te staan.

Maar laten we even de advocaat van de duivel spelen en ons voorstellen of AI inderdaad nieuwe wiskunde zou kunnen creëren. Het voorgaande argument hiertegen heeft een fout, in die zin dat men ook zou kunnen zeggen dat de beste menselijke wiskundigen ook uitsluitend in reeds bestaande wiskunde zijn opgeleid. Grote taalmodellen hebben ons al eerder verrast en zullen dat opnieuw doen.The Conversation

Tom Oliver, Docent Computerwetenschappen en Techniek, University of Westminster

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.