Aangaande het "emergent behaviour" van LLM's: Yann LeCun zegt er interessante dingen over. Hij is het niet met jullie eens dat er iets 'dieps' gebeurt. Het is nog steeds gewoon statistiek, alleen laten we ons voor de gek houden. We zien een schaap in de wolken. Zie: https://www.youtube.com/watch?v=5t1vTLU7s40
Yann LeCun zou daar best eens gelijk in kunnen hebben. Wellicht komt er een moment dat de output van LLM's deterministisch terug te voeren zijn naar input. Wij hebben echter het vermoeden - en meer is het niet - dat dit moment wel eens op zich kan laten wachten. Omdat er veel kennisgebieden zijn die vooralsnog behoorlijk wat weerstand bieden aan deterministische modellering (zoals chemie, biologie en cultuur) bieden de LLM's een interessante opening om dit soort 'emergentie' te bespreken. (Mochten we in de notitie te stellig zijn geweest, excuus daarvoor.)
Terug voeren van output naar input gaat inderdaad moeilijk worden, lijkt me, vanwege de ook genoemde "computational irreducibility": de enige manier om tot de uitkomst te komen, is de berekening te doen. Er is geen shortcut. Er is misschien een shortcut voor 99% van de gevallen, maar wat doe je met de resterende 1%? "AI will only kill you 1% of the time" is geen wenselijke uitkomst.
"Mechanistic interpretability" is daarom volgens mij ook een doodlopende weg. Net als bij mensen: je kunt characterizeren, maar het gedrag van een individu in een omstandigheid blijft fundamenteel onvoorspelbaar.
Aangaande het "emergent behaviour" van LLM's: Yann LeCun zegt er interessante dingen over. Hij is het niet met jullie eens dat er iets 'dieps' gebeurt. Het is nog steeds gewoon statistiek, alleen laten we ons voor de gek houden. We zien een schaap in de wolken. Zie: https://www.youtube.com/watch?v=5t1vTLU7s40
Yann LeCun zou daar best eens gelijk in kunnen hebben. Wellicht komt er een moment dat de output van LLM's deterministisch terug te voeren zijn naar input. Wij hebben echter het vermoeden - en meer is het niet - dat dit moment wel eens op zich kan laten wachten. Omdat er veel kennisgebieden zijn die vooralsnog behoorlijk wat weerstand bieden aan deterministische modellering (zoals chemie, biologie en cultuur) bieden de LLM's een interessante opening om dit soort 'emergentie' te bespreken. (Mochten we in de notitie te stellig zijn geweest, excuus daarvoor.)
Excuses nergens voor nodig wat mij betreft!
Terug voeren van output naar input gaat inderdaad moeilijk worden, lijkt me, vanwege de ook genoemde "computational irreducibility": de enige manier om tot de uitkomst te komen, is de berekening te doen. Er is geen shortcut. Er is misschien een shortcut voor 99% van de gevallen, maar wat doe je met de resterende 1%? "AI will only kill you 1% of the time" is geen wenselijke uitkomst.
"Mechanistic interpretability" is daarom volgens mij ook een doodlopende weg. Net als bij mensen: je kunt characterizeren, maar het gedrag van een individu in een omstandigheid blijft fundamenteel onvoorspelbaar.