Waarom LLM's Generic Analyses Geven Zonder Context
Chandra Narayanan, voormalig hoofd analytics bij Facebook en operating partner bij Sequoia, en Julie Zhuo, voormalig VP Product Design bij Facebook, publiceerden een s...
Chandra Narayanan, voormalig hoofd analytics bij Facebook en operating partner bij Sequoia, en Julie Zhuo, ex-VP Product Design bij Facebook, publiceerden een scherpe analyse van waarom AI-analyse standaard uitmondt in nutteloze algemeenheden. Het kernidee is dat LLM's hiaten opvullen met statistisch veel voorkomende patronen - een product met 5M MAU en 80% DAU/MAU ziet er geweldig uit totdat je toevoegt dat sessies 30 seconden duren, en de interpretatie verandert volledig afhankelijk van of het een payments-app of een sociaal product is. Hun oplossing is orthogonale context: het voeden van het model met onafhankelijke informatiedimensies zoals retentiecohorten, unit economics en externe drijfveren, in plaats van diep op één metriek in te gaan. Het stuk leest als een diagnostisch handboek voor iedereen die gefrustreerd is geweest door saaie ChatGPT-bedrijfsanalyses en niet wist waarom. Discussies over prompttechnieken hebben zich vooral gericht op creatieve en codeertaken - gestructureerd analytisch werk zoals dit is nog onderbelicht.

