Cost Per Token is het prijsmodel dat wordt gehanteerd door de meeste AI-platformen en large language models (LLMs) zoals GPT-4, Claude en andere generatieve AI-diensten. Bij dit model betaal je op basis van het aantal tokens dat wordt verwerkt tijdens het gebruik van de AI-service.
Wat zijn tokens?
Tokens zijn de kleinste eenheden waarin tekst wordt opgedeeld voor verwerking door AI-modellen. Een token kan een heel woord zijn, maar ook een deel van een woord, een leesteken of een spatie. In het Nederlands komt één token gemiddeld overeen met ongeveer 0,75 woord. De zin "Dit is een voorbeeld" bestaat bijvoorbeeld uit ongeveer 5-6 tokens.
Hoe werkt de kostenberekening?
De kosten worden berekend op basis van twee componenten:
- Input tokens: De tokens in je prompt of vraag aan het AI-model
- Output tokens: De tokens in het antwoord dat het model genereert
Vaak zijn output tokens duurder dan input tokens, omdat het genereren van tekst meer rekenkracht vereist dan het verwerken ervan. De prijzen variëren sterk per model en provider, waarbij geavanceerdere modellen doorgaans meer kosten per token.
Prijsverschillen tussen modellen
Verschillende AI-modellen hanteren verschillende prijzen per token. Krachtigere modellen zoals GPT-4 zijn aanzienlijk duurder dan lichtere modellen zoals GPT-3.5. Ook binnen dezelfde modelfamilie kunnen er verschillende prijsniveaus zijn, afhankelijk van factoren zoals context window grootte, snelheid en capaciteiten.
Typische prijzen liggen tussen de $0,0001 en $0,12 per 1.000 tokens, afhankelijk van het model en of het om input of output tokens gaat.
