L'unità di base elaborata dai modelli linguistici. Un token corrisponde all'incirca a una parola o a un frammento di parola. L'espressione "intelligenza artificiale" è composta da due token. I costi dei modelli di IA e i limiti di contesto sono misurati in token. GPT-4 è in grado di elaborare circa 128.000 token (circa 300 pagine) in una singola conversazione.