Le informazioni delle varie pagine, sottoposte a scansione ed elaborate dai programmi crawler, spider o robot, sono riordinate e successivamente viene compilato un indice di tutte le parole rintracciate e delle posizioni su ogni singola pagina, oltre ad essere elaborati numerosi tipi di contenuti.