Daniel Hernandez
2004-07-10 23:54:10 UTC
Hola, he intentado de medir el tiempo de un algoritmo
que estoy escribiendo, pero es demasiado rápido.
Primero intenté con:
#include <stdio.h>
#include <time.h>
int *
main ()
{
clock_t s, e;
double time;
s = clock ();
for (j = 0; j < 10000; ++j);
e = clock ();
time = ((double)(e - s)) / CLOCKS_PER_SEC;
printf ("%f\n", time);
}
Luego probe hacer lo mismo com times() en vez de
clock(), pero en ambos casos la resolución del
tiempo es muy baja, sólo de milisegundos. Me gustaría
poder medir en microsegundos o en nanosegundos.
He buscado ejemplos en la web pero todos ellos me
funcionan en milisegundos.
Actualmente estoy usando gcc 2.95.4 en linux.
Saludos y de antemano gracias.
Daniel Hernández
Santiago, Chile.
que estoy escribiendo, pero es demasiado rápido.
Primero intenté con:
#include <stdio.h>
#include <time.h>
int *
main ()
{
clock_t s, e;
double time;
s = clock ();
for (j = 0; j < 10000; ++j);
e = clock ();
time = ((double)(e - s)) / CLOCKS_PER_SEC;
printf ("%f\n", time);
}
Luego probe hacer lo mismo com times() en vez de
clock(), pero en ambos casos la resolución del
tiempo es muy baja, sólo de milisegundos. Me gustaría
poder medir en microsegundos o en nanosegundos.
He buscado ejemplos en la web pero todos ellos me
funcionan en milisegundos.
Actualmente estoy usando gcc 2.95.4 en linux.
Saludos y de antemano gracias.
Daniel Hernández
Santiago, Chile.