Ricardo
2006-12-05 22:31:01 UTC
Hola amigos, un algoritmo en R y una
version compilada en C de ese algoritmo, he notado que el programa en
R converge mas rapidamente que el de C, el programa en R usa 5 digitos
de precision mientras que el programa en C usa 6 digitos, se puede
deber a la precision el problema de la convergencia. Gracias de
antemano.
version compilada en C de ese algoritmo, he notado que el programa en
R converge mas rapidamente que el de C, el programa en R usa 5 digitos
de precision mientras que el programa en C usa 6 digitos, se puede
deber a la precision el problema de la convergencia. Gracias de
antemano.