Cette fois si on a7.12
k= 0; n= 0; d= 1; // tan(somme partielle)= n/d= 0 TantQue (k <= 4) TantQue (x >= A[k] ) x= x-A[k] ; //reste de la somme partielle np= n+d*10^(-k); // n' d= d-n*10^(-k); // d' n= np; FinTant; k= k+1; FinTant; //à ce stade x= epsilon. Rendre (n+x*d)/(d-x*n); //pour plus de précision remplacer x par x+x^3/3 //exact: (n+d*tan(x))/(d-n*tan(x))7.13.
Ce qui précède ne correspond qu'à une
implémentation parmi d'autres et on aurait pu
préférer une table de racines carrées de (
) par exemple (avec
l'avantage de traiter les racines carrées!).
Les implémentations sur ordinateurs utilisent
plutôt la base 2 (car travaillant en binaire plutôt
qu'en BCD) ce qui conduit à remplacer tous les par
(et ...à
précalculer davantage de termes).
On aurait également pu calculer moins de termes en utilisant un développement en série du second ordre ou davantage car les multiplications sont devenues très rapides (méthode encore bien plus utile pour obtenir davantage de chiffres de précision et...que ne permettent pas les méthodes qui suivent).
Mais l'efficacité de la multiplication autorise également l'essor de techniques concurrentes comme les approximations polynômiales apparentées aux polynômes de Chebyshev (Tschebyscheff).
On y construit des polynômes (au moyen de l'algorithme de Remez par exemple) de telle sorte que l'erreur maximale commise en remplacant la fonction par son polynôme sur un intervalle fixé soit la plus petite possible. Un précurseur de ces méthodes est Hastings[].