15. Arytmetyka liczb zmiennoprzecinkowych: problemy i ograniczenia
******************************************************************

Liczby zmiennoprzecinkowe są reprezentowane w komputerze jako ułamki o
podstawie 2 (binarne). Na przykład **dziesiętny** ułamek "0.625" ma
wartość 6/10 + 2/100 + 5/1000 i analogicznie **binarny** ułamek
"0.101" ma wartość 1/2 + 0/4 + 1/8. Te dwa ułamki mają identyczne
wartości, a jedyną prawdziwą różnicą jest to, że pierwszy jest
zapisany w notacji ułamkowej o podstawie 10, a drugi o podstawie 2.

Niestety, większości ułamków dziesiętnych nie można przedstawić
dokładnie jako ułamków binarnych. Konsekwencją jest to, że ogólnie
wprowadzane dziesiętne liczby zmiennoprzecinkowe są jedynie
przybliżane przez binarne liczby zmiennoprzecinkowe faktycznie
przechowywane w maszynie.

Problem jest łatwiejszy do zrozumienia na początku przy podstawie 10.
Rozważ ułamek 1/3. Możesz go przybliżyć jako ułamek o podstawie 10:

   0.3

albo lepiej:

   0.33

albo lepiej:

   0.333

i tak dalej. Bez względu na to, ile cyfr jesteś w stanie zapisać,
wynik nigdy nie będzie dokładnie 1/3, ale będzie coraz lepszym
przybliżeniem 1/3.

W ten sam sposób, bez względu na to, ile cyfr o podstawie 2 chcesz
użyć, wartość dziesiętna 0,1 nie może być dokładnie przedstawiona jako
ułamek o podstawie 2. W podstawie 2, 1/10 to ułamek okresowy

   0.0001100110011001100110011001100110011001100110011...

Zatrzymaj się na dowolnej skończonej liczbie bitów, a otrzymasz
przybliżenie. Na większości dzisiejszych maszyn liczby
zmiennoprzecinkowe są aproksymowane przy użyciu ułamka binarnego z
licznikiem wykorzystującym pierwsze 53 bity, zaczynając od najbardziej
znaczącego bitu i mianownikiem jako potęgą dwójki. W przypadku 1/10
ułamek binarny jest równy "3602879701896397 / 2 ** 55" i jest zbliżony
do prawdziwej wartości 1/10, ale nie do końca jej równy.

Wielu użytkowników nie jest świadomych przybliżenia ze względu na
sposób wyświetlania wartości. Python wypisuje tylko przybliżenie
dziesiętne do prawdziwej wartości dziesiętnej przybliżenia binarnego
zapisanego przez maszynę. Na większości maszyn, gdyby Python miał
wydrukować prawdziwą wartość dziesiętną przybliżenia binarnego
zapisanego dla 0,1 musiałby wyświetlić:

   >>> 0.1
   0.1000000000000000055511151231257827021181583404541015625

To więcej cyfr, niż większość ludzi uważa za przydatne, więc Python
utrzymuje liczbę cyfr tak by były one do opanowania, wyświetlając
zamiast tego zaokrągloną wartość:

   >>> 1 / 10
   0.1

Pamiętaj tylko, że chociaż wydrukowany wynik wygląda jak dokładna
wartość 1/10, rzeczywista zapisana wartość to najbliższa
reprezentatywna część binarna.

Co ciekawe, istnieje wiele różnych liczb dziesiętnych, które mają ten
sam najbliższy przybliżony ułamek binarny. Na przykład liczby "0.1",
"0.10000000000000001" i
"0.1000000000000000055511151231257827021181583404541015625" są
wszystkie przybliżone przez "3602879701896397 / 2 ** 55". Ponieważ
wszystkie te wartości dziesiętne mają to samo przybliżenie, każda z
nich może zostać wyświetlona przy jednoczesnym zachowaniu niezmiennika
"eval(repr(x)) == x".

W przeszłości, interaktywny prompt oraz wbudowana funkcja Pythona
"repr()" wybierały tę z 17 cyframi znaczącymi, "0.10000000000000001".
Począwszy od Pythona 3.1, Python (w większości systemów) może teraz
wybrać najkrótszy z nich i po prostu wyświetlić "0.1".

Zauważ, że leży to w samej naturze binarnej liczby
zmiennoprzecinkowej: nie jest to błąd w Pythonie ani w twoim kodzie.
Zobaczysz to samo we wszystkich językach obsługujących arytmetykę
zmiennoprzecinkową twojego sprzętu (chociaż niektóre języki mogą nie
*wyświetlać* różnicy domyślnie lub we wszystkich trybach wyjściowych).

Aby uzyskać przyjemniejszy wynik, możesz użyć formatowania ciągu
znaków w celu uzyskania ograniczonej liczby cyfr znaczących:

   >>> format(math.pi, '.12g')  # daj 12 znaczących cyfr
   '3.14159265359'

   >>> format(math.pi, '.2f')   # daj 2 cyfry po kropce
   '3.14'

   >>> repr(math.pi)
   '3.141592653589793'

Ważne jest, aby zdać sobie sprawę, że w rzeczywistości jest to
złudzenie: po prostu zaokrąglasz *wyświetlanie* prawdziwej wartości
zapisanej w komputerze.

Jedna iluzja może zrodzić kolejną. Na przykład, z powodu że 0,1 nie
jest dokładnie 1/10, zsumowanie trzech wartości 0,1 może nie dać
dokładnie 0,3:

   >>> 0.1 + 0.1 + 0.1 == 0.3
   False

Ponadto, ponieważ 0,1 nie może zbliżyć się do dokładnej wartości 1/10,
a 0,3 nie może zbliżyć się do dokładnej wartości 3/10, to wstępne
zaokrąglenie za pomocą funkcji "round()" nie może pomóc:

   >>> round(0.1, 1) + round(0.1, 1) + round(0.1, 1) == round(0.3, 1)
   False

Chociaż liczb nie można już bardziej przybliżyć do ich dokładnych
wartości, funkcja "math.isclose()" może być przydatna do porównywania
niedokładnych wartości:

   >>> math.isclose(0.1 + 0.1 + 0.1, 0.3)
   True

Alternatywnie do porównania zgrubnych przybliżeń można użyć funkcji
"round()":

   >>> round(math.pi, ndigits=2) == round(22 / 7, ndigits=2)
   True

Binarna arytmetyka zmiennoprzecinkowa kryje w sobie wiele takich
niespodzianek. Problem z „0,1” został dokładnie wyjaśniony poniżej, w
sekcji „Błąd reprezentacji”.  Zobacz Przykłady problemów
zmiennoprzecinkowych dla przyjemnego podsumowania jak działa binarna
arytmetyka zmiennoprzecinkowa i jakie rodzaje problemów często spotyka
się w praktyce.  Zobacz także The Perils of Floating Point dla
bardziej kompletnego opisu innych typowych niespodzianek.

Jak jest tam napisane pod koniec, „nie ma łatwych odpowiedzi”. Mimo to
nie należy nadmiernie uważać na liczby zmiennoprzecinkowe! Błędy w
operacjach zmiennoprzecinkowych Pythona są dziedziczone z budowy
komputera i na większości maszyn są rzędu nie więcej niż 1 przez 2**53
na operację. Jest to więcej niż wystarczające dla większości zadań,
ale należy pamiętać, że nie jest to arytmetyka dziesiętna i że każda
operacja zmiennoprzecinkowa może napotkać nowy błąd zaokrąglenia.

Chociaż istnieją przypadki skrajne, w większości przypadkowych
zastosowań arytmetyki zmiennoprzecinkowej zobaczysz oczekiwany wynik,
jeśli po prostu zaokrąglisz wyświetlanie końcowych wyników do
oczekiwanej liczby cyfr dziesiętnych. "str()" zwykle wystarcza, lecz
dla dokładniejszej kontroli możesz zobaczyć opis formatowania tekstu
za pomocą metody "str.format()" w Format String Syntax.

W przypadkach użycia, które wymagają dokładnej reprezentacji
dziesiętnej, spróbuj użyć modułu "decimal", który implementuje
arytmetykę dziesiętną odpowiednią dla aplikacji księgowych i aplikacji
o wysokiej precyzji.

Inną formą wspierającą arytmetykę dokładną jest moduł "fractions"
realizujący arytmetykę opartą na liczbach wymiernych (aby liczby takie
jak 1/3 mogły być reprezentowane dokładnie).

Jeśli często korzystasz z operacji zmiennoprzecinkowych, powinieneś
rzucić okiem na pakiet NumPy i wiele innych pakietów do operacji
matematycznych i statystycznych dostarczonych przez projekt SciPy.
Zobacz <https://scipy.org>.

Python udostępnia narzędzia, które mogą pomóc w tych rzadkich
przypadkach, gdy naprawdę *musisz* poznać dokładną wartość liczby
zmiennoprzecinkowej. Metoda "float.as_integer_ratio()" wyraża wartość
float jako ułamek:

   >>> x = 3.14159
   >>> x.as_integer_ratio()
   (3537115888337719, 1125899906842624)

Ponieważ stosunek jest dokładny, można go użyć do bezstratnego
odtworzenia oryginalnej wartości:

   >>> x == 3537115888337719 / 1125899906842624
   True

Metoda "float.hex()" wyraża liczbę zmiennoprzecinkową w systemie
hexadecymalnym (podstawa 16), ponownie podając dokładną wartość
przechowywaną przez komputer:

   >>> x.hex()
   '0x1.921f9f01b866ep+1'

Ta precyzyjna reprezentacja szesnastkowa może być wykorzystana do
dokładnego zrekonstruowania wartości liczby zmiennoprzecinkowej:

   >>> x == float.fromhex('0x1.921f9f01b866ep+1')
   True

Ponieważ ta reprezentacja jest dokładna, przydatna jest ona do
niezawodnego przenoszenia wartości między różnymi wersjami Pythona
(niezależność od platformy) i wymiany danych z innymi językami
obsługującymi ten sam format (takimi jak Java czy C99).

Kolejnym pomocnym narzędziem jest funkcja "sum()", która pomaga
złagodzić utratę precyzji podczas sumowania. Używa rozszerzonej
precyzji dla pośrednich kroków zaokrąglania, gdy wartości są dodawane
do bieżącej sumy. Może to mieć wpływ na ogólną dokładność, aby błędy
nie kumulowały się do punktu, w którym wpływają na ostateczny wynik:

   >>> 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 == 1.0
   False
   >>> sum([0.1] * 10) == 1.0
   True

"math.fsum()" idzie dalej i śledzi wszystkie „utracone cyfry”, gdy
wartości są dodawane do bieżącej sumy, tak aby wynik miał tylko jedno
zaokrąglenie. Jest to wolniejsze niż "sum()", ale będzie dokładniejsze
w rzadkich przypadkach, w których duże wartości wejściowe w większości
się znoszą, pozostawiając końcową sumę bliską zeru:

   >>> arr = [-0.10430216751806065, -266310978.67179024, 143401161448607.16,
   ...        -143401161400469.7, 266262841.31058735, -0.003244936839808227]
   >>> float(sum(map(Fraction, arr)))   # Dokładne sumowanie z pojedynczym zaokrągleniem
   8.042173697819788e-13
   >>> math.fsum(arr)                   # Pojedyncze zaokrąglenie
   8.042173697819788e-13
   >>> sum(arr)                         # Wielokrotne zaokrąglenia w rozszerzonej precyzji
   8.042178034628478e-13
   >>> total = 0.0
   >>> for x in arr:
   ...     total += x                   # Wielokrotne zaokrąglenia w standardowej precyzji
   ...
   >>> total                            # Proste dodawanie nie ma poprawnych cyfr!
   -0.0051575902860057365


15.1. Błąd reprezentacji
========================

Ta sekcja wyjaśnia szczegółowo przykład „0,1” i pokazuje, jak
samodzielnie przeprowadzić dokładną analizę takich przypadków.
Zakładamy że masz podstawową znajomość binarnej reprezentacji liczb
zmiennoprzecinkowych.

*Błąd reprezentacji* odnosi się do faktu, że niektóre (właściwie
większość) ułamków dziesiętnych nie może być reprezentowane dokładnie
jako ułamki binarne (o podstawie 2). Jest to główny powód, dla którego
Python (lub Perl, C, C++, Java, Fortran i wiele innych) często nie
wyświetla dokładnie takiej liczby dziesiętnej, jakiej oczekujesz.

Dlaczego? 1/10 nie jest dokładnie reprezentowalna jako ułamek binarny.
Od co najmniej 2000 roku, prawie wszystkie dzisiejsze maszyny używają
binarnej arytmetyki zmiennoprzecinkowej IEEE-754 i prawie wszystkie
platformy odwzorowują liczby zmiennoprzecinkowe Pythona na „podwójną
precyzję” IEEE-754 binary64. Wartości IEEE 754 binary64 zawierają 53
bity dokładności, więc na wejściu komputer stara się zamienić 0,1 na
najbliższy możliwy ułamek w postaci *J*/2***N*, gdzie *J* jest liczbą
całkowitą zawierającą dokładnie 53 bity. Zapisując

   1 / 10 ~= J / (2**N)

jako

   J ~= 2**N / 10

i pamiętając, że *J* ma dokładnie 53 bity (jest ">= 2**52" ale "<
2**53"), najlepszą wartością dla *N* jest 56:

   >>> 2**52 <=  2**56 // 10  < 2**53
   True

Oznacza to, że 56 jest jedyną wartością dla *N*, która pozostawia *J*
dokładnie 53 bity. Najlepszą możliwą wartością dla *J* jest zatem
zaokrąglony iloraz:

   >>> q, r = divmod(2**56, 10)
   >>> r
   6

Ponieważ reszta jest większa niż połowa z 10, najlepsze przybliżenie
uzyskuje się zaokrąglając w górę:

   >>> q+1
   7205759403792794

Dlatego najlepszym możliwym przybliżeniem do 1/10 w arytmetyce
podwójnej precyzji typu IEEE 754 jest:

   7205759403792794 / 2 ** 56

Podzielenie licznika i mianownika przez dwa zmniejsza ułamek do:

   3602879701896397 / 2 ** 55

Zauważ, że ponieważ zaokrągliliśmy w górę, jest to w rzeczywistości
trochę więcej niż 1/10; gdybyśmy nie zaokrąglili w górę, iloraz byłby
nieco mniejszy niż 1/10. Ale w żadnym wypadku nie może to być
*dokładnie* 1/10!

Tak więc komputer nigdy nie „widzi” 1/10: to, co widzi, to dokładny
ułamek podany powyżej, najlepsze przybliżenie w standardzie podwójnej
precyzji IEEE 754, jakie może uzyskać:

   >>> 0.1 * 2 ** 55
   3602879701896397.0

Jeśli pomnożymy ten ułamek przez 10**55, otrzymamy wartość z
dokładnością do 55 cyfr dziesiętnych:

   >>> 3602879701896397 * 10 ** 55 // 2 ** 55
   1000000000000000055511151231257827021181583404541015625

co oznacza, że ​​dokładna liczba zapisana w komputerze jest równa
wartości dziesiętnej
0,1000000000000000055511151231257827021181583404541015625. Zamiast
wyświetlać pełną wartość dziesiętną, wiele języków (w tym starsze
wersje Pythona) zaokrągla wynik do 17 cyfr znaczących:

   >>> format(0.1, '.17f')
   '0.10000000000000001'

Moduły "fractions" oraz "decimal" ułatwiają tego typu obliczenia:

   >>> from decimal import Decimal
   >>> from fractions import Fraction

   >>> Fraction.from_float(0.1)
   Fraction(3602879701896397, 36028797018963968)

   >>> (0.1).as_integer_ratio()
   (3602879701896397, 36028797018963968)

   >>> Decimal.from_float(0.1)
   Decimal('0.1000000000000000055511151231257827021181583404541015625')

   >>> format(Decimal.from_float(0.1), '.17')
   '0.10000000000000001'
