15. Arytmetyka liczb zmiennoprzecinkowych: problemy i ograniczenia¶
Liczby zmiennoprzecinkowe są reprezentowane w komputerze jako ułamki o podstawie 2 (binarne). Na przykład dziesiętny ułamek 0.625
ma wartość 6/10 + 2/100 + 5/1000 i analogicznie binarny ułamek 0.101
ma wartość 1/2 + 0/4 + 1/8. Te dwa ułamki mają identyczne wartości, a jedyną prawdziwą różnicą jest to, że pierwszy jest zapisany w notacji ułamkowej o podstawie 10, a drugi o podstawie 2.
Niestety, większości ułamków dziesiętnych nie można przedstawić dokładnie jako ułamków binarnych. Konsekwencją jest to, że ogólnie wprowadzane dziesiętne liczby zmiennoprzecinkowe są jedynie przybliżane przez binarne liczby zmiennoprzecinkowe faktycznie przechowywane w maszynie.
Problem jest łatwiejszy do zrozumienia na początku przy podstawie 10. Rozważ ułamek 1/3. Możesz go przybliżyć jako ułamek o podstawie 10:
0.3
albo lepiej:
0.33
albo lepiej:
0.333
i tak dalej. Bez względu na to, ile cyfr jesteś w stanie zapisać, wynik nigdy nie będzie dokładnie 1/3, ale będzie coraz lepszym przybliżeniem 1/3.
W ten sam sposób, bez względu na to, ile cyfr o podstawie 2 chcesz użyć, wartość dziesiętna 0,1 nie może być dokładnie przedstawiona jako ułamek o podstawie 2. W podstawie 2, 1/10 to ułamek okresowy
0.0001100110011001100110011001100110011001100110011...
Zatrzymaj się na dowolnej skończonej liczbie bitów, a otrzymasz przybliżenie. Na większości dzisiejszych maszyn liczby zmiennoprzecinkowe są aproksymowane przy użyciu ułamka binarnego z licznikiem wykorzystującym pierwsze 53 bity, zaczynając od najbardziej znaczącego bitu i mianownikiem jako potęgą dwójki. W przypadku 1/10 ułamek binarny jest równy 3602879701896397 / 2 ** 55
i jest zbliżony do prawdziwej wartości 1/10, ale nie do końca jej równy.
Wielu użytkowników nie jest świadomych przybliżenia ze względu na sposób wyświetlania wartości. Python wypisuje tylko przybliżenie dziesiętne do prawdziwej wartości dziesiętnej przybliżenia binarnego zapisanego przez maszynę. Na większości maszyn, gdyby Python miał wydrukować prawdziwą wartość dziesiętną przybliżenia binarnego zapisanego dla 0,1 musiałby wyświetlić:
>>> 0.1
0.1000000000000000055511151231257827021181583404541015625
To więcej cyfr, niż większość ludzi uważa za przydatne, więc Python utrzymuje liczbę cyfr tak by były one do opanowania, wyświetlając zamiast tego zaokrągloną wartość:
>>> 1 / 10
0.1
Pamiętaj tylko, że chociaż wydrukowany wynik wygląda jak dokładna wartość 1/10, rzeczywista zapisana wartość to najbliższa reprezentatywna część binarna.
Co ciekawe, istnieje wiele różnych liczb dziesiętnych, które mają ten sam najbliższy przybliżony ułamek binarny. Na przykład liczby 0.1
, 0.10000000000000001
i 0.1000000000000000055511151231257827021181583404541015625
są wszystkie przybliżone przez 3602879701896397 / 2 ** 55
. Ponieważ wszystkie te wartości dziesiętne mają to samo przybliżenie, każda z nich może zostać wyświetlona przy jednoczesnym zachowaniu niezmiennika eval(repr(x)) == x
.
W przeszłości, interaktywny prompt oraz wbudowana funkcja Pythona repr()
wybierały tę z 17 cyframi znaczącymi, 0.10000000000000001
. Począwszy od Pythona 3.1, Python (w większości systemów) może teraz wybrać najkrótszy z nich i po prostu wyświetlić 0.1
.
Zauważ, że leży to w samej naturze binarnej liczby zmiennoprzecinkowej: nie jest to błąd w Pythonie ani w twoim kodzie. Zobaczysz to samo we wszystkich językach obsługujących arytmetykę zmiennoprzecinkową twojego sprzętu (chociaż niektóre języki mogą nie wyświetlać różnicy domyślnie lub we wszystkich trybach wyjściowych).
Aby uzyskać przyjemniejszy wynik, możesz użyć formatowania ciągu znaków w celu uzyskania ograniczonej liczby cyfr znaczących:
>>> format(math.pi, '.12g') # daj 12 znaczących cyfr
'3.14159265359'
>>> format(math.pi, '.2f') # daj 2 cyfry po kropce
'3.14'
>>> repr(math.pi)
'3.141592653589793'
Ważne jest, aby zdać sobie sprawę, że w rzeczywistości jest to złudzenie: po prostu zaokrąglasz wyświetlanie prawdziwej wartości zapisanej w komputerze.
Jedna iluzja może zrodzić kolejną. Na przykład, z powodu że 0,1 nie jest dokładnie 1/10, zsumowanie trzech wartości 0,1 może nie dać dokładnie 0,3:
>>> 0.1 + 0.1 + 0.1 == 0.3
False
Ponadto, ponieważ 0,1 nie może zbliżyć się do dokładnej wartości 1/10, a 0,3 nie może zbliżyć się do dokładnej wartości 3/10, to wstępne zaokrąglenie za pomocą funkcji round()
nie może pomóc:
>>> round(0.1, 1) + round(0.1, 1) + round(0.1, 1) == round(0.3, 1)
False
Chociaż liczb nie można już bardziej przybliżyć do ich dokładnych wartości, funkcja math.isclose()
może być przydatna do porównywania niedokładnych wartości:
>>> math.isclose(0.1 + 0.1 + 0.1, 0.3)
True
Alternatywnie do porównania zgrubnych przybliżeń można użyć funkcji round()
:
>>> round(math.pi, ndigits=2) == round(22 / 7, ndigits=2)
True
Binarna arytmetyka zmiennoprzecinkowa kryje w sobie wiele takich niespodzianek. Problem z „0,1” został dokładnie wyjaśniony poniżej, w sekcji „Błąd reprezentacji”. Zobacz Przykłady problemów zmiennoprzecinkowych dla przyjemnego podsumowania jak działa binarna arytmetyka zmiennoprzecinkowa i jakie rodzaje problemów często spotyka się w praktyce. Zobacz także The Perils of Floating Point dla bardziej kompletnego opisu innych typowych niespodzianek.
Jak jest tam napisane pod koniec, „nie ma łatwych odpowiedzi”. Mimo to nie należy nadmiernie uważać na liczby zmiennoprzecinkowe! Błędy w operacjach zmiennoprzecinkowych Pythona są dziedziczone z budowy komputera i na większości maszyn są rzędu nie więcej niż 1 przez 2**53 na operację. Jest to więcej niż wystarczające dla większości zadań, ale należy pamiętać, że nie jest to arytmetyka dziesiętna i że każda operacja zmiennoprzecinkowa może napotkać nowy błąd zaokrąglenia.
Chociaż istnieją przypadki skrajne, w większości przypadkowych zastosowań arytmetyki zmiennoprzecinkowej zobaczysz oczekiwany wynik, jeśli po prostu zaokrąglisz wyświetlanie końcowych wyników do oczekiwanej liczby cyfr dziesiętnych. str()
zwykle wystarcza, lecz dla dokładniejszej kontroli możesz zobaczyć opis formatowania tekstu za pomocą metody str.format()
w Format String Syntax.
W przypadkach użycia, które wymagają dokładnej reprezentacji dziesiętnej, spróbuj użyć modułu decimal
, który implementuje arytmetykę dziesiętną odpowiednią dla aplikacji księgowych i aplikacji o wysokiej precyzji.
Inną formą wspierającą arytmetykę dokładną jest moduł fractions
realizujący arytmetykę opartą na liczbach wymiernych (aby liczby takie jak 1/3 mogły być reprezentowane dokładnie).
Jeśli często korzystasz z operacji zmiennoprzecinkowych, powinieneś rzucić okiem na pakiet NumPy i wiele innych pakietów do operacji matematycznych i statystycznych dostarczonych przez projekt SciPy. Zobacz <https://scipy.org>.
Python udostępnia narzędzia, które mogą pomóc w tych rzadkich przypadkach, gdy naprawdę musisz poznać dokładną wartość liczby zmiennoprzecinkowej. Metoda float.as_integer_ratio()
wyraża wartość float jako ułamek:
>>> x = 3.14159
>>> x.as_integer_ratio()
(3537115888337719, 1125899906842624)
Ponieważ stosunek jest dokładny, można go użyć do bezstratnego odtworzenia oryginalnej wartości:
>>> x == 3537115888337719 / 1125899906842624
True
Metoda float.hex()
wyraża liczbę zmiennoprzecinkową w systemie hexadecymalnym (podstawa 16), ponownie podając dokładną wartość przechowywaną przez komputer:
>>> x.hex()
'0x1.921f9f01b866ep+1'
Ta precyzyjna reprezentacja szesnastkowa może być wykorzystana do dokładnego zrekonstruowania wartości liczby zmiennoprzecinkowej:
>>> x == float.fromhex('0x1.921f9f01b866ep+1')
True
Ponieważ ta reprezentacja jest dokładna, przydatna jest ona do niezawodnego przenoszenia wartości między różnymi wersjami Pythona (niezależność od platformy) i wymiany danych z innymi językami obsługującymi ten sam format (takimi jak Java czy C99).
Kolejnym pomocnym narzędziem jest funkcja sum()
, która pomaga złagodzić utratę precyzji podczas sumowania. Używa rozszerzonej precyzji dla pośrednich kroków zaokrąglania, gdy wartości są dodawane do bieżącej sumy. Może to mieć wpływ na ogólną dokładność, aby błędy nie kumulowały się do punktu, w którym wpływają na ostateczny wynik:
>>> 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 + 0.1 == 1.0
False
>>> sum([0.1] * 10) == 1.0
True
math.fsum()
idzie dalej i śledzi wszystkie „utracone cyfry”, gdy wartości są dodawane do bieżącej sumy, tak aby wynik miał tylko jedno zaokrąglenie. Jest to wolniejsze niż sum()
, ale będzie dokładniejsze w rzadkich przypadkach, w których duże wartości wejściowe w większości się znoszą, pozostawiając końcową sumę bliską zeru:
>>> arr = [-0.10430216751806065, -266310978.67179024, 143401161448607.16,
... -143401161400469.7, 266262841.31058735, -0.003244936839808227]
>>> float(sum(map(Fraction, arr))) # Dokładne sumowanie z pojedynczym zaokrągleniem
8.042173697819788e-13
>>> math.fsum(arr) # Pojedyncze zaokrąglenie
8.042173697819788e-13
>>> sum(arr) # Wielokrotne zaokrąglenia w rozszerzonej precyzji
8.042178034628478e-13
>>> total = 0.0
>>> for x in arr:
... total += x # Wielokrotne zaokrąglenia w standardowej precyzji
...
>>> total # Proste dodawanie nie ma poprawnych cyfr!
-0.0051575902860057365
15.1. Błąd reprezentacji¶
Ta sekcja wyjaśnia szczegółowo przykład „0,1” i pokazuje, jak samodzielnie przeprowadzić dokładną analizę takich przypadków. Zakładamy że masz podstawową znajomość binarnej reprezentacji liczb zmiennoprzecinkowych.
Błąd reprezentacji odnosi się do faktu, że niektóre (właściwie większość) ułamków dziesiętnych nie może być reprezentowane dokładnie jako ułamki binarne (o podstawie 2). Jest to główny powód, dla którego Python (lub Perl, C, C++, Java, Fortran i wiele innych) często nie wyświetla dokładnie takiej liczby dziesiętnej, jakiej oczekujesz.
Dlaczego? 1/10 nie jest dokładnie reprezentowalna jako ułamek binarny. Od co najmniej 2000 roku, prawie wszystkie dzisiejsze maszyny używają binarnej arytmetyki zmiennoprzecinkowej IEEE-754 i prawie wszystkie platformy odwzorowują liczby zmiennoprzecinkowe Pythona na „podwójną precyzję” IEEE-754 binary64. Wartości IEEE 754 binary64 zawierają 53 bity dokładności, więc na wejściu komputer stara się zamienić 0,1 na najbliższy możliwy ułamek w postaci J/2**N, gdzie J jest liczbą całkowitą zawierającą dokładnie 53 bity. Zapisując
1 / 10 ~= J / (2**N)
jako
J ~= 2**N / 10
i pamiętając, że J ma dokładnie 53 bity (jest >= 2**52
ale < 2**53
), najlepszą wartością dla N jest 56:
>>> 2**52 <= 2**56 // 10 < 2**53
True
Oznacza to, że 56 jest jedyną wartością dla N, która pozostawia J dokładnie 53 bity. Najlepszą możliwą wartością dla J jest zatem zaokrąglony iloraz:
>>> q, r = divmod(2**56, 10)
>>> r
6
Ponieważ reszta jest większa niż połowa z 10, najlepsze przybliżenie uzyskuje się zaokrąglając w górę:
>>> q+1
7205759403792794
Dlatego najlepszym możliwym przybliżeniem do 1/10 w arytmetyce podwójnej precyzji typu IEEE 754 jest:
7205759403792794 / 2 ** 56
Podzielenie licznika i mianownika przez dwa zmniejsza ułamek do:
3602879701896397 / 2 ** 55
Zauważ, że ponieważ zaokrągliliśmy w górę, jest to w rzeczywistości trochę więcej niż 1/10; gdybyśmy nie zaokrąglili w górę, iloraz byłby nieco mniejszy niż 1/10. Ale w żadnym wypadku nie może to być dokładnie 1/10!
Tak więc komputer nigdy nie „widzi” 1/10: to, co widzi, to dokładny ułamek podany powyżej, najlepsze przybliżenie w standardzie podwójnej precyzji IEEE 754, jakie może uzyskać:
>>> 0.1 * 2 ** 55
3602879701896397.0
Jeśli pomnożymy ten ułamek przez 10**55, otrzymamy wartość z dokładnością do 55 cyfr dziesiętnych:
>>> 3602879701896397 * 10 ** 55 // 2 ** 55
1000000000000000055511151231257827021181583404541015625
co oznacza, że dokładna liczba zapisana w komputerze jest równa wartości dziesiętnej 0,1000000000000000055511151231257827021181583404541015625. Zamiast wyświetlać pełną wartość dziesiętną, wiele języków (w tym starsze wersje Pythona) zaokrągla wynik do 17 cyfr znaczących:
>>> format(0.1, '.17f')
'0.10000000000000001'
Moduły fractions
oraz decimal
ułatwiają tego typu obliczenia:
>>> from decimal import Decimal
>>> from fractions import Fraction
>>> Fraction.from_float(0.1)
Fraction(3602879701896397, 36028797018963968)
>>> (0.1).as_integer_ratio()
(3602879701896397, 36028797018963968)
>>> Decimal.from_float(0.1)
Decimal('0.1000000000000000055511151231257827021181583404541015625')
>>> format(Decimal.from_float(0.1), '.17')
'0.10000000000000001'