Точность (информатика)
Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 13 декабря 2023 года; проверки требует 1 правка.
Точность (англ. Precision) в информатике — мера детализации, обычно измеряется в битах, но иногда в десятичных цифрах. Это связано со значимыми цифрами[англ.] в математике, что являет собой количество цифр, которые используются для значения числового выражения.
Некоторые из стандартных форматов точности:
- Число половинной точности
- Число одинарной точности
- Число двойной точности
- Число четверной точности
- Число восьмеричной точности
Из них формат с восьмеричной точностью пока используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются практически на всех платформах. Использование формата половинной точности расширяется, особенно в области машинного обучения, поскольку многие алгоритмы машинного обучения устойчивы к ошибкам.[1]
См. также
- Расширенная точность
- Computer number format (англ.)
- Точность (информационный поиск)
Примечания
- 17 марта 2020 года.
Ссылки
- Computer Numbers and their Precision, I Number Storage
- What’s the Difference Between Single-, Double-, Multi- and Mixed-Precision Computing?
Это заготовка статьи по информатике. Помогите Википедии, дополнив её. |