Простой пример “про измерения”
Предположим, что при измерениях около нуля Цельсия наш датчик и схемы преобразования электрических сигналов могут давать “погрешность” (в кавычках – потому что это здесь условный технический термин для конкретного измерения) до 0.3 градуса, по сравнению с реальной температурой измеряемой среды (тут ещё вопрос, какая именно температура измеряется и как определяется равновесие, но ладно). Что означают эти 0.3 градуса “погрешности”? Они означают, что когда температура в измеряемой датчиком точке 1.0 градус ровно (Цельсия, но это не важно), схемы датчика могут показать 1.1, 1.21, 1.3 – ещё что-то похожее. При этом, чтобы как-то попытаться снять кавычки с “погрешности”, нужно ещё учитывать, какая у нас доступна разрешающая способность после датчика – видим ли мы разницу между 1.2 и 1.21 близко к датчику или этот 0.1 уже шум от последующих элементов схемы (а может и ошибка в Excel, кто знает). Так что считаем, что наша “погрешность” – 0.3. Всё это, естественно, умеют учитывать так или иначе, но корректные алгоритмы вычислений с погрешностями измерений достаточно сложны (есть специальные методы, теории и разные подходы).
Однако попробуем упростить ситуацию. Для примера. Если привычным способом “считать на компьютере”, то можно пронаблюдать занимательные эффекты. Предположим, что у нас пять датчиков. В измерении “А” датчики показали следующие значения (пусть, всё градусы Цельсия): 1.3, 2.3, 2.3, 3.3, 3.3, (много одинаковых значений почему-то, подозрительно); среднее арифметическое для этих измерений равно 2.5; а в измерении “Б” данные получились такие: 1.3, 2.3, 2.3, 3.3, 3.1; среднее – 2.46. Средние показатели отличаются на 0.04. Попробуем так и записать: “средняя температура, между измерениями “А” и “Б”, упала на 0.04 градуса”. И тут не только неожиданно вылезла точность в сотых долях, которая, на минуточку, в семь с лишним раз, если так можно выразиться, “лучше” заявленной выше “погрешности” (0.3), но и реально измеряемая температура могла при этом вовсе не поменяться (а могла и поменяться). Так что при вычислениях нужно учитывать модель измерений. При этом точное измерение конкретно “температуры”, чтобы это ни значило, обычно связано с большими технологическими трудностями (дополнение: особенно, если это измерение выполнено 70 лет назад), которые в СМИ не попадают.
(Кстати, что касается СМИ: замечание про модели измерений особенно актуально и для машинного обучения, которое про соответствующие модели тут ничего учитывать не может.)
Адрес записки: https://dxdt.ru/2023/09/06/10918/
Похожие записки:
- Бюллетень АНБ о конференции CRYPTO'95
- Сокращённая запись и "греческий амперсанд"
- Обучение микроконтроллеров
- Представления о квантах и радиостанции
- LLM и "решения" задач
- Пример про запутывание контекста в LLM (GigaChat)
- LLM и задача про название книги (на примере GigaChat)
- Протокол ECDH: пример в числах
- Песочница
- Мешанина токенов в LLM
- X25519Kyber768 в браузере Chrome 124
Комментарии читателей блога: 2
1 <t> // 6th September 2023, 22:08 // Читатель beldmit написал:
Ты моделируешь человека, которого не учили примерно ничему. Меня учили чему-то, и я понимаю, что неявно предполагая, что отклонения распределены как-то разумно (не помню, как именно), то усреднение N измерений даёт тебе погрешность порядка 0.3/N. То есть больше 0.04
2 <t> // 7th September 2023, 10:04 // Александр Венедюхин:
Да, если известно подходящее по свойствам распределение отклонений, а “измеряемый параметр” – заведомо имеет нужную стабильность. Однако всё равно почему-то постоянно забывают или предпочитают забывать про такие особенности. Тем более, когда речь о многих разных датчиках и про разные способы измерения непредсказуемых флуктуаций, где результаты ещё и разнесены по времени на годы.
Написать комментарий