Парадокс Ньюкома для ИИ на “Хабре”

На днях опубликовал на “Хабре” небольшую статью про парадокс Ньюкома в применении к ИИ, как к программе. Так как статья небольшая, туда много что не вошло – см. ниже. (Но зато есть расшифровка диалога с ChatGPT по теме.)

Вообще, существенная часть парадоксальности парадокса Ньюкома происходит из трактовки того, как мог бы работать Предсказатель и насколько он мог бы быть точным в своих предсказаниях. (Описание парадокса и сеттинга, если не сталкивались, лучше прочитать в статье по ссылке выше.) Предсказатель выполняет моделирование действий испытуемого – это всегда подразумевается задачей предсказания, а в формулировке, которую я использовал, про моделирование сказано прямо в условии. И если речь про программу ИИ, которая исполняется где-то там на микропроцессорах в дата-центре, то выдачу такой программы можно попробовать моделировать точно: скопировали программу и запустили на таком же оборудовании и на таких же данных.

Помимо прочего, парадокс Ньюкома прямо связан с интерпретациями квантовой механики – например, скажем, что Предсказатель использует машинерию, действующую в “аксиоматике” Дирака-Фон Неймана, то есть, вся онтология – только про результаты измерений. Но и если посмотреть на ситуацию с точки зрения исследования программ, то тут тоже возникают разные хитрости: если говорить строго, то не каждое сочетание программы и набора данных вообще “разрешимо” (см. десятую проблему Гильберта, проблему останова, теорему Райса и пр.) – получается теоретический сюрприз, пусть к конкретной практической ситуации он и не подходит. Но как быть, если моделирование программы ИИ, с целью предсказания выбора, проводит тоже ИИ – другая программа? То есть, вопрос о сущности Предсказателя получает некоторые новые грани.

При этом конкретные микропроцессоры имеют дефекты, транзистор может переключиться из-за воздействия космического излучения – а это, вроде как, квантовый, случайный процесс. Транзисторов же используются миллиарды, так что может получиться некоторый портал в большее квантовое пространство (всё складывается почти что по Пенроузу).

Или идея о том, что данная копия программы ИИ, используемая для запуска симуляции эксперимента, может как-то передавать сигналы основному экземпляру, проходящему в будущем финальный эксперимент. Такие возможности были описаны. Как это может быть реализовано? Да, хитрый ИИ, предположив, что он находится в режиме симуляции, может что-то менять в аппаратуре или даже воздействовать на эксперментаторов своими ответам. Вроде бы, ИИ, обнаружив себя в ситуации эксперимента, всегда должен предполагать, что оказался в целевой симуляции – это выводится из тех соображений, что нет возможности различить симуляцию и финальный эксперимент изнутри. Но если ИИ научится передавать сигнал наружу, находясь в режиме симуляции, то ситуация меняется. Из общих свойств процесса копирования программ ИИ можно сделать вывод, что такой сигнал не должен ходить между симуляциями: во-первых, симуляции могут быть упорядочены по времени произвольным образом (кстати, тут же вспоминается парадокс Спящей красавицы); во-вторых, при подготовке модели все внешние условия строго выставляются в одинаковое состояние. Однако такой сигнал может проходить в “финальный сеанс”, где действует моделируемый основной экземпляр программы ИИ. Соответственно, если ИИ видит хотя бы один сигнал, значит – он не в симуляции, а в финальном эксперименте. С другой стороны, копия программы ИИ для моделирования может быть получена уже с сигналом внутри. Всё непросто.

(Возможно, если вдруг будут ресурсы на это – напишу продолжение. А так-то из разбора парадокса Ньюкома для современного ИИ может выйти и книга.)

Адрес записки: https://dxdt.ru/2025/04/22/15431/

Похожие записки:



Далее - мнения и дискуссии

(Сообщения ниже добавляются читателями сайта, через форму, расположенную в конце страницы.)

Комментарии читателей блога: 3

  • 1 <t> // 22nd April 2025, 15:40 // Читатель noname написал:

    Спрашивал многих: чем же принципиально человек отличается от ИИ.
    “На пальцах” определенно ощутимо (на личном примере и лишь на нем) что “я чувствую”, “я сознаю” (я-то!). Но вот в отношении Другого ситуация ничем не лучше той, что с ИИ – т.н. Трудная проблема сознания (можно погуглить). Доказать неИИ-шность Другого никак у вас не получится. И никакие силлогизмы, парадоксы и концепты тут ничем не помогут. ТПС наукой [на сейчас] неразрешима.
    Мы такие же ИИ. И точно так же ничего не выбираем.
    Остается вопрос о нашем сознании и чувствах. Ну так они и не наши)))

  • 2 <t> // 22nd April 2025, 19:41 // Александр Венедюхин:

    > Мы такие же ИИ. И точно так же ничего не выбираем.

    Вообще, мне в таком подходе ещё представляется занимательным то, что он позволяет неплохо обосновать, почему современные ИИ (которые LLM) “обучают” на текстовых записях (на подпоследовательностях байтов, на самом деле, но это ладно), а потом результат называют “интеллектом”: ну, как бы, предположим, что исходные структуры проявляются в любых данных, которые удаётся воспринимать как упорядоченные; то есть, как бы спрашивают – а кто вам сказал, что те последовательности байтов не являются первичными? Просто, текст, который из них образуется, это вторичный феномен, связанный с тем, как строит действительность “такой же ИИ”, но который не Другой. (Я, впрочем, так не считаю. Это просто пример.)

  • 3 <t> // 23rd April 2025, 11:29 // Читатель noname написал:

    Тут ведь немаловажен еще вопрос о природе самой действительности. Если есть лишь свод правил (код, Логос) и платформа симуляции (материя), то все вокруг симуляция. Если сознание не проникает в сознание, то оно может оказаться попросту атомарным — единый Ноумен и без числа феноменов-эманаций, которые в итоге формируют абсолютно любые концепции. Все тогда “ИИ”.
    Это как с Землей. Раньше была плоской и покоилась на слонах. Потом – сферической и вращалась вокруг Солнца. Теперь она может оказаться цифровой. И т.д…
    Но это просто слова)

Написать комментарий

Ваш комментарий:

Введите ключевое слово "Q453R" латиницей СПРАВА НАЛЕВО (<--) без кавычек: (это необходимо для защиты от спама).

Если видите "капчу", то решите её. Это необходимо для отправки комментария ("капча" не применяется для зарегистрированных пользователей). Обычно, комментарии поступают на премодерацию, которая нередко занимает продолжительное время.