У OpenAI (или Not-So-OpenAI) нет проблем с привлечением внимания: в этот раз там сложные перестановки управляющих, которые, – перестановки, – вызывают кучу шума в СМИ, да и не только в СМИ. Интересно, использовалось ли ChatGPT при формировании решений по развитию OpenAI? Вообще, самый занятный вопрос тут, конечно, это не про “внезапный сверхчеловеческий интеллект”, а про то, как именно там используется ручной труд биологических человеков (“тренеров”, как сейчас принято называть) – в разметке ли, в корректировке ли ответов, может, ещё где-то, через какой-то оригинальный интерфейс. Понятно, что ручного труда там много. Не ясно – где именно и как преобразуется результат.



Комментировать »

В продолжение записки про наложенные сети Google для браузера. Внедрение таких перемешивающих технологий, конечно, заметно изменит ландшафт для систем фильтрации и блокирования (с DPI), которые будут внешними (относительно google-сетей). Внутри, понятно, возникнут своя фильтрация и блокирование, в точном соответствии с концепцией “Битвы за банхаммер“. Но снаружи останутся видны только IP-адрес клиента и IP-адрес входного узла Google – это важный момент: адрес не какого-то HTTPS-сервера или прокси, а сервиса доступа к вебу от Google. При этом протокол доступа у всех клиентов будет одинаковый.

Браузеры очень распространены, это один из основных источников трафика обычных пользователей – если привычный браузер перестанет работать “из коробки”, то, для таких пользователей, это окажется эквивалентно исчезновению доступа к Интернету. Однако, чтобы использовать наложенную сеть, программа-клиент не обязательно должна быть браузером: механизм доступа конкретно к браузеру не привязан – там достаточно универсальное туннелирование. Впрочем, похоже, что будет требоваться Google-аккаунт и аутентификация при доступе, но этот момент тоже переносится в другие приложения.

И занятно будет посмотреть, кстати, с какими эффектами работа наложенной сети, в ходе развития технологии, переедет в браузеры, которые базируются на Chromium/Chrome, но считаются как бы обособленными и самостоятельными.



Комментировать »

Кстати, вот где и следовало бы проверить AI/ML и прочие ИИ с машинным перебором, так это на результатах двухщелевого опыта с квантовыми частицами. Напомню, что опыт состоит в пропускании отдельных квантовых частиц (например, электронов) через пару микрощелей с регистрацией прошедшей частицы на экране. В результате можно пронаблюдать, как точки попадания частиц в экран формируют интерференционную картину. Так что, предположим, взять несколько миллионов значений координат точек попаданий на экран, ввести их в качестве исходной выборки в нейросеть, обучить, а потом проверить, насколько точно предсказываются следующие точки попадания частиц; при необходимости – продолжить обучение. Да, понятно, что есть квантовая случайность. В теории. Поэтому важно проверять именно с двумя щелями.

Дополнение. Можно же даже так сделать: электрон попадает в экран детектора, координаты точки автоматически вводятся в нейросетевую систему ИИ, система корректирует собственные предсказания (известная схема). Электроны можно излучать быстро, нейросеть – тоже на быстром компьютерном оборудовании, с большим объёмом памяти. Осталось построить, запустить и ждать – сойдётся ли процесс. А если сойдётся, то выяснится, к чему это приведёт.



Комментировать »

ScreenshotМного публикаций про систему ИИ от Google, которая предсказывает погоду. Интерес СМИ широкого профиля и журналистов тут вполне понятен: комбинация “Google, AI, weather/climate”, в направлении “Технологии”, сейчас одна из мощнейших. Исходная статья достаточно занятная, учитывая “хайп”: там рассказывается, что методы машинного обучения, использующие массив исторических данных погодных измерений, позволили сделать систему предсказания погоды, которая, по некоторым параметрам, превосходит имеющиеся “детерминированные” системы “численного моделирования”. Однако если вы захотите взглянуть на минимально содержательные детали, о которых там речь в действительности, то читать нужно не “заглавную статью”, а Supplementary Materials (но 132 страницы с таблицами и картинками, да).

Вообще, кто бы сомневался, что оптимизированный машинный перебор даст, по некоторым выбранным параметрам, статистические показатели не хуже, чем вынужденно неполные вычислительные модели, пытающиеся, в частности, описать физические процессы, происходящие в атмосфере. В публикации же интересен стратегический момент: там на первой же странице пишут, что численное (“детерминированное”) моделирование требует больших затрат сил высококвалифицированных специалистов, которые пытаются эти модели разработать, обосновать и обдумать. Вместо этого предлагается просто взять измерения, запихнуть их в некоторый большой “чёрный ящик”, поподкручивать коэффициенты, и, фактически, начать использовать результат перебора вместо обдуманных специалистами моделей, потому что результат этот, возможно, содержит внутри какие-то закономерности, а выдача – не хуже, чем у имеющихся численных моделей (которые, понятно, далеко не идеально работают). И это как раз один из примеров реальных “угроз ИИ”: вместо моделирования, в процессе которого образуются новые знания, вполне себе формализуемые и обозримые, предлагается просто засовывать измерения в машину для непрозрачного перебора миллионов коэффициентов.



Комментарии (9) »

Кембриджский словарь (Cambridge Dictionary) английского языка назвал словом года 2023 слово hallucinate. Неплохой выбор. Однако обоснование не то, на которое можно понадеяться: речь всего лишь о дальнейшей поддержке “хайпа” вокруг ИИ (LLM – конкретно). Для толкового словаря это, наверное, даже правильно, поскольку дескриптивный подход тут лучше прескриптивного.

Hallucinate (“галлюцинировать”), в значении термина AI (LLM ИИ), словарём определяется так: “когда искусственный интеллект галлюцинирует – он (it) выдаёт ложную информацию (false information)”. Заметка по ссылке выше, объясняющая выбор слова, заслуживает прочтения (или прослушивания чтения – там есть прекрасная запись, полностью соответствующая Кембриджу по языку). Заметка отлично иллюстрирует восприятие популярного ИИ со стороны, так сказать, филологии – а это вам не СМИ широкого профиля. Например, там есть рассуждение о том, что рост популярности LLM может привести к возникновению новой специальности – “инженерии подсказок”, так сказать (в оригинале: prompt engineering). Такой специалист по подсказкам ИИ, сколь бы странным это ни показалось, будет “знать, как составлять вопросы и запросы к инструментам ИИ, чтобы получить в точности те ответы, какие вам нужны”. Напоминает некоторые классические литературные произведения. Причём, чем лучше вы вчитываетесь в это описание специальности, тем больше произведений оно напоминает. Зачем вообще ИИ, если характеристики ответа уже известны с высокой точностью?

К сожалению, использование термина “галлюцинировать” в отношении систем LLM, да ещё и в таком толковании, как теперь закрепляет словарь, это не очень-то правильно. LLM – это программы, выводящие цепочки слов. Если эти программы вообще “галлюцинируют”, то они галлюцинируют всегда – просто, в некоторых случаях, выдаваемые потоки слов похожи на “информацию”, которая совпадает с “подлинными фактами”. А так – никаких “галлюцинаций” там быть не может: программа работает одинаково, а восприятие определяется читающим выдачу человеком.

Заметьте, что с “галлюцинированием”, в исходном значении, и так не всё понятно: наличие разнообразных иллюзий, будь то цвет платья или разное понимание звуков, показывает, что “галлюцинации”, как минимум, могут оказывать заметное и непрерывное влияние на восприятие окружающей действительности человеком. Что, впрочем, вряд ли является достаточным основанием для утверждений типа “ИИ – это компьютерная система, которая обладает некоторыми качествами, свойственными человеческому мозгу”, как в словарной статье Hallucinate Кембриджского словаря.



Комментарии (4) »

Кстати, одним из весьма вероятных вариантов развития систем пропуска пользовательского трафика через (условный) Интернет является пропуск маршрутизаторами только пакетов, подписанных ключами доверенных приложений; либо это могут быть подписанные сессии – тут зависит от выбранного подхода. Интересно, что в описании европейского цифрового удостоверения личности (eID – European Digital Identity), которое недавно прошло очередной этап утверждения, можно уже увидеть что-то подобное, пусть и в общих чертах: приложение на устройствах, привязанное к оплате телекоммуникационных услуг – понятно, что задача идентификации интернет-пользователя там давно заявлена, но, развивая контекст по заданному направлению, нетрудно предположить, что соответствующие приложения появятся и у провайдеров на BRAS (это инженерное название для систем управления массовым клиентским доступом); даже есть занятная оговорка, что, мол, некоторое программное обеспечение, из реализующего работу eID, можно будет не публиковать в открытых исходниках (последний момент, конечно, не стоит переоценивать, но всё же).



Комментировать »

Что лучше – заучить, что 7 * 9 == 63 или знать, что 7 * 9 == 9 * 7? Вопрос дискуссионный. Коммутативность – свойство из разряда “универсальных”, но и хорошее понимание про 63 приводит к не менее важному наблюдению: 63 = 7 * 3^2. С другой стороны, спросите у знающего человека, чему равно π * e – и ответ, с минимальной “занимательностью”, будет таким: π * e == e * π. Спросите то же самое у человека с калькулятором, и он ответит: 8.539734223(…) – возможно, даже без многоточия, поэтому оно в скобках.

Вроде бы, калькулятор на экзамене по математике не нужен, в принципе, а тем более, на школьном экзамене. Но из этого не следует, что требуется именно заучивать таблицу умножения. Понимать такую таблицу, уметь хотя бы немного считать в уме – да, наверное, нужно, потому что это сильно помогает в освоении прочих операций мышления (в чём, собственно, и состоит смысл знакомства с таблицей умножения). Компьютеры на современную теоретическую математику уже оказали большое влияние, но с развитыми навыками владения кнопками примитивного калькулятора это влияние, всё же, не связано, а с таблицей умножения – связано прямо.

Впрочем, привнесение калькулятора в школьные экзамены по математике не должно ни на что повлиять. До тех пор, пока программу обучения не переделают исключительно под “знакомство с калькулятором” – когда переделают, тогда уже без калькулятора будет сложновато. Вообще, многое вокруг этой темы напоминает популярные сейчас рассуждения, что если ChatGPT, погоняемое студентом, может легко написать (сгенерировать) сносное эссе, подходящее под задание преподавателя, то, мол, пора убрать написание эссе из процесса обучения. Да. В Новом Средневековье, конечно, и не такое можно будет увидеть.



Комментировать »

(Так как Британскую библиотеку, которая с папирусами, пока не починили, используем манускрипты из библиотеки Ватиканской. Там как-то понадёжнее системы, видимо; кроме того, как известно, в ватиканском хранилище есть секретные, закрытые залы, содержащие такие древние документы, что знания из них, скорее всего, позволяют радикально защитить информационные системы.)

Воскресное чтение манускриптов. На этот раз – запись “Новой истории” Зосимы (Зосима?). Сам исходный труд опубликован в начале шестого века, манускрипт с записью, скриншоты которого приводятся ниже, датируется 10 веком, при этом в нём можно разглядеть знаки, сильно напоминающие символ “@”:

Fragment of manuscript

Однако это всего лишь такая лигатура σ+α (сигма и альфа). Например, на скриншоте – в слове “παρακελευσαμένου”. В общем, это не адрес email, о чём нетрудно догадаться, поскольку в этом фрагменте историк Зосима (или Зосим?), рассказывая о взятии Пальмиры Аврелианом, описывал историю Римской империи в те времена, когда Интернета не было ни у Зосимы, ни в Римской империи, что в тот, что в другой периоды: для современного состояния цивилизации этот момент (отсутствие Интернета) – всё ещё в будущем.

Интересно, что из записи этой “Новой истории” изымались некоторые фрагменты. На втором скриншоте (см. ниже) – как раз пометка о том, что изъяты восемь листов в самом конце первой (в современной нумерации) книги.

Fragment of manuscript



Комментировать »

Внёс небольшие правки на экспериментальный (тестовый) сервер TLS 1.3:

добавил вывод пометки GREASE для GREASE-параметров (это специальные идентификаторы заведомо неподдерживаемых элементов в TLS, которые, например, присылают Chrome/Chromium);
сделал вывод шифротекста Kyber768 в ServerHello (пока что в виде единого блока байтов, без разбивки на части);
добавил распознавание ECH (Encrypted Client Hello) в расширениях (draft-версия); а вот реализовать поддержку ECH – пока что возможности нет.



Комментировать »

Повсеместно пишут, что “кубиты” квантового компьютера “одновременно пребывают и в значении единица, и в значении ноль”. Собственно, и про квантовые состояния такое же пишут – “одновременно пребывает в разных состояниях” (но состояние-то одно). Понятно, что это исторически сложившийся штамп из области научпопа, не совсем понятно, что же имеется в виду. Что означает “пребывает” и “одновременно”? Какой именно секундомер используется для введения шкалы одновременности пребывания? Ведь не похоже, чтобы квантовое состояние требовало перечисления вариантов в строгой объектной привязке через “пребывания” (да и перечислить действительные числа не выйдет). То есть, если в результате измерения на компьютерных шкалах приборов обнаруживается конкретный набор величин для некоторых “классических” параметров, и вариантов предполагалось всего два, то из этого не следует, что строго эти два варианта как-то там “одновременно” объективизированы до момента измерения: зафиксированный “классический” результат не разворачивается в другую сторону, не образует некоторый “параллелизм”.



Комментировать »

Нейросеть с ИИ YaGPT2 (сайт ya.ru) на вопрос “По какому коридору идёт Штирлиц?” отвечает, что Штирлиц идёт по “коридору власти” (и выдаёт какие-то пояснения про то, что Штирлиц – это персонаж художественных произведений). Это, конечно, не тест Тьюринга, но как тест на знание некоторых культурных реперов – вполне себе используется. Ответ YaGPT2 в 2023 году выглядит, так сказать, несколько странно, потому что не особенно-то отличается от “говорилок”, доступных и десять-пятнадцать лет назад (это когда “преобразуем входной вопрос в SQL-запрос”).



Комментировать »