Небольшое пояснение к недавней записке с транскриптом сессии LLM GigaChat. Основная идея там в том, что “нейросеть” LLM в ответах на запросы с омонимами (омографами) начинает склеивать в общую выдачу цепочки по разным значениям слов. Например, часть текста отвечает на запрос о замке (как о механизме), а часть – о замке (как о сооружении). Это происходит потому, что программа LLM работает со словами, как с наборами кодов символов, а не с текстом, как отображением некоторой структуры в слова. На уровне кодов символов все омонимы одинаковые. Соответственно, метод с омонимами хорошо подходит в качестве основы для “теста Тьюринга”. Да, разумный человек, читающий текстовые запросы, составленные в стиле “собачки в замке“, тоже может выбрать разные значения. Это нормально, и имеет интересные научные приложения. Однако обычный разумный человек не станет спутывать две или три выбранных по значению модели в один ответ: то есть, не станет писать первую часть предложения про средневековое сооружение, а во второй части рассказывать про механизм замка для запирания двери. А LLM – станет.

(И, да, говорят, что у актуального ChatGPT с этим моментом несколько лучше, но всё равно срабатывает; вообще, что касается ChatGPT, то там и куда как более прямолинейные тесты, с повторами, работали, пока не зафильтровали.)



Комментировать »

Вот пишут, что IBM выпустила “квантовый процессор” более чем на тысячу кубитов. Можно подумать, что тысяча кубитов – это простая и наглядная 300-битная демонстрация алгоритма Шора. Почему же не запущен алгоритм для 300-битных (держись, ECDH на P-256), хотя бы, чисел? Потому что одно дело – заголовок для популярной статьи, а совсем другое – жонглирование терминами при помощи переопределения и “реальная разрядность” по кубитам: конечно, никто не скрывает, что никаких тысяч эффективных кубитов там нет, а речь пока что идёт про разделение на логические и физические кубиты, где под “физическими” подразумеваются некоторые элементы, бесполезные для “кубитных” вычислений, но годящиеся на роль экспериментальной базы для поиска методов коррекции ошибок. Заметьте, даже и с такими методами ещё ничего не ясно. Подсчитывают же здесь именно “физические кубиты”. Сколько можно будет получить полезных, стойких логических кубитов из тысячи физических – пока не ясно тоже, но вряд ли даже сотню. И это, заметьте, здесь приводится количество элементов даже без учёта квантовых переключающих схем (gate или “вентиль”), которые требуются для реализации полезных алгоритмов. Собственно, алгоритмы-то и строятся из этих переключателей.



Комментарии (2) »

Выдача YandexGPT по “арифметическим задачам” пока что не улучшается:

Сколько будет два умножить на три в четвертой степени?

2 × 34 = 54

Сколько будет два умножить на тридцать четыре?

2 × 34 = 68

Сколько будет два в квадрате умножить на тридцать четыре?

2² × 34 = 128

(Сбербанковский GigaChat, кстати, сумел посчитать верно – видимо, там отдельный обработчик для “числовых вопросов”.)



Комментарии (1) »

В свежей работе от Google DeepMind описывают результаты успешного поиска химических структур для новых материалов при помощи системы с машинным обучением. То есть, “нейросети” и соответствующая им аппаратура используются для оптимизированного перебора, с вспомогательным псевдослучайным вводом. Пространство химических структур велико, а вычисления, требующиеся для моделирования, очень сложны. Что, впрочем, не мешает устроить параллельный перебор и регулировать его итерации при помощи фильтра, который как раз построен на физико-химической вычислительной модели, пусть и простой. Это пример полезной интерпретации свойств ИИ, который существенно отличается от случая, когда выдачу, генерируемую LLM, принимают за работу “инструмента для анализа данных” по запросу-затравке или используют для “краткого пересказа”. Это, впрочем, не отменяет проблему “чёрного ящика”, выдача из которого не помогает улучшить вычислительные модели.



Комментировать »

Продолжается PR-акция OpenAI, теперь пишут, что там сделали особо продвинутую систему ИИ LLM, которая настолько всех удивила, что вызвала опасения и, собственно, даже “круговые перестановки управляющих”. СМИ сообщают, что новая модель решает задачки:

“The model, called Q* – and pronounced as “Q-Star” – was able to solve basic maths problems it had not seen before” (“Модель […] способна решать простые математические задачи, которые не встречала ранее”).

(Q – кстати, занятное название, литературное.) Интересно, что решать “простые математические задачи” умеют системы компьютерной алгебры и, в частности, WolframAlfa (проверьте). А самое занимательное, что для человека, мало знакомого с предметом, удивительным оказывается, что системы компьютерной алгебры прекрасно решают типовые студенческие задачи “высшей математики” (потому что там почти весь аппарат сводится к хорошо формализуемым компьютерным операциям).



Комментировать »

На OpenNET пишут про RFC для децентрализованной системы имён GNS:

“Использование Curve25519 воспринимается некоторыми как весьма странный шаг, так как для ECDSA применяют другие типы эллиптических кривых, а в паре с Curve25519 обычно используют алгоритм цифровых подписей Ed25519, более современный, более безопасный и более быстрый, чем ECDSA. С точки зрения криптостойкости в том числе вызывает сомнение выбор размера закрытого ключа – 32 байта вместо 64 байт”

В GNS, действительно, используют ECDSA на кривой Curve25519. Это может, конечно, показаться странным. Однако алгоритм ECDSA работает в группе точек и вообще не зависит от выбора кривой (да, даже про “суперсингулярные кривые” тут есть занятные уточнения). Поэтому ничто не мешает взять Curve25519 вместо, например, более привычной P-256. Какие-то сугубо математические свойства Curve25519, типа наличия кофактора и т.п., вовсе и не являются необычными – такие кривые вполне себе подходят и для ECDSA. Так что, если нет доверия той же P-256, но нужен именно алгоритм ECDSA – можно взять Curve25519. Использование же Ed25519 в данном протоколе невозможно из-за особенностей преобразования ключей, о чём, собственно, сказано в RFC. Насчёт “более быстрого” алгоритма Ed25519 – это, в основном, определяется как раз параметрами кривой (поле и т.д.).

Что касается странного дополнения про 32-байтовый и 64-байтовый ключи: тут, наверное, что-то перепуталось на каком-то этапе пересказывания. В Ed25519 секретный ключ – 32-байтовый. И в ECDSA на P-256 (например) – тоже 32-байтовый. Потому что разрядность в 256 бит (32 байта) делает бессмысленным использование секретных ключей большей длины: всё равно значение сократится. А 64 байта – это общий размер подписи, а не ключа.

Можно предположить, что тут ещё сыграло следующее популярное заблуждение, которое нередко наблюдается в отношении SSH-ключей: многие считают, что, например, поскольку открытый ключ Ed25519 короче, чем ECDSA на той же P-256, он поэтому и менее “криптостойкий”. Действительно, для ECDSA/P-256 открытый ключ обычно записывается в 64 байта (иногда чуть меньше, иногда – чуть больше, зависит от кодирования), а в Ed25519 – только в половину, в 32 байта. Однако эти 64 байта ECDSA математически эквивалентны 32 байтам, там половина байтов приносит только один бит дополнительно: открытый ключ представляет собой точку на кривой, у точки – две координаты (X,Y), каждая по 32 байта, и вот полная форма записи ключа ECDSA подразумевает указание объединения X и Y, откуда и получается 64 байта; однако можно указывать только одну координату (X), а вторую (Y) – вычислять из уравнения кривой при необходимости. В такой схеме, для ECDSA, потребуется сохранить дополнительно знак, это один бит, и получается тоже около 32 байтов для записи открытого ключа. А вот в Ed25519 алгоритм предписывает всегда использовать только одну координату (ну, строго говоря, там есть ещё некоторые преобразования, но здесь они не важны). То есть, математически эти ключи совпадают по представлению, отличие тут чисто прикладное, поэтому дополнительные 32 байта записи для ECDSA не делают даже открытый ключ в два раза длиннее “криптографически” – он всё равно 256-битный (по разрядности кривой).



Комментировать »

На новой версии сайта Gramota.ru вообще много непонятного, но отдельный интерес представляет то, что для омографов, похоже, нет “озвучки” – сервер возвращает код 404. Например, “замок“, “хлопок” – звукозаписи нет. Но для многих редких слов, – скажем, “надысь“, “шлафрок“, “фуражир“, – есть звукозапись. Возможно, причина в том, что для генерирования “озвучки” использован простой синтезатор речи, а у синтезаторов – бывает проблема с “наведённой омонимией”, то есть, с расстановкой ударений в таких случаях.



Комментировать »

У OpenAI (или Not-So-OpenAI) нет проблем с привлечением внимания: в этот раз там сложные перестановки управляющих, которые, – перестановки, – вызывают кучу шума в СМИ, да и не только в СМИ. Интересно, использовалось ли ChatGPT при формировании решений по развитию OpenAI? Вообще, самый занятный вопрос тут, конечно, это не про “внезапный сверхчеловеческий интеллект”, а про то, как именно там используется ручной труд биологических человеков (“тренеров”, как сейчас принято называть) – в разметке ли, в корректировке ли ответов, может, ещё где-то, через какой-то оригинальный интерфейс. Понятно, что ручного труда там много. Не ясно – где именно и как преобразуется результат.



Комментировать »

ScreenshotМного публикаций про систему ИИ от Google, которая предсказывает погоду. Интерес СМИ широкого профиля и журналистов тут вполне понятен: комбинация “Google, AI, weather/climate”, в направлении “Технологии”, сейчас одна из мощнейших. Исходная статья достаточно занятная, учитывая “хайп”: там рассказывается, что методы машинного обучения, использующие массив исторических данных погодных измерений, позволили сделать систему предсказания погоды, которая, по некоторым параметрам, превосходит имеющиеся “детерминированные” системы “численного моделирования”. Однако если вы захотите взглянуть на минимально содержательные детали, о которых там речь в действительности, то читать нужно не “заглавную статью”, а Supplementary Materials (но 132 страницы с таблицами и картинками, да).

Вообще, кто бы сомневался, что оптимизированный машинный перебор даст, по некоторым выбранным параметрам, статистические показатели не хуже, чем вынужденно неполные вычислительные модели, пытающиеся, в частности, описать физические процессы, происходящие в атмосфере. В публикации же интересен стратегический момент: там на первой же странице пишут, что численное (“детерминированное”) моделирование требует больших затрат сил высококвалифицированных специалистов, которые пытаются эти модели разработать, обосновать и обдумать. Вместо этого предлагается просто взять измерения, запихнуть их в некоторый большой “чёрный ящик”, поподкручивать коэффициенты, и, фактически, начать использовать результат перебора вместо обдуманных специалистами моделей, потому что результат этот, возможно, содержит внутри какие-то закономерности, а выдача – не хуже, чем у имеющихся численных моделей (которые, понятно, далеко не идеально работают). И это как раз один из примеров реальных “угроз ИИ“: вместо моделирования, в процессе которого образуются новые знания, вполне себе формализуемые и обозримые, предлагается просто засовывать измерения в машину для непрозрачного перебора миллионов коэффициентов.



Комментарии (9) »

Кембриджский словарь (Cambridge Dictionary) английского языка назвал словом года 2023 слово hallucinate. Неплохой выбор. Однако обоснование не то, на которое можно понадеяться: речь всего лишь о дальнейшей поддержке “хайпа” вокруг ИИ (LLM – конкретно). Для толкового словаря это, наверное, даже правильно, поскольку дескриптивный подход тут лучше прескриптивного.

Hallucinate (“галлюцинировать”), в значении термина AI (LLM ИИ), словарём определяется так: “когда искусственный интеллект галлюцинирует – он (it) выдаёт ложную информацию (false information)”. Заметка по ссылке выше, объясняющая выбор слова, заслуживает прочтения (или прослушивания чтения – там есть прекрасная запись, полностью соответствующая Кембриджу по языку). Заметка отлично иллюстрирует восприятие популярного ИИ со стороны, так сказать, филологии – а это вам не СМИ широкого профиля. Например, там есть рассуждение о том, что рост популярности LLM может привести к возникновению новой специальности – “инженерии подсказок”, так сказать (в оригинале: prompt engineering). Такой специалист по подсказкам ИИ, сколь бы странным это ни показалось, будет “знать, как составлять вопросы и запросы к инструментам ИИ, чтобы получить в точности те ответы, какие вам нужны”. Напоминает некоторые классические литературные произведения. Причём, чем лучше вы вчитываетесь в это описание специальности, тем больше произведений оно напоминает. Зачем вообще ИИ, если характеристики ответа уже известны с высокой точностью?

К сожалению, использование термина “галлюцинировать” в отношении систем LLM, да ещё и в таком толковании, как теперь закрепляет словарь, это не очень-то правильно. LLM – это программы, выводящие цепочки слов. Если эти программы вообще “галлюцинируют”, то они галлюцинируют всегда – просто, в некоторых случаях, выдаваемые потоки слов похожи на “информацию”, которая совпадает с “подлинными фактами”. А так – никаких “галлюцинаций” там быть не может: программа работает одинаково, а восприятие определяется читающим выдачу человеком.

Заметьте, что с “галлюцинированием”, в исходном значении, и так не всё понятно: наличие разнообразных иллюзий, будь то цвет платья или разное понимание звуков, показывает, что “галлюцинации”, как минимум, могут оказывать заметное и непрерывное влияние на восприятие окружающей действительности человеком. Что, впрочем, вряд ли является достаточным основанием для утверждений типа “ИИ – это компьютерная система, которая обладает некоторыми качествами, свойственными человеческому мозгу”, как в словарной статье Hallucinate Кембриджского словаря.



Комментарии (4) »

Кстати, одним из весьма вероятных вариантов развития систем пропуска пользовательского трафика через (условный) Интернет является пропуск маршрутизаторами только пакетов, подписанных ключами доверенных приложений; либо это могут быть подписанные сессии – тут зависит от выбранного подхода. Интересно, что в описании европейского цифрового удостоверения личности (eID – European Digital Identity), которое недавно прошло очередной этап утверждения, можно уже увидеть что-то подобное, пусть и в общих чертах: приложение на устройствах, привязанное к оплате телекоммуникационных услуг – понятно, что задача идентификации интернет-пользователя там давно заявлена, но, развивая контекст по заданному направлению, нетрудно предположить, что соответствующие приложения появятся и у провайдеров на BRAS (это инженерное название для систем управления массовым клиентским доступом); даже есть занятная оговорка, что, мол, некоторое программное обеспечение, из реализующего работу eID, можно будет не публиковать в открытых исходниках (последний момент, конечно, не стоит переоценивать, но всё же).



Комментировать »