Пишут, что на такое мероприятие, как инаугурация мэра Нью-Йорка (США), запрещено приносить Flipper Zero и Raspberry Pi. Да. Прямо так и указано в списке запрещённых предметов, наряду с большими сумками, домашними животными (уровня pet, про буйволов ничего не сказано), велосипедами, креслами, битами и другими объектами, которые, прямо скажем, чуть более часто встречаются, чем Raspberry Pi и Flipper Zero. Вместе с тем, Arduino, получается, можно проносить. Уже проще.

Самое забавное, что смартфоны и ноутбуки – не запрещены. Сравните, как говорится, возможности Flipper Zero с возможностями ноутбука, к которому подключен набор решений на ESP32 и, предположим, HackRF (все разрешены).



Комментировать »

Кстати, попался тут неплохой пример странностей современного “Хабра”, связанных с ИИ/LLM – статья под названием “Царский путь к пониманию комплексных чисел” (не ясно, есть ли тут аллюзия на известную максиму про отсутствие “царских путей” в математике). Текст, судя по всему, – а также, судя по комментариям автора статьи, – сгенерирован при помощи нескольких LLM, но потом поправлен и скомпилирован автором. (Такое сейчас прямо поощряется.) Теми же LLM сгенерированы картинки-иллюстрации в статье.

В статье полностью сохранена характерная для LLM-генераторов подача в стиле “успешный успех”. А “успешный успех” начисто скрывает за ложным пафосом минимальную содержательную часть, если она там и есть – читать это, к сожалению, очень и очень трудно, полезный выход минимален: “Рождение ереси”, “Приглашение к бунту”, “Понимание – не равно – умение решать” и т.д., думаю, заштампованность ясна без дальнейшего перевода.

На схемах к статье утверждается, например, что принятие “догмы”, которая там названа (цитата) “Корней из отрицательных чисел не существует”, приводит к потере “Квантовой механики и теории поля”, а также “Волн и колебаний в физике”. Каким таким образом это возможно? Нет объяснения. При этом, очевидно, что над действительными числами “корней из отрицательных чисел” не существует по определению, что бы там ни рисовали LLM на картинках. (Имеются в виду квадратные корни.) Именно на этом “несуществовании” и вводятся комплексные числа в математике, а не на признании самого “несуществования” “догмой” с последующим отрицанием, то есть, совсем не так, как написано у LLM. Собственно, это неверная трактовка, эквивалентная истории с параллельными прямыми, которые “пересекаются” – то есть, создание фиктивной восторженности, путём полного искажения определений, проводимого через ложное противоречие. И, как говорится, так далее, и тому подобное.

Так что, влияние LLM – очень и очень не хорошее.



Комментировать »

Решил ознакомиться с режимом Deep Research (“Подробное исследование”) в ChatGPT 5. Запросил провести сравнение строки Илиады в версии папируса P.Mich.Inv.6972 c вульгатой (Vulgate – я на английском запрос написал). “Вульгатой” в гомероведении называют, грубо говоря, “стандартный” текст, например, Илиады. Это общепринятый термин, понятный сразу любому специалисту в данной и в смежных областях.

Гомеровская вульгата сформровалась сильно позже исходных текстов, поэтому в старых папирусах есть расхождения – это большая тема в филологии, в лингвистике и в истории. Так что запрос более чем содержательный.

Но ChatGPT начало сравнивать с латинской Библией, которая, конечно, тоже Вульгата, но в гомеровском контексте выглядит не самым подходящим вариантом. Потратился целый “поинт”, соответствующий одной задаче Deep Research. Вот такое вот “исследование” идёт на замену филологам.



Комментировать »

В известном журнале Nature/Scientific Reports недавно опубликовали “научную статью”, которая “использует сгенерированную ИИ диаграмму, содержашую чепуху” (“uses an AI-generated figure containing nonsense”). Это не преувеличение, это – цитата из официального текста сообщения Nature об отзыве той статьи.

Вдумайтесь: статья в научном издании, – выходящем, на минуточку, “под зонтиком” Nature, – была опубликована, несмотря на то, что в ней, в качестве иллюстрации с описанием методики, использовалась большая диаграмма, явно сгенерированная LLM. То, что это сгенерированная “диаграмма с чепухой”, видно невооружённым глазом. Разобраться можно, примерно, за пять секунд: потому что на этой диаграмме присутствуют “термины” “fexcectorn” и “frymblal”, причём, в последнем, в “frymblal”, – так ещё и буква m имеет дополнительную “ногу”. (Диаграмму, кому интересно, нетрудно найти на сайте Nature, в исходной статье.)

Такова реальность использования ИИ. Очевидно, до “сверхинтеллекта” тут осталось недолго: объявят, как говорится, через сообщения в газетах, не сомневайтесь.

(via)



Комментировать »

Кругом buzzwords про ИИ. Некоторых эти самые buzzwords уже пугают. Вот и до Firefox добрались: в новом “стратегическом сообщении” пишут, что переделают Firefox в “современный ИИ-браузер” (“It will evolve into a modern AI browser and support a portfolio of new and trusted software additions”).

С одной стороны, понятно, что это просто дежурная штамп-фраза, без которой сейчас никуда в области корпоративных пресс-релизов. С другой стороны, для Firefox, конкретно, звучит оно пугающе. ИИ-хайп настолько уже велик, что подкладывают его везде. Нормального ПО нынче всё меньше. Почему? Потому что – ну, как же! – “ИИ полностью трансформировал разработку!”. Тут того и гляди линуксовое ядро начнут превращать в “ИИ-агента”, а там и до FreeBSD доберутся. Так что браузеров-то и подавно, считай, не осталось уже.



Комментарии (3) »

С некоторым удивлением обнаружил, что “Хабр” теперь подставляет некие ссылки на ИИ-агентов прямо в текст статей, туда, где, конечно, никаких таких ссылок быть не могло. Пример на скриншоте ниже я взял из своей статьи про сложение точек эллиптической кривой.

Screenshot

Понятно, что “Объяснить код с” – это добавление. Я в статье использовал только блок разметки “Код”, но не указывал никаких там рекламных ИИ-агентов. Разметка является составляющей частью текста статьи, тем более, на “ИТ-сайте”, а блок разметки для кода – это блок разметки для кода, но не место контекстной ссылочной рекламы (для такого должен быть тогда уж отдельный тип блока). Понятно, конечно, что на подобном сайте может (но не должна, заметьте) быть реклама: там уже есть и всякие всплывающие окошки, и баннеры, и ссылки, и т.д. Но подмешивать ссылки в текст статьи – это как-то слишком. Особенно, когда это очередной ИИ-хайп.



Комментарии (2) »

В качестве ответа на весьма разумные предупреждения о том, что “умные колонки” могут подслушивать окружающих, СМИ цитируют сообщение пресс-службы “Яндекса”, в котором по этому поводу говорится, что, мол, колонки подслушивать не могут, потому что, буквально, “процесс обработки голоса запускается только в тот момент, когда микрофоны улавливают активационное слово”. Это очень забавно.

То есть, чтобы начать “обработку голоса” – их колонке нужно “уловить активационное слово“. Но ведь очевидно, что для улавливания слова – необходимо обработать голос.

Кстати, я недавно писал про то, что “кнопка отключения микрофона”, – в подобном-то устройстве, – так себе аргумент.



Комментировать »

Попытались силами ChatGPT определить дату выпуска японской монеты периода Мэйдзи номиналом в 20 сенов. Загрузили в ChatGPT современной версии (пятой) фотографию именно той стороны монеты, на которой указана искомая дата (ну, такой эксперимент), направили “промпт” на русском языке. ChatGPT узнало монету в 20 сенов, рассказало, что годы таких японских монет обозначаются по периодам императорского правления (это верно), привело пример обозначения (!), а потом заявило, что нужно перевернуть монету и прислать фотографию другой стороны – типа, дата написана на другой стороне, а по имеющейся фотографии определить нельзя. Но на другой стороне написан номинал, а не дата. Дата как раз записана на той картинке, которую в ChatGPT и загрузили (специально).

Очередной типичный и практический пример, показывающий реальный уровень “полезности” данного инструмента и то, сколько там “интеллекта”. А ведь утверждают, что ИИ LLM нужно поручить анализ данных медицинской диагностики: рентгенограмм там, и других подобных данных. Но это одна из самых продвинутых LLM – и не может прочитать год выпуска старой японской монеты, хотя приводит верное описание того, как этот год записывается и интерпретируется.

Да, на таких японских монетах дата указывается по году периода, и записывается набором из нескольких иероглифических знаков. Если слева направо: обозначение “год”, потом номер самого года, потом – обозначение периода. Например (здесь группы знаков разделены точками, для наглядности): 年 . 七十三 . 治明. То есть, если теперь справа налево, то “Мэйдзи 37-й год”, или 1904 “европейский”. На аверсе монеты 1904 года в 20 сенов дата отчеканена справа от латинского обозначения номинала “20 sen” (см. фото ниже). Именно фотографию аверса и отправили для анализа. Присутствие латинских букв и арабских цифр могло бы помочь ChatGPT, если бы там был “интеллект”, но не помогло. На реверсе же монеты написан только номинал “20 сенов”, но японскими обозначениями: то есть, японские цифры там присутствуют, но это не год.

20 sen coin

Аверс монеты – слева на коллаже. Именно эту фотографию и направили в ChatGPT (конечно, в большем разрешении).

Нетрудно предположить, как такой ответ ChatGPT получился: в интернетах на форумах часто пишут про монеты, что, мол, пришлите “фотографию лучшего качества”, “можно понять только по другой стороне” и т.д. Вот наборы таких фраз и склеились в ответ. При этом верное, в общем-то, описание – никак не повлияло на ошибочную формулировку. Потому что описание сконструировано не из смысла запроса, а исходя из набора “токенов” (слов и слогов) и их взаимного расположения. Это – программа. Генератор текстов.

Получается, что ChatGPT таким ответом даже успешно запутало бы незнакомого с предметом пользователя – ведь в предложении перевернуть монету есть логика: да, часто дата отчеканена на другой стороне, не на той, где написан номинал (пояснение: номинал здесь пользователь читает там, где он записан латиницей и арабскими цифрами).

А о том, что вышло бы из ChatGPT после загрузки фотографии реверса, мы в этой записке не узнаем: доступные токены закончились – видимо, картинки потребляют их особенно много.



Комментировать »

Воплощение известного советского анекдота в эпоху “ИИ-хайпа”. При помощи сервиса ChatGPT, используя его как поисковую систему по корпусу текстов, нашли научные публикации с решениями некоторых задач Эрдёша (Эрдёш поставил очень много интересных задач). То есть, задачи эти были давно решены, но составитель списка решений использовал ChatGPT, чтобы найти ссылки на работы – и сервис ChatGPT ссылки нашёл (кто бы сомневался – публикации по запросам на естественном языке эта штука находит неплохо). Однако вице-президент OpenAI, комментируя результат, сообщил, что это “ИИ ChatGPT решило десять открытых проблем Эрдёша“. То есть не нашли старые работы с решениями, а решили открытые проблемы.

После бурной реакции тех, кто оказался в теме, хайп-сообщения “про решение силами ChatGPT” – удалены. Более подробный разбор, со скриншотами удалённых уже “твитов”, есть на сайте The Decoder (англ.). Журналисты издания задаются резонным вопросом: как так могло получиться, что ведущие AI-исследователи из OpenAI публикуют подобные “сильные утверждения”, даже не проведя минимальную проверку фактов? И действительно – как? Риторический вопрос.



Комментировать »

Ars Technica пишет (англ.), что корпорация Deloitte пыталась сдать правительству Австралии некоторый отчёт по результатам исследования автоматизированной системы, используемой одним из министерств, но в тексте отчёта обнаружились ссылки на несуществующие публикации и вымышленные цитаты, приписанные вполне реально существующей сотруднице университета, профессору. Что, собственно, и вызвало подозрения. Естественно, текст был сгенерирован ИИ, в чём Deloitte и признались. Пример “успешного внедрения ИИ-инструментов”, чего уж там.

Теперь часть денег, выплаченных австралийским правительством за отчёт, сгенерированный ИИ, правительству вернут, а текст отчёта поправили, скорректировав “спорные моменты”. Подготовка отчёта, как заявлено, обошлась налогоплательщикам в $290000. То есть, смысл подобных отчётов тёмен, однако экономия на “генерировании ИИ”, видимо, очень существенная. Но никто из “людей в теме” не посмотрел результат. И понятно почему никто не посмотрел: какой экономический смысл в том, чтобы специалисты просматривали и корректировали “галлюцинации ИИ”? Смысла нет – эффективность тут же падает до нуля, и даже ниже, потому что это очень дорого, разбирать сгенерированный бред.



Комментировать »

Один из сервисов RIPE NCC (это региональная регистратура IP) присылает мне раз в месяц по электронной почте письмо с некоторой простой статистикой, связанной с этим сервисом. Статистика там пустая. Так и должно быть: я свою часть этого сервиса давно отключил. Но вот сегодня данное письмо пришло с содержанием в формате HTML. И только в HTML. Да ещё и со ссылкой на внешний файл с изображением (<img>). Естественно, никакого смысла использовать HTML там нет.

До этого момента, много лет, приходило нормальное письмо, в text/plain. Видать, добрались и до систем RIPE NCC новые веяния. Печально. Скоро нужно ожидать перехода от BGP к построению маршрутов силами AI/LLM через парсинг HTML-страниц.



Комментировать »