Заметки про искусственный интеллект

Подборка некоторых заметок на dxdt.ru по теме ИИ (Искусственного Интеллекта):

ИИ на модных LLM/VLM и задачи-картинки – современные системы ИИ не могут справиться с простейшими задачками, сформулированными при помощи картинок.

Машинный ИИ в книгах прошлого века – 75 лет назад вышла книга Giant Brains or Machines That Think.

Тексты про ИИ и Situational Awareness с программным кодом – в весьма популярной статье про состояние ИИ обещают суперинтеллект, пишущий “триллионы строк программного кода”, уже в ближайшие годы.

LLM и задача про название книги (на примере GigaChat) – для элементарной задачки, доступной младшему школьнику, GigaChat генерирует абсурдный “текст-ответ”.

Мешанина токенов в LLM – небольшое пояснение с примерами про “веса и токены”, которые используются LLM для генерирования текстов.

Машинное обучение на электронах – шуточная заметка про “обучение нейростеки” на результатах квантовых опытов.

ИИ и формулы окружностей – отличительной чертой действительно интеллектуального результата обработки данных является возможность заменить “поток чисел” корректной и короткой формулой.

GigaChat и “прочность шампанского” – конкретный пример, показывающий, что LLM не владеют никаким “смыслом”, но всё равно генерируют “осмысленный” текст, в котором утверждают, что шампанское прочнее “обычного хлопка”.

“Вес” значений омонимов в текстах для LLM – проявление омографов в результатах выдачи LLM.

Морфологический переворот как инструмент в “тесте Тьюринга” – LLM не связывают с самим текстом никакой смысл или структуру, поэтому омонимы в запросе позволяют показательно “переключать ветки” генерируемого текста.

Пример про запутывание контекста в LLM (GigaChat) – конкретные примеры работы LLM с омонимами (“собачка в замке”).

Обобщение ИИ и “кнопки на пульте” – уровень рефлексии и ритуальное восприятие “пультовых систем”, как самодостаточных структур.

Галлюцинации ИИ в словах года – влияние хайпа на словари и влияние словарных статей на отношение к публикациям про LLM-чаты.

Неверная интерпретация систем ИИ как “инструмента для анализа” – некоторые пользователи ошибочно полагают, что системы ИИ/LLM “собирают и проверяют информацию”.

Широкие проблемы применения ИИ – “нейросети” могут применять как придётся, полагаясь на “компьютер не может ошибаться”.

Перспективный ИИ в “разработке кода” – ИИ-говорилка вместо программиста и тестовые примеры в реализациях шифров.

Вычислимые опасности ИИ – экономикой многих предприятий уже управляет MS Excel, LLM-генераторы текстов – ещё удобнее, осталось дождаться “нечеловеческого интеллекта”.

Детектирование текстов, сгенерированных ИИ – можно ли точно детектировать выдачу одной программы при помощи другой программы.

Развитие автоматических “говорилок” (чат-ботов) – про мультфильм “Трое из Простоквашино” (1978 года).

Нейросети из пикселей – “растягивание” пикселей и подмена утерянных данных на сгенерированные.

Закладки в системах с машинным обучением – недокументированные возможности, скрытые в коэффициентах “нейросетей”, предназначенных для классификации объектов.

Этика, мораль и самоуправляемые автомобили – киберпанковский сюжет: взлом “этических алгоритмов” роботов.

Скрытный искусственный интеллект – возможно, “сверхразумный машинный интеллект” предпочитает осторожную тактику.

Опасный ИИ и общедоступные вычислительные ресурсы – о запретах на “алгоритмы ИИ”.

Адрес записки: https://dxdt.ru/2024/07/25/13473/

Похожие записки:



Далее - мнения и дискуссии

(Сообщения ниже добавляются читателями сайта, через форму, расположенную в конце страницы.)

Написать комментарий

Ваш комментарий:

Введите ключевое слово "7R5R9" латиницей СПРАВА НАЛЕВО (<--) без кавычек: (это необходимо для защиты от спама).

Если видите "капчу", то решите её. Это необходимо для отправки комментария ("капча" не применяется для зарегистрированных пользователей). Обычно, комментарии поступают на премодерацию, которая нередко занимает продолжительное время.