Галлюцинации ИИ в словах года
Кембриджский словарь (Cambridge Dictionary) английского языка назвал словом года 2023 слово hallucinate. Неплохой выбор. Однако обоснование не то, на которое можно понадеяться: речь всего лишь о дальнейшей поддержке “хайпа” вокруг ИИ (LLM – конкретно). Для толкового словаря это, наверное, даже правильно, поскольку дескриптивный подход тут лучше прескриптивного.
Hallucinate (“галлюцинировать”), в значении термина AI (LLM ИИ), словарём определяется так: “когда искусственный интеллект галлюцинирует – он (it) выдаёт ложную информацию (false information)”. Заметка по ссылке выше, объясняющая выбор слова, заслуживает прочтения (или прослушивания чтения – там есть прекрасная запись, полностью соответствующая Кембриджу по языку). Заметка отлично иллюстрирует восприятие популярного ИИ со стороны, так сказать, филологии – а это вам не СМИ широкого профиля. Например, там есть рассуждение о том, что рост популярности LLM может привести к возникновению новой специальности – “инженерии подсказок”, так сказать (в оригинале: prompt engineering). Такой специалист по подсказкам ИИ, сколь бы странным это ни показалось, будет “знать, как составлять вопросы и запросы к инструментам ИИ, чтобы получить в точности те ответы, какие вам нужны”. Напоминает некоторые классические литературные произведения. Причём, чем лучше вы вчитываетесь в это описание специальности, тем больше произведений оно напоминает. Зачем вообще ИИ, если характеристики ответа уже известны с высокой точностью?
К сожалению, использование термина “галлюцинировать” в отношении систем LLM, да ещё и в таком толковании, как теперь закрепляет словарь, это не очень-то правильно. LLM – это программы, выводящие цепочки слов. Если эти программы вообще “галлюцинируют”, то они галлюцинируют всегда – просто, в некоторых случаях, выдаваемые потоки слов похожи на “информацию”, которая совпадает с “подлинными фактами”. А так – никаких “галлюцинаций” там быть не может: программа работает одинаково, а восприятие определяется читающим выдачу человеком.
Заметьте, что с “галлюцинированием”, в исходном значении, и так не всё понятно: наличие разнообразных иллюзий, будь то цвет платья или разное понимание звуков, показывает, что “галлюцинации”, как минимум, могут оказывать заметное и непрерывное влияние на восприятие окружающей действительности человеком. Что, впрочем, вряд ли является достаточным основанием для утверждений типа “ИИ – это компьютерная система, которая обладает некоторыми качествами, свойственными человеческому мозгу”, как в словарной статье Hallucinate Кембриджского словаря.
Адрес записки: https://dxdt.ru/2023/11/15/11555/
Похожие записки:
- Сетевая геолокация передатчиков
- Мощности для квантовых вычислений
- Электростанции и пчёлы
- GNSS и управление трактором
- "Блокирующие" источники случайности в операционных системах
- Продолжение "скандализации" OpenAI
- Рекурсивный ИИ с понижением "сверхразумности"
- Перенос статей "Википедии"
- Самые "старые" чёрные дыры в новостях
- "Огненная машина" из манускрипта
- Удаление аккаунтов GoDaddy
Комментарии читателей блога: 4
1 <t> // 15th November 2023, 17:26 // Читатель Nataraj написал:
Так и человеческий мозг тоже галлюцинирует всегда. Просто в штатном режиме эти галлюцинации как-то согласованы с окружающей реальностью, и как следствие с галлюцинациями окружающих.
2 <t> // 15th November 2023, 17:50 // Александр Венедюхин:
Вот поэтому тоже не стоит приписывать данное свойство и LLM.
3 <t> // 16th November 2023, 18:21 // Читатель beldmit написал:
Ну вообще я когда-то слышал про “брокера поисковых систем” – человека, который умеет правильно строить запросы. Сейчас, кстати, тоже полезный навык, потому что поисковые системы стали излишне либеральными в оценке релевантности запроса, и это проблема.
4 <t> // 16th November 2023, 22:58 // Александр Венедюхин:
В поисковой системе, всё ж, хоть какой-то намёк на обращение к “базе данных”. А в ИИ – только затравка для генератора.
Написать комментарий