Неверная интерпретация систем ИИ как “инструмента для анализа”
Есть ещё такой аспект в практическом использовании систем “текстового” ИИ, типа ChatGPT: некоторые пользователи думают, что когда они задают этой системе “задание” написать текст по некоторой теме, то ИИ собирает информацию, проверяет предмет через “поисковые системы” и извлекает данные из “научных статей”.
Собственно, именно на этой интерпретации основана идея, что ИИ “заменит учёных” (оно, конечно, опрос “воображаемого эксперта”, как метод, для некоторых СМИ вполне может если и не заменить, то сильно облегчить, это факт). Чуть более маркетинговое толкование на этом же направлении приводит к предложению использовать ИИ для получения “краткого пересказа” статей.
При этом то, с чем имеют дело пользователи современных систем ИИ в реальности, это всего лишь программы, которые генерируют текстовый вывод по внутренним шаблонам, отталкиваясь от заданных в запросе слов и предложений. То есть, не анализируют публикации, не собирают данные, а генерируют формальный текст по словарю в соответствии с алгоритмом и коэффициентами, взятыми из базы компьютерной нейросети, но делают это очень хорошо, почему и вводят в заблуждение.
А так, конечно, “компьютер не может ошибаться“.
Адрес записки: https://dxdt.ru/2023/10/28/11336/
Похожие записки:
- Алгоритм Шора и Вселенная кубиками
- Приложение про DNS к описанию TLS
- Развитие автоматических "говорилок" (чат-ботов)
- "Пасхалка" в экспериментальном сервере TLS
- Споткнувшаяся симуляция Вселенной
- Описание возможностей тестового сервера TLS 1.3
- Закладки в системах с машинным обучением
- Постквантовые криптосистемы на экспериментальном сервере TLS
- Реплика: алгоритм Шора
- Apple и процессор радиоканала 5G
- Квантовые вычисления для филологов
Написать комментарий