ИИ с превышением
Забавно читать, что среди угроз “для человечества”, связанных с искусственным интеллектом (ИИ), называют “создание экземпляра, интеллект которого превысит человеческий”. Речь, конечно, о LLM. Тот ещё риск, да – неожиданно появится кто-то умнее “заказчика”. Вообще, интеллект пока что определять не научились универсальным способом, не ясно, является ли интеллект вычислимым, а тут ещё и сравнение уровней, с навязчивым выводом про угрозы. Конечно, речь-то обычно идёт не о более интеллектуальном, а о более хитром ИИ. Но когда сверхзадача сводится к созданию удобного административного регулирования, позволяющего ранжировать потенциальных конкурентов, то хитрость может оказаться приравнена к универсальному интеллекту: “здесь ИИ с превышением, необходимо немедленно отключить”.
А так, что касается способности ИИ перехитрить человеков – тут, конечно, не стоит ожидать каких-то сложностей: на фоне того, что “компьютер не может ошибаться”, удачливый ИИ, да в диалоговом режиме, сможет, конечно, подсказать человеку с подходящими полномочиями, как совершить какую-нибудь неприятность. Примеры известны, угроза реальна, но к “превышению интеллекта” отношения не имеет.
Адрес записки: https://dxdt.ru/2023/10/24/11293/
Похожие записки:
- Модули DH в приложении Telegram и исходный код
- Маячки для Google Maps
- Фотографии штатовских президентов
- Геопривязка в персональных цифровых финансах
- Ретроспектива заметок: программный код из "реальности" в "виртуальности"
- ИИ и математические задачи, "автоматизированные" дважды
- Компиляторы в песочницах и сравнение программ
- Доверенные программы для обмена сообщениями
- Starlink и орбитальный доступ для смартфонов
- Техническое: certbot, проскользнувший мимо веб-сервера
- "Инспекция" трафика с сохранением конфиденциальности
Написать комментарий