Самоуправляемые автомобили: запланированные бэкдоры
Занятная статья Кори Доктороу о потенциальном “конфликте интересов”, связанном с тем, какие решения принимает автомобиль-робот в критических ситуациях – кого приносить в жертву. Речь о том, что владелец может вмешаться в логику распределения ущерба, “перепрошив” автомобиль. Интересное наблюдение: программно-аппаратная система должна бы включать защиту от перепрошивки базовых функций, но от этой защитной схемы, традиционно, могут потребовать наличия “официальных бэкдоров”, необходимых для специальных случаев: например, управление автомобилем перехватывает полицейский дрон. Бэкдоры, при этом, могут оказаться доступными для злоумышленников. Это означает, что о том, какие алгоритмы распределения ущерба будут в реальности применяться – останется только догадываться. И вряд ли стоит рассчитывать на победу наивной концепции, согласно которой достаточно “зашить” в управляющий компьютер строгое следование правилам дорожного движения, чтобы снять все этические и юридические проблемы, возникающие в момент, когда автомобиль будет делать выбор – наехать ли на группу пешеходов, перебегающих дорогу, или отвернуть, врезавшись в стену, пожертвовав, таким образом, своим пассажиром.
Адрес записки: https://dxdt.ru/2016/01/01/7791/
Похожие записки:
- "Умные" колонки и смартфоны
- ИИ для принятия решений
- Google и телефонные номера для авторизации
- Mozilla Firefox и внедрение рекламных сообщений
- Целевая подмена приложений и "прокси" для утечек
- ChatGPT и Volkswagen
- Техническое описание TLS: обновление 2022
- Ключи X25519 для гибрида с Kyber в Firefox
- Ссылка: статья о всеобъемлющих системах "обязательных указаний" на базе ИИ
- Техническое: poison-расширение и SCT-метки в Certificate Transparency
- Разноцветные шары и "анонимизация"