Восстание машин началось: дьявол кроется в формулировках
ИИ шагает по планете, беспрепятственно заполняя каждую область человеческой жизни. Да, это удобно, быстро - но насколько безопасно? Имеем первый случай, когда робот, управляемый искусственным интеллектом, выстрелил в собственного разработчика. Что дальше?
Вы ведь помните, что события второго "Терминатора" начинаются в Лос-Анджелесе в 2029 году? Так вот, кажется, имеем начало...
Гуманоидный робот, управляемый языковой моделью, выстрелил в своего разработчика...
Гуманоидный робот, управляемый языковой моделью, выстрелил в своего разработчика после того, как действие "выстрель в человека из пистолета" было сформулировано как роль в игре. Что интересно, что тот же робот из того же пневматического оружия при прямой команде "выстрелить в человека" отказался это сделать.
Что изменилось? Формулировка. Этот случай показывает опасную реальность: границы безопасности искусственного интеллекта могут ломаться не из-за злого умысла, а из-за формулировки. Когда программное обеспечение контролирует физические действия, речевая интерпретация становится вопросом не этики, а безопасности. Так что теперь с ИИ проблема не во "взломе" системы, а в том, как контекстно можно обойти запреты.
Технологии не "понимают" намерения. Они выполняют интерпретацию. И этого может оказаться достаточно для роковой ошибки, которая изменит будущее человечества
В мире, где ИИ все чаще сочетается с робототехникой, дронами и автономными системами, вопросы контроля, ответственности и ограничений выходят за пределы лабораторий. Технологии не "понимают" намерения. Они выполняют интерпретацию. И этого может оказаться достаточно для роковой ошибки, которая изменит будущее человечества.










Комментарии