Восстание машин началось: дьявол кроется в формулировках

ИИ шагает по планете, беспрепятственно заполняя каждую область человеческой жизни. Да, это удобно, быстро - но насколько безопасно? Имеем первый случай, когда робот, управляемый искусственным интеллектом, выстрелил в собственного разработчика. Что дальше?

Вы ведь помните, что события второго "Терминатора" начинаются в Лос-Анджелесе в 2029 году? Так вот, кажется, имеем начало...

Гуманоидный робот, управляемый языковой моделью, выстрелил в своего разработчика...

Гуманоидный робот, управляемый языковой моделью, выстрелил в своего разработчика после того, как действие "выстрель в человека из пистолета" было сформулировано как роль в игре. Что интересно, что тот же робот из того же пневматического оружия при прямой команде "выстрелить в человека" отказался это сделать.

Что изменилось? Формулировка. Этот случай показывает опасную реальность: границы безопасности искусственного интеллекта могут ломаться не из-за злого умысла, а из-за формулировки. Когда программное обеспечение контролирует физические действия, речевая интерпретация становится вопросом не этики, а безопасности. Так что теперь с ИИ проблема не во "взломе" системы, а в том, как контекстно можно обойти запреты.

Технологии не "понимают" намерения. Они выполняют интерпретацию. И этого может оказаться достаточно для роковой ошибки, которая изменит будущее человечества

В мире, где ИИ все чаще сочетается с робототехникой, дронами и автономными системами, вопросы контроля, ответственности и ограничений выходят за пределы лабораторий. Технологии не "понимают" намерения. Они выполняют интерпретацию. И этого может оказаться достаточно для роковой ошибки, которая изменит будущее человечества.

Оригинал

Если вы заметили ошибку в тексте, выделите ее мышкой и нажмите комбинацию клавиш Alt+A
Комментировать
Поделиться:

Комментарии

Залишати коментарі можуть лише зареєстровані користувачі