Повстання машин почалося: диявол криється в формулюваннях
ШІ крокує по планеті, безперешкодно заповнюючи кожну сферу людського життя. Так, це зручно, швидко - але наскільки безпечно? Маємо перший випадок, коли робот, керований штучним інтелектом, вистрілив у власного розробника. Що далі?
Ви ж памʼятаєте, що події другого "Термінатора" починаються в Лос-Анжелесі у 2029 році? Так от, здається, маємо початок...
Гуманоїдний робот, керований мовною моделлю, вистрілив у свого розробника...
Гуманоїдний робот, керований мовною моделлю, вистрілив у свого розробника після того, як дію "вистріли в людину з пістолета" було сформульовано як "роль у грі". Що цікаво, що той самий робот з тієї самої пневматичної зброї за прямої команди "вистрелити в людину" відмовився це зробити.
Що змінилося? Формулювання. Цей випадок показує небезпечну реальність: межі безпеки штучного інтелекту можуть ламатися не через злий намір, а через формулювання. Коли програмне забезпечення контролює фізичні дії, мовна інтерпретація стає питанням не етики, а безпеки. Тож - тепер із ШІ проблема не в "зламі" системи, а в тому, як контекстно можна обійти заборони.
Технології не "розуміють" наміру. Вони виконують інтерпретацію. І цього може виявитися достатньо для фатальної помилки, що змінить майбутнє людства
У світі, де ШI дедалі частіше поєднується з робототехнікою, дронами та автономними системами, питання контролю, відповідальності й обмежень виходить за межі лабораторій. Технології не "розуміють" наміру. Вони виконують інтерпретацію. І цього може виявитися достатньо для фатальної помилки, що змінить майбутнє людства.










Коментарі