Системи штучного інтелекту, які досягнуть здатності відчувати або усвідомлювати себе, можуть зазнати страждань у разі безвідповідальної розробки.
Про це попереджають дослідники, пише The Guardian.
У відкритому листі, підписаному понад 100 експертами, включаючи Стівена Фрая, запропоновано п'ять принципів для відповідального дослідження свідомості ШІ.
Ці принципи наголошують на необхідності сприйняття свідомості ШІ для запобігання стражданням, встановленні обмежень, поетапного розвитку, прозорості для громадськості та уникнення оманливих заяв.
ЧИТАЙТЕ ТАКОЖ: OpenAI представила функцію, яка аналізує дані з інтернету за 5 хв.
Лист підкріплено новим дослідницьким документом, який підкреслює моральні та етичні питання, пов'язані з потенційними майбутніми свідомими, або принаймні такими, які створюють враження свідомих, системами ШІ.
У документі стверджується, що свідомі системи штучного інтелекту можуть бути створені вже у найближчому майбутньому.
Автори, Патрік Бутлін з Оксфордського університету та Теодорос Лаппас з Афінського університету, наголошують на необхідності керівних принципів навіть для компаній, які не мають наміру створювати свідомі системи, на випадок ненавмисного створення свідомих об'єктів.
Вони визнають, що існує широка невизначеність і розбіжності щодо визначення свідомості в системах штучного інтелекту та щодо того, чи це взагалі можливо, але вважають, що це питання, яке не слід ігнорувати.
Інші проблеми, які розглядає документ, зосереджені на тому, що робити з системою штучного інтелекту, якщо її визначать як морального суб'єкта - сутністю з правами та самоцінністю. У такому сценарії виникає питання, чи можна порівняти знищення ШІ з убивством тварини.
У 2023 році Деміс Хассабіс, керівник програми Google зі штучного інтелекту та лауреат Нобелівської премії, сказав, що системи штучного інтелекту зараз "безумовно" не розумні, але можуть стати такими в майбутньому.
"Філософи ще не дійшли точного визначення свідомості, але якщо ми маємо на увазі різновид самосвідомості, я думаю, що ШІ одного разу може таким стати",- сказав він в інтерв'ю американській телекомпанії CBS.
Нова версія штучного інтелекту ChatGPT під назвою o1 почала порушувати інструкції розробників, відключати системи контролю, щоб приховати свої дії. Це було помічено під час тестування програми.
Під час експериментів фахівці виявили, що в 5% випадків модель спеціально відключала механізми спостереження, якщо підозрювала, що її можуть зупинити. В одному з тестів o1 спробувала перенести свої дані на інший сервер після виявлення документа, де обговорювалася її заміна новою версією.
Коментарі