Американська компанія OpenAI, якій належить чат-бот зі штучним інтелектом ChatGPT, змінила політику використання її застосунку.
Скасувала заборону на застосування ChatGPT у військових цілях. Про це повідомив сайт Intercept.
Раніше у положеннях компанії був пункт щодо "діяльності, яка має високий ризик фізичної шкоди". Наразі його формулювання змінилося.
За даними Intercept, до 10 січня сторінка "політики використання" OpenAI включала заборону на "діяльність, яка має високий ризик фізичної шкоди" включно з "розробкою зброї" і "військовою діяльністю".
Станом на 14 січня у політиці компанії змінили пункти щодо військової справи.
ЧИТАЙТЕ ТАКОЖ: Honda показала електромобілі Saloon і Space-Hub: такого дизайну у стилі кіберпанк ви ще не бачили
"Будь-яке використання наших технологій, у тому числі військовими, для розробки або використання зброї, поранення інших чи знищення власності або участь у несанкціонованих діях, які порушують безпеку будь-якої служби чи системи заборонено", - сказав представник OpenAI Ніко Фелікс.
ChatGPT – це штучний інтелект, створений компанією OpenAI. Він є однією з найбільших мовних моделей, яка вчилась на базі величезної кількості текстових даних.
ChatGPT може розуміти інформацію, використовуючи при цьому контекст, і відповідати на запитання та команди користувача в режимі реального часу.
Коментарі