
OpenAI попереджає: майбутні версії штучного інтелекту можуть стати настільки потужними, що здатні допомагати у зламах складних комп’ютерних систем. Компанія вже посилює безпеку, щоб запобігти використанню своїх моделей хакерами. Головний ризик — у можливості зловживання технологією людьми з недобрими намірами.
Потенційна кіберзагроза, про яку говорить сама OpenAI
У компанії зазначають, що ШІ розвивається швидше, ніж прогнозували. У тестах, що імітують дії справжніх хакерів, моделі демонструють дедалі вищі результати. Це означає, що у найближчі роки ШІ може виконувати завдання, які сьогодні під силу лише професіоналам у сфері кіберзлочинності.
OpenAI підкреслює: сам ШІ не почне “ламати” системи, але люди можуть використати його як інструмент. Саме цей фактор і створює загрозу.
Чому OpenAI посилює безпеку
Щоб уникнути зловживань, компанія запроваджує додаткові перевірки й обмеження для користувачів. Якщо запит виглядає підозрілим або може нашкодити, модель може заблокувати його або запропонувати безпечніший варіант відповіді.
Також OpenAI співпрацює з незалежними експертами з кіберзахисту. Їх завдання — імітувати роботу хакерів, знаходити вразливості та перевіряти, наскільки надійно моделі протидіють атакам.
Нові інструменти для безпечного використання
Компанія формує окремі команди, що працюють виключно над безпекою, і створює інструменти для пошуку програмних вразливостей. У OpenAI наголошують: розвиток ШІ робить кіберзахист центральним напрямом роботи, і компанія готується до можливих викликів заздалегідь.

4 







