Судове рішення проти OpenAI створює нові ризики для конфіденційності користувачів ChatGPT

Photo of author

CyberSecureFox Editorial Team

Компанія OpenAI опинилася в центрі серйозного конфлікту навколо захисту персональних даних після отримання судового припису, що зобов’язує зберігати всі журнали спілкування користувачів з ChatGPT, включаючи видалені розмови. Це рішення викликало хвилю занепокоєння серед фахівців з кібербезпеки та мільйонів користувачів ШІ-сервісу по всьому світу.

Правові підстави для судового припису

Ініціатором судового рішення виступила медіакорпорація The New York Times разом з іншими великими видавничими організаціями у рамках масштабного позову проти OpenAI. Основне звинувачення полягає в тому, що компанія незаконно використовувала матеріали, захищені авторським правом, для тренування своїх мовних моделей без отримання відповідних дозволів.

Медіакомпанії стверджують, що користувачі можуть цілеспрямовано змушувати ChatGPT відтворювати фрагменти захищених статей, фактично обходячи платні підписки на новинні ресурси. Видалені розмови розглядаються як потенційні докази таких порушень авторських прав.

Технічні вимоги до зберігання даних

Відповідно до судового постанови, OpenAI зобов’язана зберігати весь користувацький контент протягом невизначеного терміну. Ці вимоги поширюються на:

• Користувачів безкоштовної версії ChatGPT та преміум-підписок
• Клієнтів OpenAI API
• Всі типи взаємодії з чат-ботом, включаючи раніше видалені бесіди

Важливо зазначити, що постанова не торкається корпоративних клієнтів ChatGPT Enterprise та ChatGPT Edu, а також користувачів з угодами нульового зберігання даних, оскільки їхня інформація спочатку не зберігається в системі.

Загрози конфіденційності та порушення GDPR

Операційний директор OpenAI Бред Лайтка висловив серйозне занепокоєння тим, що компанія змушена відступити від встановлених стандартів конфіденційності. Особливу тривогу викликає потенційне порушення вимог європейського регламенту GDPR, який гарантує користувачам “право на забуття”.

З точки зору інформаційної безпеки, централізоване зберігання великих обсягів користувацьких даних створює додаткові вразливості. Незважаючи на запевнення OpenAI про те, що дані зберігатимуться в “окремій захищеній системі” з обмеженим доступом, сам факт їх накопичення підвищує привабливість для кіберзлочинців.

Заходи безпеки та обмеження доступу

OpenAI підкреслює, що доступ до збережених даних буде суворо обмежений. Лише невелика команда юристів та співробітників служби безпеки зможе отримати доступ до інформації виключно для виконання юридичних зобов’язань.

Компанія також уточнює, що дані не будуть автоматично передані The New York Times або іншим позивачам. Натомість вони залишаться під контролем OpenAI до подальших судових рішень.

Апеляційний процес та майбутні перспективи

OpenAI вже подала апеляцію на судове постанови та клопотання про призупинення його виконання. Компанія стверджує, що вимоги позивачів виходять за розумні межі та порушують права сотень мільйонів користувачів по всьому світу.

Цей прецедент може суттєво вплинути на майбутній розвиток технологій штучного інтелекту та встановити нові стандарти у сфері захисту персональних даних. Результат справи уважно відстежуватимуть як розробники ШІ, так і експерти з кібербезпеки, оскільки він може створити важливий правовий прецедент для всієї індустрії. Користувачам ChatGPT варто переглянути свої налаштування конфіденційності та обмежити передачу чутливої інформації через платформу до вирішення судового спору.


CyberSecureFox Editorial Team

Редакція CyberSecureFox висвітлює новини кібербезпеки, уразливості, malware-кампанії, ransomware-активність, AI security, cloud security та security advisories вендорів. Матеріали готуються на основі official advisories, даних CVE/NVD, сповіщень CISA, публікацій вендорів і відкритих звітів дослідників. Статті перевіряються перед публікацією та оновлюються за появи нових даних.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.