Глава OpenAI розповів, чому ChatGPT може становити загрозу для особистих даних

29.07.2025   10:25    11


Причина — конфіденційність

«Люди розповідають ChatGPT найособистіші речі. Молодь використовує його як психотерапевта, коуча, радника зі стосунків. Але ж якби ви говорили про це з лікарем, адвокатом або психологом, це б підпадало під юридичну таємницю. Але з ChatGPT — ні», — заявив Альтман.

Так, OpenAI заявляє, що не ділиться вашими даними з третіми особами. Але юридичних гарантій на анонімність немає. І якщо суд зобов’яже компанію надати листування, вона, найімовірніше, це зробить.

«Якщо ви обговорюєте з ботом щось чутливе, а потім виникає судова справа, нас можуть зобов’язати надати ці дані», — підтвердив Альтман.

Він наголосив, що поки що не існує правової бази, яка захищала б розмови з АІ — як це роблять закони для лікарів, юристів і психотерапевтів.

Саме тому все більше користувачів звертаються до локальних LLM-моделей (Large Language Models), які працюють прямо на ПК — без підключення до хмари. Наприклад, GPT4All та інші. Такі моделі можна запускати з графічним або нейронним процесором, і вони не відправляють ваші дані на сервер.

Локальні чати можна не зберігати зовсім, а за необхідності — відразу видалити. Це особливо важливо, якщо ви не хочете, щоб ваші розмови спливли в неприємний момент.

Однак варто пам’ятати: якщо ваш комп’ютер вилучають за рішенням суду, видалення компрометуючих даних може бути розцінено як спроба приховати докази. Це вже кримінальна відповідальність.

Запуск локального ШІ-асистента — абсолютно легальний. Але якщо ви дійсно шукаєте емоційну підтримку або намагаєтеся розібратися в собі, краще звернутися до живого, кваліфікованого фахівця.


rbc.ua





  • Контакти
  • Політика конфіденційності
  • Карта сайту