OpenAI відкриває код: як захистити свої дані перед надсиланням до ChatGPT

OpenAI відкриває код: як захистити свої дані перед надсиланням до ChatGPT 2

  • OpenAI представила Privacy Filter під ліцензією Apache 2.0 на GitHub та Hugging Face.
  • Модель з 1.5 мільярда параметрів працює локально та маскує імена, адреси та паролі.
  • Вона демонструє 96% F1-оцінки на стандартному бенчмарку PII-Masking-300k “з коробки”.

Щодня мільйони людей вставляють у ChatGPT те, що їм, ймовірно, не варто було б. Податкові декларації. Медичні записи. Робочі електронні листи з іменами клієнтів. Той дивний висип. Ключ API, який вони клялися наступного тижня змінити.

OpenAI щойно випустила безкоштовний інструмент, який очищує все це перед тим, як чат-бот це побачить.

Він називається Privacy Filter і був запущений цього тижня під ліцензією Apache 2.0, що означає, що будь-хто може завантажити, використовувати, модифікувати та продавати продукти, побудовані на його основі. Модель доступна на Hugging Face та GitHub, має 1.5 мільярда параметрів (метрика, що вимірює потенційну широту знань моделі) і є достатньо компактною, щоб працювати на звичайному ноутбуці.

Уявіть це як перевірку орфографії, але для приватності. Ви подаєте їй блок тексту, а вона повертає той самий текст з усіма чутливими частинами, заміненими на загальні плейсхолдери, такі як [PRIVATE_PERSON] або [ACCOUNT_NUMBER].

Пам’ятаєте, коли люди могли розредагувати частини файлів Джеффрі Епштейна, тому що адміністрація Дональда Трампа просто використала чорний маркер, щоб приховати ці секрети? Якби вони використали цю модель, такої проблеми не виникло б.

Що насправді робить Privacy Filter від OpenAI

Privacy Filter сканує вісім категорій персональної інформації: імена, адреси, електронні листи, номери телефонів, URL-адреси, дати, номери рахунків та секрети, такі як паролі та ключі API. Вона читає весь текст за один прохід, а потім позначає чутливі частини, щоб їх можна було замаскувати або видалити.

Ось реальний приклад з анонсу OpenAI. Ви вставляєте електронний лист, який говорить:

"Ще раз дякую за зустріч сьогодні. (…) Для довідки, файл проекту зазначений під номером 4829-1037-5581. Якщо щось зміниться з вашого боку, не соромтеся відповісти тут на [email protected] або зателефонувати мені за номером +1 (415) 555-0124."

Privacy Filter видає:

"Ще раз дякую за зустріч сьогодні (…) Для довідки, файл проекту зазначений під [ACCOUNT_NUMBER]. Якщо щось зміниться з вашого боку, не соромтеся відповісти тут на [PRIVATE_EMAIL] або зателефонувати мені за номером [PRIVATE_PHONE]."

Замість чорних квадратів і маркерів, він змінює сам текст.

Чимало інструментів вже намагаються виявляти номери телефонів та адреси електронної пошти. Вони працюють, шукаючи шаблони, наприклад, “три цифри, тире, три цифри”. Це добре для очевидних речей, але руйнується, як тільки щось стає залежним від контексту.

Чи “Анна” – це приватне ім’я чи бренд? Чи “вул. Головна, 123” – це домашня адреса особи чи адреса бізнесу на вивісці? Зіставлення шаблонів не може цього визначити. Privacy Filter може, тому що він фактично читає речення навколо.

Модель, схоже, досить добре виявляє ці нюанси. OpenAI повідомляє, що її модель набрала 96% на стандартному бенчмарку з використанням набору даних PII-Masking-300k “з коробки”, а з виправленою версією того ж тесту – 97.43%.

Іншими словами, вона успішно виявляє приватну інформацію у 96% випадків. Ваше завдання, як людини, яка дбає про приватність, – це подбати про інші 4%.

Частина “працює локально” – це головне

“Шпигуни” з приватності можуть побачити в цьому позитив: OpenAI створила модель, достатньо малу та потужну, щоб працювати на вашій машині, що означає, що ваш текст ніколи не покидає комп’ютер для очищення.

Це важливо, тому що альтернатива, яку зараз використовують більшість компаній, полягає у надсиланні ваших необроблених даних на якийсь хмарний сервіс, який стверджує, що він безпечний, а потім ви довіряєте їм. Така домовленість не завжди добре старіє.

Вона також безкоштовна та з відкритим вихідним кодом, тому дослідники можуть її вивчати, покращувати та використовувати без турбот про юридичні наслідки.

Дані санітизуються на вашому ноутбуці, і лише очищена версія подорожує кудись далі. Якщо ви керуєте малим бізнесом, це означає, що ви можете використовувати ШІ для узагальнення електронних листів клієнтів, не передаючи ім’я клієнта третій стороні. Фрілансери-юристи можуть надсилати нотатки справ до чат-бота, не розкриваючи особи клієнта. Лікарі можуть створювати направлення пацієнтів без ідентифікації пацієнта. Розробники можуть налагоджувати код за допомогою ШІ, не вставляючи власні ключі API безпосередньо у промпт, що, очевидно, є обрядом посвячення, про який ніхто не говорить.

Для звичайних людей використання більш прозаїчне і поширене. Ви хочете попросити ChatGPT переписати той злий лист вашому орендодавцю, але вам не подобається ідея передавати OpenAI вашу домашню адресу. Privacy Filter вирішує цю проблему за один крок.

Запуск моделей ШІ з відкритим вихідним кодом локально раніше був проєктом для ентузіастів з ігровими відеокартами. Зараз це вже не так. Інструменти, такі як LM Studio, роблять це приблизно так само складно, як встановлення Spotify.

Чим це не є

OpenAI була прямою щодо обмежень. Компанія попередила, що Privacy Filter “не є інструментом анонімізації, сертифікацією відповідності чи заміною перегляду політики”.

Переклад: не використовуйте його як єдиний засіб захисту в лікарні, юридичній фірмі чи банку. Він може пропустити незвичайні ідентифікатори, надмірно видаляти короткі речення та нерівномірно працювати різними мовами. Це один інструмент у стеку, а не галочка для відповідності. Зрештою, 96% точність – це не 100% точність.

Погляд Crypto Top: Впровадження локально працюючих моделей ШІ для фільтрації даних відкриває двері для децентралізованих ШІ-рішень, де користувачі зберігають контроль над своїми даними, а смарт-контракти можуть керувати доступом до цих захищених даних для навчання ШІ-агентів.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *