Політика Meta дозволяє використовувати всі публікації для навчання свого ШІ

Дмитро Сизов
Політика Meta дозволяє використовувати всі публікації для навчання свого ШІ

Завдяки нещодавно запропонованій зміні політики користувачі Facebook і Instagram у Європейському Союзі та Великобританії дізналися, що Meta планує використовувати все, що вони опублікують у відкритому доступі, для навчання своїх моделей генеративного штучного інтелекту (genAI).

У США Meta вже давно використовує публічні публікації у Facebook та Instagram для навчання свого чат-бота Meta AI — про що багато користувачів не знають. У навчанні також використовується взаємодія користувачів із Meta AI.

Зміни Meta у своїй політиці конфіденційності , яка спочатку мала набути чинності 26 червня для користувачів Європейського Союзу та Великобританії, дозволять їй використовувати загальнодоступні публікації, зображення, коментарі та інтелектуальну власність для навчання Meta AI та моделей, які його забезпечують, зокрема модель великої мови компанії Llama (LLM). LLM — це алгоритми або програми, що стоять за двигунами genAI. Компанія заявила, що не буде використовувати приватні пости чи особисті повідомлення для навчання своїх моделей.

Відповідно до прес-релізу Meta від 10 червня, користувачі в ЄС і Великобританії зможуть відмовитися від використання їхнього контенту для навчання ШІ, але лише заповнивши форму заперечень.

Коли регуляторні органи ЄС і Великобританії дізналися про план Meta, вони відмовилися, посилаючись на занепокоєння конфіденційністю. Тоді Meta призупинила свої плани щодо зміни політики конфіденційності для користувачів у ЄС, додавши, що затримка «означає, що на даний момент ми не можемо запустити Meta AI в Європі».

Комісія із захисту даних Ірландії (DPC) опублікувала відповідь Meta, яка призупинила розгортання своєї нової політики, зазначивши, що «рішення було прийнято після інтенсивної взаємодії між DPC і Meta. DPC у співпраці з іншими органами ЄС із захисту даних продовжуватиме співпрацювати з Meta з цього питання».

Meta відповіла на запит Computerworld про коментарі , вказавши на публікацію в блозі директора компанії з глобальних залучень Стефано Фратта. У своїй публікації Фратта сказала, що Meta наслідує «приклад інших, включаючи Google і OpenAI, які вже використовували дані європейців для навчання ШІ».

«Наш підхід більш прозорий і пропонує легші засоби контролю, ніж багато хто з наших колег у галузі, які вже навчають свої моделі на подібній загальнодоступній інформації», — сказав Фратта. «Моделі створюються на основі аналізу інформації про людей для виявлення шаблонів, як-от розуміння розмовних фраз або місцевих посилань, а не для ідентифікації конкретної особи чи її інформації».

Фратта повторив, що Meta будує свою базову модель ШІ, використовуючи лише той вміст, який користувачі вирішили оприлюднити.

У США, де захист конфіденційності слабший, ніж у Великій Британії та Європі, користувачі Meta ніколи не мали можливості відмовитися від використання їхніх публічних публікацій і коментарів для навчання моделей ШІ компанії. У заяві, опублікованій New York Times , Мета сказав про користувачів США: «Хоча ми зараз не маємо функції відмови, ми створили інструменти на платформі, які дозволяють людям видаляти свою особисту інформацію з чатів із Метою. ШІ в наших програмах».

Аналітик віце-президента Gartner Авіва Літан сказав, що заплановане Meta використання повідомлень європейських користувачів та іншої інформації «дуже бентежить», і «Meta просто дала користувачам більше причин не довіряти їхнім послугам».

Як мінімум, за словами Літана, Meta має бути більш прозорим і полегшити користувачам відмову та зрозуміти, які наслідки це матиме, відмовляться вони чи ні.

«Користувачі та наші корпоративні клієнти виправдано стурбовані тим, що власники моделей використовують їхні особисті дані для навчання та вдосконалення своїх моделей. Фактично, це їхнє головне занепокоєння, коли йдеться про ризики та загрози genAI», — сказав Літан. «Тепер Мета підтверджує, що їхні страхи справедливі».

Спочатку Meta повідомила користувачів про зміну своєї політики конфіденційності 31 травня в електронному листі під назвою «Ми оновлюємо нашу політику конфіденційності, оскільки ми розширюємо AI у Meta». Частково в сповіщенні електронною поштою зазначено: «тепер ми будемо покладатися на правову основу під назвою законні інтереси для використання вашої інформації для розробки та вдосконалення ШІ в Meta».

Оновлення політики конфіденційності найчастіше залишаються непоміченими одержувачами, які звикли отримувати їх у великій кількості, сказав Літан. Більше того, зазначила вона, більшість користувачів не зрозуміють, як відмовитися від нової політики.

«Користувачі самовдоволено з’ясовують усі каламутні процеси конфіденційності чорної скриньки, які відбуваються за лаштунками, головним чином тому, що вони все одно не можуть їх зрозуміти», — сказав Літан. «Звичайно, у Meta немає нікого, з ким можна було б поговорити, якщо у вас виникли запитання, і у нас немає підручників чи відео, які б пояснювали, що означає не відмовлятися від участі або як це зробити», — додала вона.

За словами Літана, Meta повинна платити своїм користувачам за їхні дані, оскільки вони використовують їх для збільшення власної прибутковості.

Meta не єдина, хто використовує дані, опубліковані компаніями та користувачами, для розробки своєї технології. За винятком Apple, жоден із гіпермасштабувальників або технічних гігантів, які розміщують штучний інтелект, який використовують споживачі та компанії, не дозволяє користувачам підтверджувати свої заяви щодо безпеки та конфіденційності, сказав Літан. «Усе базується на моделі «довіряй, але не перевіряй».