ЄС планує очистити соціальні мережі від дезінформаторів і шахраїв
Дмитро Сизов
Майже через два десятиліття після народження Facebook, що поклало початок епосі соціальних мереж, ЄС запроваджує амбітне законодавство, спрямоване на очищення найбільших у світі онлайн-форумів.
Закон про цифрові послуги (DSA) призначений для боротьби з мізогінією, захисту дітей, припинення шахрайства споживачів, обмеження дезінформації та захисту демократичних виборів. Велика Британія запроваджує власний статут, законопроект про безпеку в Інтернеті , але правила ЄС, ймовірно, матимуть більший вплив, оскільки вони охоплюють більший ринок, а ЄС є більш впливовим як регуляторна сила.
«Закон про цифрові послуги є новаторським законодавством, яке встановить світові стандарти для регулювання вмісту та захисту користувачів від онлайн-шкоди», — сказав Пітер Черч, юрист з технологій Linklaters.
І DSA вже має в полі зору технологічні компанії. Нового власника Twitter Ілона Маска попередили, що його платформа не готова до нових правил, які можуть набути чинності для основних платформ наступного літа. Тьєррі Бретон, комісар ЄС з контролю за законодавством, сказав Маску, що у нього « попереду величезна робота », щоб переконатися, що Twitter дотримується закону.
Ось посібник із DSA та його значення для технологічних платформ та їхніх користувачів.
Що таке DSA?
DSA застосовується в ЄС і регулює, кажучи типовим законодавчим жаргоном, цифрові послуги, які діють як «посередники» у своїй ролі підключення споживачів до контенту, товарів і послуг. Це означає, що в сферу дії законопроєкту входять не тільки лайки Facebook і Google, а й Amazon і магазини додатків.
Його положення включають: захист дітей від створення профілю в рекламних цілях на сайтах соціальних мереж; надання користувачам засобів оскарження видалення контенту; забезпечення того, що продукти, що продаються на онлайн-ринках, таких як Amazon, не є підробленими; і вжиття заходів проти таких ризиків, як дезінформація та «кібернасильство» щодо жінок.
За порушення загрожує штраф у розмірі 6% світового обороту, а в найсерйозніших випадках – тимчасове припинення надання послуги. ЄС також може вимагати від сайтів вжити негайних заходів для розв'язання проблем. Користувачі зможуть вимагати відшкодування будь-якої шкоди, завданої їм порушенням закону.
Коли він набрає чинності?
Закон поділяє технологічні компанії на рівні. Найсуворіше регульований рівень охоплює дуже великі онлайн-платформи (VLOP) і дуже великі онлайн-пошукові системи (VLSE), які мають понад 45 мільйонів активних користувачів щомісяця. На початку наступного року ЄС визначить, які платформи підходять для цієї категорії. Для цього рівня, який може включати Facebook, Instagram, Google, TikTok і Amazon, є жорсткіші вимоги. Для VLOP і VLSE закон може набути чинності влітку та на початку наступного року для решти.
Великі оператори повинні проводити щорічну оцінку ризиків, в якій викладено ризики шкідливого контенту, такого як дезінформація, женоненависництво, шкода дітям і маніпуляції на виборах. Вони також повинні вжити заходів для пом’якшення цих ризиків, хоча всі основні соціальні медіа-платформи та пошукові системи вже мають групи модераторів вмісту. Однак, тепер ці системи будуть перевірені ЄС.
Великі платформи також повинні будуть опублікувати незалежний аудит дотримання ними закону, а також кількість людей, які вони використовують для модерації контенту. Вони також повинні надавати регуляторам подробиці роботи своїх алгоритмів, які контролюють те, що ви переглядаєте в Інтернеті, рекомендуючи вміст. Незалежним дослідникам також дозволять стежити за дотриманням закону.
Великі ринкові платформи, такі як Amazon, які не є виробниками контенту соціальних мереж, все одно повинні будуть проводити оцінку ризиків і публікувати незалежні аудити.
Спільне використання алгоритмів є великим кроком для технологічних компаній. Алгоритми рекомендацій – це «чорна скринька», де критерії пріоритетності вмісту можуть бути непрозорими. Однією з причин, чому компанії охороняють деталі, є захист від хакерів, спамерів і ворожих осіб.
Як захистить дітей?
Соціальним медіа-платформам буде заборонено створювати профілі дітей-користувачів, щоб компанії могли націлювати на них рекламу. Ті платформи, до яких можуть отримати доступ неповнолітні – по суті, більшість платформ соціальних медіа – повинні вжити заходів для захисту їх конфіденційності та безпеки. Основні платформи також повинні проводити оцінку ризиків вмісту, який завдає шкоди дітям, і вживати заходів, щоб запобігти охопленню такого вмісту особами віком до 18 років. Запропоноване законодавство ЄС має на меті охопити видалення онлайнових матеріалів сексуального насильства над дітьми.
А як щодо малих платформ?
Менші платформи, як і великі, звичайно, повинні надавати користувачам право скаржитися на видалення їх вмісту, а також додаткову можливість позасудового процесу оскарження, якщо їм не подобається, як розглядалася скарга. Однак рецидивістів, які постійно публікують незаконний контент, необхідно відсторонити.
Вони також повинні бути прозорими щодо оголошень і алгоритмів. Відповідно до DSA, платформи повинні надавати користувачам інформацію про те, чому їм показали рекламу. У ньому також має бути детально описано алгоритми, які використовуються для керування роботою користувача в Інтернеті.