Метанаглядова рада пропонує компанії оновити правила щодо порнографії, створеної ШІ

Дмитро Сизов
Метанаглядова рада пропонує компанії оновити правила щодо порнографії, створеної ШІ

Наглядова рада МЕТА заявила, що правила компанії «недостатньо чіткі» щодо заборони відверто сексуального зображення реальних людей, створених ШІ, і закликала внести зміни, щоб припинити поширення таких зображень на її платформах.

Рада, яка фінансується гігантом соціальних мереж, але працює незалежно, винесла своє рішення після розгляду двох порнографічних фейків відомих жінок, створених за допомогою штучного інтелекту та опублікованих у Facebook та Instagram Meta.

Meta заявила, що перегляне рекомендації ради та надасть оновлену інформацію про будь-які прийняті зміни.
У своєму звіті рада назвала двох жінок лише публічними особами з Індії та Сполучених Штатів, посилаючись на проблеми конфіденційності.
Правління визнало, що обидва зображення порушують правило Meta, що забороняє «принизливий сексуалізований фотошоп», який компанія класифікує як форму залякування та переслідування, і заявило, що Meta повинна була негайно їх видалити.
У випадку, пов’язаному з індійською жінкою, Meta не змогла розглянути повідомлення користувача про зображення протягом 48 годин, що призвело до автоматичного закриття заявки без жодних дій.
Користувач подав апеляцію, але компанія знову відмовилася діяти і змінила курс лише після того, як правління взялося за справу.
У випадку з американською знаменитістю системи Meta автоматично видалили зображення.
«Обмеження щодо цього контенту є законними», — заявили в правлінні. «Враховуючи серйозність шкоди, видалення вмісту є єдиним ефективним способом захистити постраждалих людей».
Правління рекомендувало Meta оновити своє правило, щоб уточнити його сферу застосування, заявивши, наприклад, що використання слова «фотошоп» є «занадто вузьким», і заборона повинна охоплювати широкий спектр методів редагування, включаючи генеративний ШІ.
Правління також розкритикувало Meta за відмову додати зображення індіанки до бази даних, яка дозволяє автоматичне видалення, як те, що сталося у випадку американки.