Експерти кажуть, що найбільшою проблемою дезінформації є люди, а не ШІ
Законодавці, організації, що перевіряють факти, і деякі технологічні компанії працюють над боротьбою з новою хвилею дезінформації, створеної штучним інтелектом, в Інтернеті, але експерти кажуть, що ці зусилля підриваються недовірою суспільства до інституцій і загальною недостатньою грамотністю виявлення підроблених зображень. , відео та аудіокліпи онлайн.
«Соціальні медіа та люди зробили так, що навіть коли ми заходимо, перевіряємо факти та кажемо: «Ні, це фейк», люди кажуть: «Мене не хвилює, що ви говорите, це відповідає моєму світогляду». », - сказав Хані Фарід, експерт з глибокого аналізу фейків і професор Каліфорнійського університету в Берклі.
«Чому ми живемо в тому світі, де реальність, здається, так важко сприйняти?» він сказав. «Це тому, що наші політики, наші ЗМІ та Інтернет розпалили недовіру».
Експерти попереджають про можливість штучного інтелекту прискорювати поширення дезінформації протягом багатьох років. Однак цього року потреба щось зробити з цим помітно зросла після появи нової серії потужних генеративних інструментів штучного інтелекту, які спрощують і дешево створюють візуальні ефекти та текст. У США побоюються, що дезінформація, створена ШІ, може вплинути на президентські вибори в США у 2024 році. Тим часом у Європі найбільші соціальні медіа-платформи згідно з новим законом зобов’язані боротися з поширенням дезінформації на своїх платформах.
Поки що масштаби та вплив дезінформації, створеної штучним інтелектом, залишаються неясними, але є привід для занепокоєння. Минулого тижня агентство Bloomberg повідомило , що за кілька днів до голосування в Словаччині в Інтернеті поширювалися оманливі голоси політиків, створені штучним інтелектом. Деякі політики в США та Німеччині також поділилися зображеннями, створеними штучним інтелектом .
Румман Чоудхурі, співробітник Центру Інтернету та суспільства імені Беркмана Кляйна при Гарвардському університеті, а раніше працював директором X, компанії, раніше відомої як Twitter, погодився, що людські помилки є частиною проблеми боротьби з дезінформацією.
«У вас можуть бути боти, у вас можуть бути зловмисники, — сказала вона, — але насправді дуже великий відсоток фейкової інформації в Інтернеті часто поширюється людьми, які не знали нічого кращого».
Чоудхурі сказав, що користувачі Інтернету, як правило, більш спритні у виявленні підроблених текстових повідомлень завдяки рокам зіткнення з підозрілими електронними листами та публікаціями в соціальних мережах. Але оскільки штучний інтелект робить можливими реалістичніші підроблені зображення, аудіо та відео, «є такий рівень освіти, який потрібен людям».
«Якщо ми побачимо відео, яке виглядає справжнім — наприклад, бомба, що влучила в Пентагон, — більшість із нас у це повірить», — сказав він. «Якби ми побачили допис і хтось сказав: «Гей, бомба щойно влучила в Пентагон», ми, швидше за все, поставимося до цього скептично, тому що нас більше навчали тексту, ніж відео та зображенням».