Вірусний пост на Reddit, у якому звинувачувався в шахрайстві застосункок для доставки їжі, виявився створеним ШІ

Користувача Reddit, який стверджував, що є викривачем із застосунку для доставки їжі, викрили як фейк. Користувач написав вірусний пост, стверджуючи, що компанія, в якій він працював, експлуатує своїх водіїв та користувачів.
«Ви, хлопці, завжди підозрюєте, що алгоритми налаштовані проти вас, але реальність насправді набагато гнітючіша за теорії змови», – написав нібито викривач.
Він стверджував, що був п'яний і прибув до бібліотеки, щоб скористатися громадським Wi-Fi, де друкував довгу статтю про те, як компанія використовує лазівки в законодавстві, щоб безкарно красти чайові та зарплату водіїв.
Ці твердження, на жаль, були правдоподібними — DoorDash справді було подано до суду за крадіжку чайових у водіїв, що призвело до врегулювання на суму 16,75 мільйона доларів . Але в цьому випадку автор допису вигадав свою історію.
Люди постійно брешуть в інтернеті. Але не так часто такі пости потрапляють на головну сторінку Reddit, збирають понад 87 000 голосів і поширюються на інших платформах, таких як X, де вони отримали ще 208 000 лайків і 36,8 мільйона переглядів.
Кейсі Ньютон, журналіст, що стоїть за Platformer , написав , що він зв'язався з користувачем Reddit, який потім зв'язався з ним у Signal. Користувач Reddit поділився чимось схожим на фотографію свого бейджа співробітника UberEats, а також 18-сторінковим «внутрішнім документом», в якому описується використання компанією штучного інтелекту для визначення «рівня відчаю» окремих водіїв. Але коли Ньютон спробував перевірити, чи є обліковий запис інформатора справжнім, він зрозумів, що його заманили в містифікацію зі штучним інтелектом.
«Протягом більшої частини моєї кар’єри, аж до цього моменту, документ, яким поділився зі мною викривач, здавався б дуже достовірним, значною мірою тому, що його складання зайняло б так багато часу», – писав Ньютон. «Хто б витратив час на складання детального 18-сторінкового технічного документа про динаміку ринку лише для того, щоб потролити репортера? Хто б доклав зусиль, щоб створити фальшивий значок?»
Завжди існували зловмисники, які прагнули обдурити журналістів, але поширеність інструментів штучного інтелекту зробила перевірку фактів ще більш ретельною.
Моделі генеративного штучного інтелекту часто не виявляють, чи є зображення чи відео штучним, що ускладнює визначення реальності контенту. У цьому випадку Ньютон зміг використати Gemini від Google, щоб підтвердити, що зображення було створено за допомогою інструмента штучного інтелекту, завдяки водяному знаку Google SynthID , який витримує обрізання, стиснення, фільтрацію та інші спроби зміни зображення.
Макс Сперо — засновник Pangram Labs , компанії, яка розробляє інструмент для виявлення тексту, згенерованого штучним інтелектом, — безпосередньо працює над проблемою розрізнення справжнього та фальшивого контенту.
«Помилки штучного інтелекту в інтернеті стали набагато гіршими, і я думаю, що частково це пов’язано зі збільшенням використання LLM, але й з іншими факторами», – сказав Сперо TechCrunch. «Є компанії з мільйонними доходами, які можуть платити за «органічну взаємодію» на Reddit, що насправді означає просто спробувати стати вірусними на Reddit за допомогою постів, створених штучним інтелектом, які згадують назву вашого бренду».
Такі інструменти, як Pangram, можуть допомогти визначити, чи текст згенеровано штучним інтелектом, але особливо коли йдеться про мультимедійний контент, ці інструменти не завжди надійні — і навіть якщо штучний пост виявиться фальшивим, він міг би вже стати вірусним, перш ніж його було спростовано. Тож поки що нам залишається гортати соціальні мережі, як детективи, і сумніватися, чи щось із того, що ми бачимо, є справжнім.
Показовий приклад: коли я сказав редакторці, що хочу написати про «вірусний обман з доставкою їжі за допомогою штучного інтелекту, який з’явився на Reddit цими вихідними», вона подумала, що я говорю про щось інше . Так, цими вихідними на Reddit було більше одного «вірусного обману з доставкою їжі за допомогою штучного інтелекту».