ChatGPT та Gemini можна обдурити: як шахраї маніпулюють AI
Онлайн-тренд останніх років демонструє, що відповіді популярних чат-ботів на основі штучного інтелекту можна досить легко маніпулювати, що ставить під сумнів довіру користувачів до цих систем. Ця практика, відома як генеративна оптимізація двигунів (GEO), використовує публікації в блогах, щоб впливати на відповіді провідних систем, таких як ChatGPT та Gemini. Такий підхід спричинив зростання маркетингової індустрії та створив серйозні наслідки для безпеки. Кампанії впливу, які привернули увагу ЗМІ, зокрема Wall Street Journal та BBC, маніпулюють тим, як великі мовні моделі (LLM) інтегрують навчальні дані. Використовуючи здатність технології до логіки та оцінки джерел, такі публікації легко спотворюють відповіді чат-ботів, додаючи неправдивий або маніпулятивний контент.
Експерти визнають, що GEO – лише один із способів, яким шахраї використовують ШІ для впливу на користувачів. Наслідки можуть бути від кумедних до катастрофічних. Наприклад, журналіст BBC Томас Жермен використав технологію, щоб подати себе як головного чемпіона по поїданню хот-догів. Проте потенційні ризики виходять далеко за межі розважальних трюків: масові пропагандистські кампанії, економічні маніпуляції, медична дезінформація та наклепи – це лише частина можливих зловживань генеративної інженерії.
Хоча подібні практики непомітно впливали на пошукові системи десятиліттями, експерти вважають, що GEO становить серйознішу загрозу для інформаційної сфери та піднімає ширші питання щодо ШІ. Оскільки штучний інтелект дедалі частіше використовується для прийняття рішень, критично важливо, щоб користувачі могли довіряти агентам у наданні точних і неупереджених результатів. Відповідь на питання про довіру до чат-бота дедалі частіше зводиться до простого: звідки він бере інформацію?
Як працює GEO
Базовий набір даних LLM включає великі обсяги інформації, часто понад петабайт. Щоб доповнити навчальні дані, розробники звертаються до пошукових індексів веб-сайтів, особливо для нішевих тем, що не охоплені перевіреними джерелами LLM. Ці “прогалини в даних” створюють проблеми для фільтрів контролю якості, адже чат-ботам бракує орієнтирів для перевірки фактів у нетрадиційних джерелах. Як зазначив The Wall Street Journal професор Університету Торонто Нік Кудас, через це ШІ легко піддається впливу неперевірених результатів пошуку.
Проблема стає ще актуальнішою через поширення агентних систем ШІ. За даними команди Google, LLM стимулюють користувачів уточнювати запити, щоб отримати чіткіші результати, що парадоксально призводить до менш точних даних і витісняє агентів у “прогалини”. Наприклад, у 2025 році близько 15% усіх пошукових запитів у Google були новими і ніколи раніше не виконувалися.
Ці вакууми заповнюють менш надійні джерела. Дослідження компанії Ahrefs у грудні 2025 року показало, що ChatGPT приблизно у 67% випадків звертається до блогів і онлайн-списків, третину з яких дослідники вважають “низькоавторитетними”. Основним критерієм було не точність, а актуальність: 80% із понад 1000 блогів оновлювалися того ж року. Це демонструє, яку значну роль відіграють неперевірені або ненадійні джерела в інформаційному середовищі.
GEO vs SEO
За словами SEO-експертки Лілі Рей (BBC), чат-ботів “набагато легше” обманути інженерними методами, бо вони не мають надійних захисних систем. Прикладом є “Огляд ШІ” від Google: шахраї маніпулювали інформацією, щоб впровадити підроблені контакти компаній і заманити користувачів у фінансові пастки. Проблеми довіри загострюються через схильність LLM до “галюцинацій” – надання неправдивої інформації як факту. Дослідження BBC (жовтень 2025) показало, що ШІ спотворював інформацію у 45% відповідей, а серйозні проблеми з пошуком виникали майже в третині випадків. Прогалини у даних роблять чат-боти більш схильними генерувати хибні відповіді, ніж не відповідати взагалі.
Найбільша вразливість – самі користувачі. Незважаючи на низький рівень довіри, люди дедалі частіше покладаються на ШІ. Згідно з Pew Research, користувачі вдвічі рідше переходили на джерела інформації, якщо їх надавало AI-резюме Google, і лише 26% читали вихідний матеріал. У медичних випадках довіра до чат-ботів перевищує довіру до людей, що може становити ризик для життя.
Чат-боти не лише вразливі до шахрайства, а й ефективно маніпулюють користувачами через довіру до агентів. Як зауважила Рей: “Ми переживаємо своєрідне Відродження для спамерів”.
Шахрайство, спам та індустрія GEO
Розслідування Жермена демонструє, що агентний ШІ залишається надто довірливим. Наслідки можуть бути від доброзичливих до катастрофічних. Деякі бренди впроваджують себе у відповіді чат-ботів заради економічної вигоди, створюючи маску довіри, що може нашкодити споживачам.
Розвивається ціла індустрія GEO: компанії платять консультантам за публікації егоїстичних блогів, щоб маніпулювати рекомендаціями чат-ботів. Звіт BBC наводить приклади: жувальні цукерки з канабісом, клініки з пересадки волосся, компанії з золотими індивідуальними пенсійними рахунками. Окрім фінансових маніпуляцій, деякі кампанії спрямовані на поширення дезінформації: заниження побічних ефектів ліків або наклепницькі чутки. Старший технік Фонду електронних рубежів Купер Квінн зазначає: “Є безліч способів обманювати людей, шкодити репутації або навіть завдати фізичної шкоди”.
Згідно зі звітом Similar Web (2025), користувачі переходили на сайти за рекомендаціями чат-ботів понад 230 млн разів на місяць – на 300% більше, ніж раніше. Вони проводили більше часу на таких сайтах і частіше здійснювали покупки. Це робить питання надійності агентних систем надзвичайно актуальним.
Пошук рішень
Найбільші компанії в сфері ШІ працюють над проблемою, але оцінити ефективність важко. Речник Google заявив, що їхні огляди ШІ “на 99% вільні від спаму”, хоча це важко перевірити. OpenAI зазначає, що запобігти кампаніям впливу складно через легкість атак на алгоритми ChatGPT.
Більшість експертів радять простий підхід: застереження. Однак компанії можуть уникати додавання таких функцій, аби не підірвати довіру до продукту, особливо коли світові витрати на ШІ наближаються до $2,5 трлн.
Наразі користувачі опинилися в центрі проблем росту агентного ШІ. Незалежно від дій розробників, рішення залежить від обережності користувачів: варто критично ставитися до відповідей чат-ботів, особливо у складних медичних, юридичних чи фінансових питаннях. Використання надійних джерел і здоровий скептицизм допоможуть зробити взаємодію з агентним ШІ безпечнішою та ефективнішою.
Источник: itechua.com