З ким ми насправді спілкуємося в інтернеті?

З ким ми насправді спілкуємося в інтернеті?

Іноді це обіцянка чогось конче потрібного, на яку ви клюєте, як на наживку. Іноді ви купуєтеся на те, що вони здаються мудрими, доброзичливими або просто смішними. Боту все одно, як саме він вас обманює: його єдина мета полягає в тому, щоб змусити вас повірити, що він – людина. Якщо ви користуєтеся соціальними мережами і проводите багато часу в інтернеті, цілком можливо, що ви вже стали жертвою однієї з комп'ютерних програм, створеної спеціально для імітації людської розмови в численних чатах.

Рік тому прозвучала спірна заява, що розроблений у Росії чат-бот вперше в історії пройшов знаменитий тест британського піонера інформатики Алана Тюрінга для оцінки штучного інтелекту комп'ютера. У ході обміну текстовими повідомленнями комп'ютерна програма під назвою Eugene Goostman (Євгеній Густман) зуміла переконати досить високий відсоток учасників тесту, що перед ними – 13-річний український хлопчик. Як вважають оптимісти, таким чином дали відповідь на питання про можливість створення штучного інтелекту.

Чи знаменує ця подія початок нової ери, як амбітно стверджували організатори тесту з британського університету міста Редінга? Не зовсім так. Тест Тюрінга втратив свою важливість для досліджень у галузі штучного інтелекту кілька років тому, і багато вчених розглядають подібні змагання суперпрограми як недосконалі, тому що їх можна виграти за допомогою обману – наприклад, прикинутися людиною, для якої англійська мова не рідна.

Набагато цікаве, на що чат-боти здатні в повсякденному житті. В інтернеті вони просто в'ються навколо нас, намагаючись обдурити, змусити повірити, що вони реальні люди. Участь у конкурсах їм ні до чого. Деякі з них досить хитромудрі, щоб проникнути в соціальні мережі та навіть вплинути на громадську думку. Їх там багато, дуже багато.

Більшість із нас вважає всесвітню мережу місцем, де основний трафік створюють люди, проте в реальності все зовсім інакше. В одному з останніх звітів констатується, що 61,5% інтернет-трафіку генерується комп'ютерними програмами, що працюють самостійно, без участі людини. Тобто ботами.

Засліплені бажанням

Щоб обдурити нас, боти найчастіше використовують спокусливу приманку, пояснює Річард Уоллес з компанії Pandorabots, що виготовляє чат-ботів для служб з роботи з клієнтами та інших цілей. Уоллес – творець бота під назвою ALICE, що розшифровується як Artificial Linguistic Internet Computer Entity («Штучна лінгвістична інтернет-комп'ютерна сутність»). «Аліса» тричі перемагала на Лебнеровському конкурсі, де чат-боти змагаються один з одним, намагаючись переконати членів журі у своїй людяності.

«Найбільш вправні творці цих ботів – зовсім не професійні програмісти, а люди, які працюють у творчій сфері, – говорить Уоллес. – Ключ до створення гарного чат-бота – це написання правдоподібних, цікавих і цікавих відповідей».

Шахраї чудово знають про цей феномен. Компанія Cloudmark, що спеціалізується на дослідженнях у галузі безпеки, зафіксувала появу кокетливого бота під назвою TextGirlie. Дізнавшись ім'я жертви та її номер телефону з профілю в соціальних медіа, TextGirlie починає відправляти жертві персоніфіковані повідомлення із запрошенням продовжити розмову в онлайн-чаті. Потім відбувається обмін декількома кокетливими репліками, після чого жертві пропонується натиснути на посилання, що веде на «дорослий» сайт знайомств або сайт з веб-камерою.

За оцінками фахівців Cloudmark, в арсеналі TextGirlie порядку 15 млн текстових повідомлень, що відправляються на мобільні телефони, і вони стверджують, що бот працює вже кілька місяців. За словами аналітика компанії Ендрю Конвея, це явна ознака успіху програми.

Автоматизований обман

Найчастіше ботам вдається обдурити людей у ситуації, коли ті очікують від свого співрозмовника якоюсь мірою дивної поведінки або ламаної англійської. Приміром, ще в 1971 році психіатру Кеннету Колбі вдалося переконати кількох колег-практиків, що вони розмовляють через комп'ютерний термінал зі справжнім пацієнтом. Насправді ж Колбі використовував програму, яка моделювала мову параноїдального шизофреніка.

А зовсім недавно, у 2006 році, психолога Роберта Епштейна ввели в оману хитромудрою програмою, що імітує поведінку закоханої в нього російської жінки. Останнім часом боти рояться на сайтах знайомств, заманюючи самотніх людей у павутину автоматизованого обману.

Іноді боти здатні обдурити навіть «просунутих» інтернет-користувачів. Берді Яворськи знає, як це. Яворськи – одна з учасників соціального сайту новин Reddit і адепт віртуальної валюти dogecoin. На форумі Reddit недавно з'явився користувач під ніком wise_shibe, що розміщує дотепні зауваження в стилі стародавніх висловів. «Його відповіді звучали так, наче це сказав Конфуцій», – згадує Яворськи.

Ці коментарі навіть почали приносити wise_shibe гроші, оскільки форум дозволяє користувачам відправляти один одному невеликі «чайові» в цифровий валюті, якщо їм подобається коментар. Репліки wise_shibe були популярні і збирали багато чайових. Але незабаром усе це почало виглядати підозріло: аккаунт був активний у будь-який час доби і врешті-решт почав повторюватися.

Коли виявилося, що wise_shibe – бот, деякі учасники форуму були обурені. Інші ж заявили, що нічого не мають проти. Яворськи була здивована, але відчувала себе обдуреною. «Раптово розумієш, що ця людина на форумі, яка приймає від тебе віртуальну валюту в подяку за вдалі коменти, – не більш ніж маленький робот», – згадує вона.

Twitter-фантоми

Якщо взаємодія з ботом виглядає досить природно, то ми із самого початку вважаємо, що це людина. Для Фабріціо Бенвенуто це явище стало предметом серйозних досліджень. Нещодавно він і троє інших учених опублікували статтю, в якій пояснюється, наскільки просто соціальним ботам проникнути в Twitter, якщо вони виглядають і діють як реальні користувачі цієї соцмережі коротких повідомлень.

Бенвенуто і його колеги створили 120 бот-акаунтів, намагаючись, щоб у кожного з них був переконливий профіль з картинкою і такими чисто людськими атрибутами, як, наприклад, статтю. Через місяць вони виявили, що механізми ідентифікації ботів у Twitter не змогли викрити майже 70% з них. Більше того, боти були заздалегідь запрограмовані на взаємодію з іншими користувачами і швидко привернули велику групу передплатників із майже 5 тис. осіб.

Можливі наслідки цього не можна недооцінювати. «Якщо у великих кількостях створювати програми-соціальні боти, то потенційно вони можуть бути використані для впливу на громадську думку. Наприклад, шляхом публікації великої кількості фальшивих повідомлень і безсовісного поліпшення або погіршення громадської думки з якого-небудь питання», – відзначається в статті.

Використання батальйону наполегливих ботів для штучного управління громадською думкою називається астротурфінг (astroturfing). Потенційний вплив, який астротурфінг здатний створити, наприклад, на результат виборів, уже викликає стурбованість професіоналів, у зв'язку з чим у січні автор одного з блогів на сайті агентства Reuters закликав до заборони на використання кандидатами ботів під час передвиборної кампанії.

«Набагато досконаліші»

Наслідки астротурфінгу можуть бути настільки серйозними, що міністерство оборони США взяло участь у фінансуванні розробки програмного забезпечення, здатного визначити, чи належить аккаунт у Twitter боту.

Онлайн-додаток, що отримав назву BotOrNot, доступний для широкої публіки і виконує попереджальний аналіз, заснований на діяльності акаунту і семантиці його твітів, що дозволяє з великою часткою ймовірності припустити, ким є власник акаунту – людиною або ботом.

Але Еміліо Феррара, провідний дослідник проекту, визнає, що система, можливо, вже застаріла. Вона пройшла навчання на контенті Twitter, якому зараз три роки, і не виключено, що кращі боти наших днів уже навчилися уникати виявлення.

«Сьогодні боти стали набагато досконалішими, – говорить Феррара. – Вони краще маскуються, більше схожі на людей. Тому завдання все більше і більше ускладнюється. Ми навіть не знаємо, яка точність системи у виявленні найбільш свіжих і просунутих ботів».

Схоже, що боти будуть удосконалюватися і далі. У Фріца Кунце з компанії Pandorabots є надія, що люди навчаться краще розпізнавати обман і не приймати боти за безневинних користувачів, що вступають з ними в контакт в інтернеті. Але водночас він чітко усвідомлює, наскільки складне завдання, яку належить вирішити найближчим часом.

«Ці боти будуть дуже, дуже «просунутими», – упевнений він. – Вони дуже якісно будуть морочити людям голову».

Источник: today.mts.com.ua