Чат-боти Google і Microsoft уже цитують один одного в дезінформаційному базіканні

Дмитро Сизов

bard_is_an_experiment.webp (19 KB)

Якщо ви не вірите, що поспішний запуск чат-ботів зі штучним інтелектом Big Tech має надзвичайно великі шанси погіршити інформаційну екосистему Інтернету, подумайте про таке:

Прямо зараз*, якщо ви запитаєте чат-бота Bing від Microsoft, чи було закрито чат-бот Google Bard, він відповість ствердно, посилаючись як доказ на новинну статтю , у якій обговорюється твіт , у якому користувач запитав у Bard, коли він буде закритий, і Bard відповів, що це вже has, сама посилаючись на коментар від Hacker News, у якому хтось пожартував про це, а хтось інший використовував ChatGPT, щоб написати фейкові новини про подію.

(*Я кажу «прямо зараз», оскільки в період між початком і закінченням написання цієї історії Bing змінив свою відповідь і тепер правильно відповідає, що Bard все ще працює. Ви можете інтерпретувати це як доказ того, що ці системи принаймні можна виправити або що вони настільки нескінченно пластичні, що неможливо навіть постійно повідомляти про їхні помилки.)

Знімок екрана інтерфейсу Bing.
Чат-бот Bing від Microsoft вважає, що чат-бот Google Bard закрито, і для цього помилково цитує новину.

Те, що ми маємо тут, є першою ознакою того, що ми натрапляємо на масштабну гру дезінформації по телефону зі штучним інтелектом, у якій чат-боти не можуть оцінити надійні джерела новин, неправильно читають історії про себе та неправильно повідомляють про власні можливості. В даному випадку вся справа почалася з одного жартівливого коментаря на Hacker News. Уявіть, що ви могли б зробити, якщо б хотіли, щоб ці системи відмовили.

Це смішна ситуація, але з потенційно серйозними наслідками. Враховуючи нездатність мовних моделей штучного інтелекту надійно сортувати факти від вигадки, їх запуск в Інтернеті загрожує розв’язати гнилий слід дезінформації та недовіри в Інтернеті, міазми, які неможливо повністю відобразити чи авторитетно розвінчати. Все тому, що Microsoft, Google і OpenAI вирішили, що частка ринку важливіша за безпеку.

Ці компанії можуть розміщувати скільки завгодно застережень у своїх чат-ботах, повідомляючи нам, що вони «експерименти», «співпраця» і точно не пошукові системи , — але це слабкий захист. Ми знаємо, як люди використовують ці системи, і ми вже бачили, як вони поширюють дезінформацію, вигадуючи нові історії, які ніколи не були написані , чи розповідаючи людям про книги, яких не існує . А тепер ще й цитують помилки один одного.