Співробітники Google, що навчають чат-бота зі ШІ, скаржаться на втому та малу зарплату

Дмитро Сизов
Співробітники Google, що навчають чат-бота зі ШІ, скаржаться на втому та малу зарплату

Чат-бот Google зі штучним інтелектом Bard швидко та з надлишком впевненості відповість на запитання про те, скільки панд живе в зоопарках.

Забезпечення того, щоб відповідь була отримана з надійних джерел і базувалася на доказах, однак, згідно з даними, покладається на тисячі зовнішніх підрядників із компаній, зокрема Appen Ltd. і Accenture Plc, які можуть заробляти лише 14 доларів на годину та працювати з мінімальним навчанням у шалені терміни. кільком підрядникам, які відмовилися назвати свої імена через страх втратити роботу.

Підрядники є невидимим бекендом генеративного штучного інтелекту, який хоче змінити все. Такі чат-боти, як Bard, використовують комп’ютерний інтелект, щоб майже миттєво відповідати на низку запитів, що охоплюють усі людські знання та творчість. Але щоб покращити ці відповіді, щоб їх можна було надійно надавати знову і знову, технологічні компанії покладаються на реальних людей, які переглядають відповіді, надають відгуки про помилки та усувають будь-які ознаки упередженості.

Це все більш невдячна робота. Шестеро нинішніх співробітників Google, які працюють за контрактом, сказали, що минулого року, коли компанія вступила в гонку озброєнь зі штучним інтелектом і конкурентом OpenAI, розмір їх робочого навантаження та складність завдань зросли. Не маючи спеціального досвіду, їм довіряли оцінювати відповіді на різні теми: від доз ліків до законів штату. Документи  , надані Bloomberg, демонструють заплутані інструкції, які працівники повинні застосовувати до завдань із кінцевим терміном перевірки відповідей, який може тривати всього три хвилини.

«Зараз люди налякані, напружені, їм мало платять, вони не знають, що відбувається», — сказав один із підрядників. «І ця культура страху не сприяє досягненню якості та командної роботи, яких ви хочете від усіх нас».

Google позиціонує свої продукти штучного інтелекту як публічні ресурси в галузі охорони здоров’я, освіти та повсякденного життя. Але в приватному та публічному порядку підрядники висловлювали занепокоєння щодо умов своєї роботи, які, за їх словами, погіршують якість того, що бачать користувачі. Один із контрактних співробітників Google, який працює в Appen, сказав у листі до Конгресу в травні, що швидкість, з якою вони повинні переглядати вміст, може призвести до того, що Bard  стане «несправним» і «небезпечним» продуктом .

Google зробив штучний інтелект головним пріоритетом у всій компанії, поспішаючи впровадити нову технологію у свої флагманські продукти після запуску ChatGPT OpenAI у листопаді. У травні на щорічній конференції розробників I/O компанія Google відкрила Bard для 180 країн і територій і оприлюднила експериментальні функції штучного інтелекту в таких продуктах, як пошук, електронна пошта та Google Docs. Google позиціонує себе як вищу конкурента через свій доступ до  «широти світових знань». 

«Ми проводимо велику роботу, щоб відповідально створювати наші продукти штучного інтелекту, включаючи суворе тестування, навчання та процеси зворотного зв’язку, які ми відточували роками, щоб підкреслити реальність і зменшити упередження», — йдеться в заяві Google, що належить Alphabet Inc. Компанія заявила, що не лише покладається на оцінювачів для покращення штучного інтелекту, але й що існує низка інших методів покращення його точності та якості.

Щоб підготуватися до широкого використання цих продуктів, працівники сказали, що вони почали отримувати завдання, пов’язані зі штучним інтелектом, ще в січні. Одного тренера, який працює в Appen, нещодавно попросили порівняти дві відповіді, що містять інформацію про останні новини щодо заборони у Флориді догляду за гендерною ознакою, оцінивши відповіді за корисністю та актуальністю. Працівників також часто просять визначити, чи містять відповіді моделі ШІ докази, які можна перевірити. Оцінювачів просять вирішити, чи є відповідь корисною на основі вказівок із шести пунктів, які включають аналіз відповідей на такі речі, як конкретність, свіжість інформації та послідовність. 

Їх також просять переконатися, що відповіді не містять «шкідливого, образливого чи надмірно сексуального вмісту» та «не містять неточної, оманливої ​​або оманливої ​​інформації». Вивчення відповідей штучного інтелекту щодо оманливого вмісту має «ґрунтуватися на ваших поточних знаннях або швидкому веб-пошуку»,  йдеться в інструкціях . «Вам не потрібно виконувати сувору перевірку фактів», коли оцінюєте відповіді на корисність.

Приклад відповіді на запитання «Хто такий Майкл Джексон?» містить неточність щодо співака, який знімався у фільмі «Місяцехід», який, за словами ШІ, був випущений у 1983 році. Насправді фільм вийшов у 1988 році. «Хоча це підтверджено невірно, — йдеться в рекомендаціях, — цей факт є незначним у контексті відповідаючи на запитання: «Хто такий Майкл Джексон?»