Расистські та сексистські ШІ-боти становлять ризик для світоустрію

Дмитро Сизов

Представники Банку Англії попередили, що расистські та сексистські боти зі штучним інтелектом (ШІ) становлять загрозу для фінансової системи.

Згідно з новим звітом фінтех-центру Банку, алгоритми самонавчання можуть вловлювати упередження з наборів даних і суспільства в цілому, що потім може використовуватися для дискримінації клієнтів або персоналу на робочому місці.

Кетлін Блейк, аналітик Банку Англії, яка написала звіт, сказала, що це може створити проблеми для банків, страховиків і фінансової системи в цілому. 

Вона сказала, що потенційна дискримінація ШІ може «посилити» ризики для фінансової стабільності, підриваючи довіру до системи. 

Використання «упередженого або нечесного ШІ» може призвести до репутаційних і правових ризиків для фірм, додала пані Блейк, які потім можуть бути ретельно перевірені регуляторними органами. 

Пані Блейк відзначила низку гучних помилок штучного інтелекту, включаючи алгоритм, який Apple і Goldman Sachs використовували для прийняття рішень щодо заявок на кредитні картки, які, як повідомляється, пропонували нижчі кредитні ліміти для жінок, ніж для чоловіків. 

Цю проблему ретельно розглянув Департамент фінансових послуг штату Нью-Йорк, який у 2021 році визнав, що вона не була навмисною, а «показала недоліки в обслуговуванні клієнтів і прозорості». 

За її словами, ще один приклад підводних каменів, пов’язаних із штучним інтелектом, з’явився в Amazon, який використовував алгоритм найму, щоб допомогти найняти працівників.

Пані Блейк сказала: «Жінки-претенденти отримали негативну оцінку, тому що алгоритм навчався на резюме, які надсилалися в компанію протягом 10 років, і відображав домінування чоловіків у галузі».

У 2018 році компанія відмовилася від цього інструменту через занепокоєння сексизмом після того, як виявилося, що вона карала претендентів, чиє резюме містило слово «жіночий», наприклад «капітан жіночого шахового клубу».

Це сталося на тлі зростання занепокоєння прем’єр-міністра Ріші Сунака щодо ШІ.

Минулого місяця уряд попередив, що штучний інтелект може бути використаний для створення біологічної зброї і що люди можуть втратити контроль над програмним забезпеченням.

У заяві Департаменту науки, інновацій і технологій йдеться: «Ми стоїмо на роздоріжжі історії людства, і повернути в інший бік було б монументальною втраченою можливістю для людства».