Представники Банку Англії попередили, що расистські та сексистські боти зі штучним інтелектом (ШІ) становлять загрозу для фінансової системи.
Згідно з новим звітом фінтех-центру Банку, алгоритми самонавчання можуть вловлювати упередження з наборів даних і суспільства в цілому, що потім може використовуватися для дискримінації клієнтів або персоналу на робочому місці.
Кетлін Блейк, аналітик Банку Англії, яка написала звіт, сказала, що це може створити проблеми для банків, страховиків і фінансової системи в цілому.
Вона сказала, що потенційна дискримінація ШІ може «посилити» ризики для фінансової стабільності, підриваючи довіру до системи.
Використання «упередженого або нечесного ШІ» може призвести до репутаційних і правових ризиків для фірм, додала пані Блейк, які потім можуть бути ретельно перевірені регуляторними органами.
Пані Блейк відзначила низку гучних помилок штучного інтелекту, включаючи алгоритм, який Apple і Goldman Sachs використовували для прийняття рішень щодо заявок на кредитні картки, які, як повідомляється, пропонували нижчі кредитні ліміти для жінок, ніж для чоловіків.
Цю проблему ретельно розглянув Департамент фінансових послуг штату Нью-Йорк, який у 2021 році визнав, що вона не була навмисною, а «показала недоліки в обслуговуванні клієнтів і прозорості».