Маск: штучний інтелект, який вийшов з-під контролю, є загрозою для цивілізації

Дмитро Сизов
Маск: штучний інтелект, який вийшов з-під контролю, є загрозою для цивілізації

Ілон Маск попередив, що «неконтрольований» розвиток штучного інтелекту (ШІ) може «становити серйозні ризики для суспільства та людства».

Керівник Tesla та тисячі інших науковців і діячів технологічної індустрії підписали відкритого листа з вимогою, щоб «усі лабораторії штучного інтелекту... негайно призупинили» роботу над вдосконаленням ШІ , і закликали уряди тимчасово заборонити подальші дослідження, якщо вони цього не зроблять.

Пан Маск та інші підписанти, включаючи співзасновника Apple Стіва Возняка та керівника Doomsday Clock, були стривожені нещодавнім стрімким прогресом ШІ.

«Неконтрольована» розробка «необраних технічних лідерів» може призвести до розвитку «нелюдських розумів, які врешті-решт можуть перевершити чисельністю, перехитрити, застаріти та замінити нас», попередили вони в листі.

Подальший прогрес «ризикує втратою контролю над нашою цивілізацією», якщо не буде встановлено належні системи стримувань і противаг.

Занепокоєння зросло після нещодавнього публічного успіху ChatGPT. Вчені з Microsoft, яка інвестувала в цю технологію, нещодавно заявили, що остання версія програмного забезпечення, GPT-4, демонструє ознаки наближення до людського рівня інтелекту .

33711.jpg (36 KB)

У відкритому листі закликали «всі лабораторії штучного інтелекту негайно призупинити принаймні на шість місяців навчання систем штучного інтелекту, потужніших за GPT-4 », і закликали уряди заборонити подальші дослідження штучного інтелекту в цьому напрямку.

У відкритому листі не було закликів повністю припинити дослідження штучного інтелекту, а його автори написали, що вони «просто [хочуть] відступити від небезпечної гонки до все більших і непередбачуваних моделей чорного ящика з надзвичайними можливостями».

У листі від Інституту майбутнього життя далі йдеться: «Ця пауза має бути публічною та доступною для перевірки та включати всіх ключових дійових осіб. Якщо таку паузу не можна вжити швидко, уряди повинні втрутитися та запровадити мораторій».

Регулювання ШІ не встигає за нещодавнім вибуховим зростанням технологій. Пан Маск і його колеги хочуть, щоб були розроблені галузеві стандарти, щоб уникнути ризику виходу ШІ з-під контролю.

Серед інших підписантів відкритого онлайн-листа – дослідники з конкурентів OpenAI, Google Deepmind, і президент Бюлетеня вчених-атомників, організації, що стоїть за Doomsday Clock. Годинник має означати, «наскільки ми близькі до знищення нашого світу за допомогою небезпечних технологій, створених нами власноруч».

У середу уряд опублікував технічний документ щодо регулювання штучного інтелекту, в якому зазначено, як він збирається контролювати цю технологію.

Уряд заявив, що «передчасно» регулювати передову технологію, яку використовує ChatGPT, заявивши, що суворі правила «спричинять загрозу придушення інновацій, запобігання впровадження ШІ та спотворення процвітаючої екосистеми ШІ Великобританії».

Міністр технологій Мішель Донелан сказала: «Після виходу з Європейського Союзу ми маємо право встановити регулятивний підхід, який дозволить нам зробити Великобританію супердержавою зі штучним інтелектом.

«Наш інноваційний підхід також буде сильним стимулом, коли справа доходить до закордонних компаній ШІ, які створюють присутність у Великобританії».

Представник уряду сказав: «Уряд уникатиме жорсткого законодавства, яке може пригнічувати інновації, і застосовуватиме адаптивний підхід до регулювання ШІ.

«Замість того, щоб передавати відповідальність за управління штучним інтелектом новому єдиному регулюючому органу, уряд надасть повноваження існуючим регулюючим органам, таким як Виконавчий орган з питань охорони здоров’я та безпеки, Комісія з питань рівності та прав людини та Управління з питань конкуренції та ринків, щоб розробити індивідуальні, залежно від контексту підходи. які відповідають тому, як штучний інтелект фактично використовується в їхніх секторах».