Сем Альтман: ШІ - небезпечнійший за ядерну війну

Дмитро Сизов

нный.png (449 KB)

Керівники найбільших у світі лабораторій штучного інтелекту попередили, що штучний інтелект може бути таким же небезпечним, як ядерна війна.

Керівники та науковці, зокрема Сем Альтман, виконавчий директор виробника ChatGPT OpenAI, і Деміс Хассабіс, засновник DeepMind, підписали заяву, в якій закликають уряди зробити ШІ «глобальним пріоритетом» нарівні з пандеміями та ядерною війною.

Це перший випадок, коли провідні боси світу зі штучного інтелекту колективно закликали до термінових дій, щоб усунути ризики для людства від цієї технології .

Центр безпеки штучного інтелекту, некомерційна організація, яка організувала цю заяву, заявив, що вона була розроблена, щоб «висловити занепокоєння щодо деяких найсерйозніших ризиків передового штучного інтелекту» на тлі «широкого спектру» занепокоєнь щодо технології.

«Зменшення ризику зникнення через штучний інтелект має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», — йдеться в заяві, яку також підписали колишній керівник Google AI Джеффрі Хінтон і Даріо Амодей, керівник AI lab Anthropic.

Минулого тижня пан Альтман, пан Хассабіс і пан Амодей зустрілися з Ріші Сунаком, щоб обговорити ризики, включаючи національну безпеку та «екзистенціальні загрози».

OpenAI, який став найвідомішим у світі розробником штучного інтелекту завдяки швидкому розвитку ChatGPT, закликав створити міжнародну організацію за зразком Міжнародного агентства з атомної енергії для управління цією технологією.

Коротка заява, яку підписали понад 350 керівників і дослідників, покликана виступити єдиним фронтом, коли політики розглядають, як регулювати ШІ.

Для порівняння, березневий лист, підписаний Ілоном Маском та іншими, який попереджав про потік пропаганди та закликав до шестимісячної паузи в розробці штучного інтелекту, розділив галузь і був уражений низкою фальшивих підписів.

Ден Хендрікс, виконавчий директор Центру безпеки штучного інтелекту, сказав, що це попередження «нагадує ситуацію, коли вчені-атомники видають попередження щодо самих технологій, які вони створили».

Минулого тижня пан Альтман писав, що штучний інтелект може ризикувати існуванням через десять років, оскільки програмне забезпечення перевершить експертів-людей у ​​більшості галузей.

Однак він також припустив, що OpenAI може відповісти на вхідні правила ШІ Брюсселя, закривши ChatGPT в ЄС. Пізніше він відмовився від позову.