Керівники найбільших у світі лабораторій штучного інтелекту попередили, що штучний інтелект може бути таким же небезпечним, як ядерна війна.
Керівники та науковці, зокрема Сем Альтман, виконавчий директор виробника ChatGPT OpenAI, і Деміс Хассабіс, засновник DeepMind, підписали заяву, в якій закликають уряди зробити ШІ «глобальним пріоритетом» нарівні з пандеміями та ядерною війною.
Це перший випадок, коли провідні боси світу зі штучного інтелекту колективно закликали до термінових дій, щоб усунути ризики для людства від цієї технології .
Центр безпеки штучного інтелекту, некомерційна організація, яка організувала цю заяву, заявив, що вона була розроблена, щоб «висловити занепокоєння щодо деяких найсерйозніших ризиків передового штучного інтелекту» на тлі «широкого спектру» занепокоєнь щодо технології.
«Зменшення ризику зникнення через штучний інтелект має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна», — йдеться в заяві, яку також підписали колишній керівник Google AI Джеффрі Хінтон і Даріо Амодей, керівник AI lab Anthropic.