Anthropic відмовляється від суворої політики безпеки ШІ "через конкурентів"
Компанія не призупинятиме розробку небезпечних моделей.
Американська компанія Anthropic оголосила про пом’якшення своєї ключової політики безпеки штучного інтелекту. Рішення пояснюють зростанням конкурентного тиску та відсутністю федерального регулювання у США. Зміни відбуваються на тлі протистояння з Пентагоном і кадрових втрат у сфері безпеки, повідомляє The Wall Street Journal.
Компанія Anthropic заявила, що оновлює базову політику безпеки, аби залишатися конкурентоспроможною серед провідних розробників ШІ. Раніше вона призупиняла розробку моделей, якщо їх класифікували як небезпечні, однак тепер відмовиться від цієї практики, якщо конкурент випустить порівнянну або потужнішу систему.
Це рішення означає відмову від підходу Anthropic, який протягом останніх 2,5 років представляв розробника як одного з найбільш орієнтованих на безпеку гравців ринку. Компанія зіштовхується з жорсткою конкуренцією з боку OpenAI, xAI Ілона Маска та Google, які регулярно презентують нові інструменти без обмежень.
Anthropic також перебуває у суперечці з Міністерством оборони США щодо використання моделі Claude. Раніше компанія повідомила Пентагону, що її інструменти не можуть застосовуватися для внутрішнього спостереження або автономної зброї. Міністр оборони Піт Гегсет дав компанії час до п’ятниці, 27 лютого, для пом’якшення політики, інакше вона може втратити контракт.
“Політичне середовище змістилося в бік визначення пріоритетів конкурентоспроможності ШІ та економічного зростання, тоді як дискусії, орієнтовані на безпеку, ще не отримали значущої тяги на федеральному рівні”, — йдеться в блозі Anthropic.
Пресслужба компанії заявила Time, що нова політика має допомогти працювати в умовах нерівномірного регуляторного поля та що вона не пов’язана з переговорами з Пентагоном. Водночас Anthropic пообіцяла регулярно публікувати цілі безпеки та звіти про ризики своїх моделей із залученням незалежної оцінки.
Останніми тижнями кілька дослідників залишили Anthropic та інші ШІ-компанії, заявляючи, що питання безпеки відходять на другий план на тлі залучення мільярдів доларів і підготовки до IPO. На початку лютого дослідник безпеки Мрінанк Шарма повідомив про звільнення з Anthropic, написавши колегам, що “світ знаходиться під загрозою” через розвиток ШІ та інші небезпеки. За словами джерел, його рішення частково було пов’язане зі зміною політики компанії.
Anthropic заснували у 2021 році після того, як Даріо Амодеї та інші співзасновники залишили OpenAI, побоюючись недостатньої уваги до безпеки. У 2022 році Амодей відмовився випускати ранню версію Claude, остерігаючись початку небезпечних технологічних перегонів, тоді як OpenAI за кілька тижнів представила ChatGPT, що змусило Anthropic наздоганяти конкурентів.Генеральний директор Anthropic Даріо Амодей ще наприкінці минулого місяця опублікував есе із суворим попередженням про наближення критично небезпечного етапу в розвитку штучного інтелекту. За його прогнозами, вже за кілька років ШІ перевершить людський розум, що загрожує світові масовим безробіттям, біотероризмом та небувалим посиленням авторитарних режимів. Аби уникнути катастрофи, розробник закликає уряди й самі технологічні корпорації “прокинутися” та взяти цей процес під контроль.
Источник: zn.ua