Пентагон закликає компанії штучного інтелекту ділитися інформацією
Головний представник Міністерства оборони США з питань штучного інтелекту сказав, що агентству потрібно знати більше про інструменти штучного інтелекту, перш ніж повністю взяти на себе зобов’язання використовувати цю технологію , і закликав розробників бути більш прозорими.
Крейг Мартелл, головний офіцер Пентагону з питань цифрового та штучного інтелекту, хоче, щоб компанії ділилися ідеями про те, як створено їх програмне забезпечення штучного інтелекту — без втрати своєї інтелектуальної власності — щоб департамент міг «відчувати себе комфортно та безпечно», використовуючи його.
Програмне забезпечення AI покладається на великі мовні моделі, або LLM, які використовують масивні набори даних для роботи таких інструментів, як чат-боти та генератори зображень. Послуги, як правило, пропонуються без демонстрації їх внутрішньої роботи — у так званій чорній скриньці. Через це користувачам важко зрозуміти, як технологія приймає рішення або що з часом покращує чи погіршує її роботу.
«Ми просто отримуємо кінцевий результат побудови моделі — цього недостатньо», — сказав Мартелл в інтерв’ю. За його словами, Пентагон не має уявлення про те, як структуровані моделі або які дані були використані.
За словами Мартелла, компанії також не пояснюють, яку небезпеку можуть становити їхні системи.
«Вони кажуть: «Ось воно. Ми не розповідаємо вам, як ми його побудували. Ми не говоримо вам, чим це добре чи погано. Ми не говоримо вам, упереджено це чи ні», — сказав він.
Він описав такі моделі як еквівалент «технології знайдених прибульців» для міністерства оборони. Він також стурбований тим, що лише декілька груп людей мають достатньо грошей для створення LLM. Мартелл не назвав жодної компанії, але Microsoft Corp. , Alphabet Inc. Google і Amazon.com Inc. є серед тих, хто розробляє LLM для комерційного ринку, а також стартапи OpenAI і Anthropic.
Компанія Martell запрошує представників промисловості та науковців до Вашингтона в лютому, щоб розібратися з проблемами. За його словами, симпозіум Пентагону з оборонних даних і штучного інтелекту має на меті з’ясувати, для яких завдань можуть підійти магістри права.
За його словами, команда Мартелла, яка вже керує робочою групою з оцінки LLM, уже знайшла 200 потенційних застосувань для них у Міністерстві оборони.
«Ми не хочемо зупиняти великі мовні моделі», — сказав він. «Ми просто хочемо зрозуміти використання, переваги, небезпеки та те, як їх пом’якшити».
За словами Мартелла, у відділі спостерігається «велике зростання» людей, які хотіли б використовувати магістратуру. Але вони також визнають, що якщо технологія галюцинує — це термін, який означає, коли програмне забезпечення штучного інтелекту створює інформацію або надає неправильний результат, що не є рідкістю, — вони повинні взяти на себе відповідальність.