Звіт: лобіювання штучного інтелекту зросло на 185%

Дмитро Сизов
Звіт: лобіювання штучного інтелекту зросло на 185%

Лобіювання, пов’язане зі штучним інтелектом, досягло нових висот, у ньому взяли участь понад 450 організацій. Це на 185% більше, ніж роком раніше, коли це зробили лише 158 організацій, згідно з розкриттям федеральної лобістської інформації, проаналізованим OpenSecrets від імені CNBC.

Сплеск лобіювання штучного інтелекту відбувається на тлі зростаючих закликів до регулювання штучного інтелекту та поштовху адміністрації Байдена розпочати кодифікацію цих правил. Компанії, які почали лобіювати у 2023 році право голосу щодо того, як регулювання може вплинути на їхній бізнес, включають власника TikTok ByteDance, TeslaSpotifyShopifyPinterestSamsungПалантирNvidiaDropboxInstacartDoorDash, Anthropic і OpenAI.

Сотні організацій, які лобіювали штучний інтелект у 2023 році, охоплювали широкий діапазон від великих технологій і стартапів штучного інтелекту до фармацевтики, страхування, фінансів, наукових кіл, телекомунікацій тощо. Згідно з аналізом, до 2017 року кількість організацій, які повідомили про лобіювання штучного інтелекту, залишалася однозначною цифрою, але з тих пір ця практика повільно, але впевнено зростала, вибухнувши у 2023 році.

Понад 330 організацій, які лобіювали штучний інтелект минулого року, не зробили того ж у 2022 році. Дані показали, що цілий ряд галузей як нові учасники лобіювання штучного інтелекту: компанії чіпів, такі як AMDі TSMC, венчурні фірми, такі як Andreessen Horowitz, біофармацевтичні компанії, такі як AstraZeneca, конгломерати, такі як Disney, а також компанії, що займаються навчанням ШІ, такі як Appen .

Організації, які повідомили про лобіювання питань штучного інтелекту в 2023 році, також зазвичай лобіюють в уряді низку інших питань. Згідно з OpenSecrets, загалом у 2023 році вони витратили понад 957 мільйонів доларів на лобіювання федерального уряду з питань, включаючи, але не обмежуючись, ШІ.

У жовтні президент Джо Байден видав указ щодо штучного інтелекту, який став першою подібною діяльністю уряду США , вимагаючи проведення нових оцінок безпеки, вказівок щодо справедливості та громадянських прав, а також дослідження впливу штучного інтелекту на ринок праці. Наказ доручив Національному інституту стандартів і технологій Міністерства торгівлі США (NIST) розробити вказівки для оцінки певних моделей штучного інтелекту, включаючи середовище тестування для них, і частково відповідати за розробку «стандартів на основі консенсусу» для штучного інтелекту.

Після оприлюднення указу законодавці, галузеві групи, організації з захисту громадянських прав, профспілки та інші почали копатися в 111-сторінковому документі та записувати пріоритети, конкретні терміни та широкі наслідки знакової дії .

Одна з основних дебатів зосередилася на питанні справедливості ШІ. Багато лідерів громадянського суспільства сказали CNBC у листопаді , що цей наказ недостатньо глибоко розпізнає та усуває реальну шкоду, спричинену моделями штучного інтелекту, особливо ті, що впливають на маргіналізовані спільноти. Але вони сказали, що це значущий крок.

З грудня NIST збирає публічні коментарі від компаній і окремих осіб про те, як найкраще сформувати ці правила; період громадського обговорення закінчується в п’ятницю. У своєму запиті на інформацію NIST спеціально попросив відповідачів взяти участь у розробці відповідальних стандартів штучного інтелекту, тестуванні систем штучного інтелекту на вразливості, управлінні ризиками генеративного штучного інтелекту та сприянні зменшенню ризику «синтетичного контенту», який включає дезінформацію та дипфейки.