Рада ЄС із захисту інформації: ChatGPT не відповідає стандартам точності даних
Дмитро Сизов
Зусилля OpenAI, спрямовані на те, щоб виводити менше фактично неправдивих даних із свого чат-бота ChatGPT, недостатні для забезпечення повної відповідності правилам щодо даних Європейського Союзу, заявила цільова група з контролю за конфіденційністю ЄС.
«Хоча заходи, вжиті для дотримання принципу прозорості, є корисними для уникнення неправильного тлумачення виходу ChatGPT, вони недостатні для дотримання принципу точності даних», — йдеться у звіті робочої групи, опублікованому на її веб-сайті.
Організація, яка об’єднує європейські національні органи захисту конфіденційності, створила робочу групу з ChatGPT минулого року після того, як національні регулятори на чолі з владою Італії висловили занепокоєння щодо широко використовуваної служби штучного інтелекту.
OpenAI не відразу відповів на запит Reuters про коментар.
Різноманітні розслідування, розпочаті національними органами безпеки конфіденційності в деяких державах-членах, все ще тривають, йдеться у звіті, додаючи, що тому поки що неможливо надати повний опис результатів. Висновки слід було розуміти як «спільний знаменник» для національних органів влади.
«Насправді через ймовірнісний характер системи поточний підхід до навчання призводить до моделі, яка також може давати упереджені або вигадані результати», — йдеться у звіті.
«Крім того, вихідні дані, надані ChatGPT, ймовірно, сприйматимуться кінцевими користувачами як фактично достовірні, включаючи інформацію, що стосується окремих осіб, незалежно від їх фактичної точності».