Фахівці Google навчили штучний інтелект не брехати
Науковці з лабораторії Google DeepMind та Стенфордського університету створили систему контролю правдивості відповідей штучного інтелекту під назвою Search-Augmented Factuality Evaluator (SAFE). Інновація націлена на розв’язання проблеми неправдивих або «вигаданих» відповідей, які можуть надавати масштабні мовні моделі, такі як ChatGPT.
Традиційно для оцінки правдивості відповідей штучного інтелекту використовували людське оцінювання, процес якого був пов’язаний з суб'єктивністю та обмеженими можливостями масштабування. Нова система SAFE пропонує більш автоматизований та об'єктивний підхід, дозволяючи масштабно та ефективно перевіряти точність відповідей штучного інтелекту.
Система працює шляхом аналізу довгострокових відповідей, створених штучним інтелектом, розбиваючи їх на окремі факти, кожен з яких перевіряється на точність за допомогою пошуку Google як точки відліку. У ході дослідження використовувалася мовна модель GPT для створення LongFact, бази даних, що містить близько 16 000 фактів на різні теми.
SAFE демонструє високу ефективність, збігаючись з людськими оцінками правдивості в 72% випадків із приблизно 16 000 окремих фактів LongFact. Завдяки SAFE науковці сподіваються покращити якість і надійність інформації, що генерується штучним інтелектом, що має велике значення для різних галузей, від освіти до науки та технологій.
Источник: noworries.news