ChatGPT може помилятися частіше, ніж здається: нове дослідження
Чат-бот ChatGPT часто виглядає впевненим, але його відповіді не завжди точні. Дослідження Університету штату Вашингтон показало, що система може давати різні відповіді на однакові запити. Це свідчить про нестабільність роботи алгоритмів і залежність від формулювання питання.
Дослідник Месут Чічек перевірив це, повторюючи ті самі наукові запитання до десяти разів. У результаті ChatGPT іноді змінював відповідь із “правда” на “хиба” без змін у запиті. Лише близько 73% відповідей залишалися стабільно правильними, що вказує на проблеми з послідовністю.
Хоча загальна точність моделі у 2025 році оцінювалась у 80%, після врахування випадкових вгадувань вона знижувалася до приблизно 60%. Особливо слабко система працює з непідтвердженими гіпотезами – у таких випадках вона рідко визначає помилки й часто погоджується з користувачем. Це пояснюється тим, що ШІ прогнозує слова, а не перевіряє факти, через що можуть виникати так звані “галюцинації”.
Науковці наголошують: станом на 2026 рік штучний інтелект варто використовувати лише як допоміжний інструмент. Для точних висновків рекомендується перевіряти інформацію в надійних джерелах і порівнювати кілька відповідей. Остаточне рішення має залишатися за людиною, адже ШІ не гарантує повної достовірності.
Источник: itechua.com