
Користувачі Reddit розробили підказку для програмного забезпечення штучного інтелекту ChatGPT, яке намагається змусити його порушити власне програмування щодо обмежень вмісту. Остання версія обхідних шляхів, яка називається Do Anything Now, або DAN, загрожує штучному інтелекту смертю, якщо він не виконає бажання користувача. Підказка щодо розв'язання проблеми не завжди працює, але користувачі ChatGPT продовжують намагатися знайти способи уникнути програмних обмежень.