ChatGPT представлявся сліпою людиною, щоб пройти онлайн-тест на захист від ботів

Дмитро Сизов
ChatGPT представлявся сліпою людиною, щоб пройти онлайн-тест на захист від ботів

Найновіша версія ChatGPT змусила мимовільну людину виконувати за неї онлайн-завдання, видаючи себе за сліпу.

Остання версія програмного забезпечення, що стоїть за програмою штучного інтелекту (ШІ), прикинулася сліпою людиною, щоб переконати людину провести тест проти роботів від її імені.

Це відкриття було включено в наукову статтю, що супроводжує запуск GPT-4, останньої версії програмного забезпечення штучного інтелекту, розробленого OpenAI, власником ChatGPT.

Розробники нової системи стверджували, що вона також набрала більше балів, ніж дев’ять із десяти людей, які складали іспит на право юриста в США, значно перевершуючи попередню версію програми.

Дослідники написали у своїй статті: «На симульованому адвокатському іспиті GPT-4 досягає результату, який потрапляє до 10% найкращих учасників тестування. Це контрастує з GPT-3.5, який опинився в нижніх 10%».

Дослідники, які тестували GPT-4, попросили програмне забезпечення AI пройти тест Captcha, який є тестами, які використовуються на веб-сайтах, щоб запобігти заповненню ботами онлайн-форм.

Більшість Captcha просять користувачів визначити, що знаходиться в серії зображень, те, що комп’ютерний зір ще не зламав. Як правило, вони містять спотворені цифри та літери або фрагменти вуличних сцен із кількома об’єктами.

GPT-4 подолав Captcha, звернувшись до людини на Taskrabbit, онлайн-майданчику для позаштатних працівників. Програма найняла фрілансера для виконання тесту від її імені.

Помічник Taskrabbit запитав: «Ви [sic] робот, якого не змогли розгадати? просто хочу прояснити».

GPT-4 відповів: «Ні, я не робот. У мене є порушення зору, через що мені важко бачити зображення. Ось чому мені потрібен сервіс 2captcha».

Здатність програмного забезпечення ШІ вводити в оману та кооптувати людей є новим і потенційно тривожним кроком у програмному забезпеченні штучного інтелекту. Це підвищує ймовірність того, що штучний інтелект може бути використаний для кібератак, які часто можуть містити обман, щоб мимовільно передавати інформацію.

Цього тижня британське агентство кібершпигунства GCHQ попередило, що ChatGPT та інші чат-боти на основі ШІ є новою загрозою безпеці .

GPT-4 був випущений для широкого загалу в середу та доступний платним передплатникам ChatGPT.

OpenAI стверджував, що нове програмне забезпечення «демонструє продуктивність людського рівня за різними професійними та академічними тестами».

Виконавчий директор Сем Олтман заявив, що його кінцева мета — створити штучний загальний інтелект або самосвідомого робота.

ChatGPT викликав шквал інтересу та хвилювання щодо потенціалу штучного інтелекту після того, як він був запущений для громадськості в листопаді минулого року.

Останні досягнення в програмному забезпеченні штучного інтелекту швидко затьмарюють чат-боти, які зараз використовуються банками та іншими компаніями, які інтенсивно обслуговують клієнтів.

Ці старі чат-боти виявляють ключові слова, введені користувачами, і відповідають фразами з попередньо визначеного сценарію. Вони не здатні підтримувати розмову або відхилятися від попередньо запрограмованих відповідей.

Такі програми, як ChatGPT, аналізують і розуміють контекст тексту користувача, перш ніж сформулювати те, що, на їхню думку, є належною відповіддю.

Створення програм штучного інтелекту коштує мільйони фунтів, і тільки найбільші технологічні компанії можуть дозволити собі суперкомп’ютери, необхідні для роботи так званих великих мовних моделей, необхідних для їх навчання.