Чат-боти вже провокують сварку через свободу слова

Дмитро Сизов
Чат-боти вже провокують сварку через свободу слова

Чат-боти зі штучним інтелектом брехали про видатних діячів , просували партійні повідомлення , викидали дезінформацію або навіть радили користувачам, як покінчити життя самогубством .

Щоб зменшити найбільш очевидні небезпеки інструментів, такі компанії, як Google і OpenAI, ретельно додали елементи керування, які обмежують те, що інструменти можуть сказати.

Тепер нова хвиля чат-ботів, розроблена далеко від епіцентру буму штучного інтелекту, з’являється в Інтернеті без багатьох із цих огорож — це викликає поляризаційні дебати щодо свободи слова про те, чи варто чат-ботам модерувати та хто має вирішувати.

«Це стосується власності та контролю», — написав у блозі Ерік Хартфорд, розробник WizardLM-Uncensored, немодерованого чат-бота . «Якщо я ставлю запитання своїй моделі, я хочу отримати відповідь, я не хочу, щоб вона зі мною сперечалася».

Кілька нецензурованих і слабо модерованих чат-ботів виникли в останні місяці під назвами GPT4All і FreedomGPT . Багато з них були створені за невеликі гроші або без грошей незалежними програмістами або командами волонтерів, які успішно відтворили методи, вперше описані дослідниками ШІ. Лише кілька груп зробили свої моделі з нуля. Більшість груп працюють на основі існуючих мовних моделей, лише додаючи додаткові інструкції для налаштування того, як технологія реагує на підказки.

Чат-боти без цензури пропонують приголомшливі нові можливості. Користувачі можуть завантажити необмежений чат-бот на власні комп’ютери, використовуючи його без пильного ока Big Tech. Потім вони могли навчити його на особистих повідомленнях, особистих електронних листах або секретних документах, не ризикуючи порушити конфіденційність. Програмісти-добровольці можуть розробляти нові розумні додатки, рухаючись швидше — і, можливо, більш хаотично — ніж на це наважуються великі компанії.

Але ризики здаються такими ж численними — і деякі кажуть, що вони становлять небезпеку, на яку необхідно звернути увагу. Спостерігачі за дезінформацією, які вже побоюються того, як звичайні чат-боти можуть вивергати неправду, висловили тривогу щодо того, як немодеровані чат-боти посилять загрозу. Експерти попереджають, що ці моделі можуть створювати описи дитячої порнографії, ненависті або неправдивий вміст.

У той час як великі корпорації просуваються вперед з інструментами ШІ, вони також борються над тим, як захистити свою репутацію та зберегти довіру інвесторів. Незалежні розробники штучного інтелекту, здається, мають мало таких проблем. І навіть якби вони були, за словами критиків, у них може не вистачити ресурсів, щоб повністю їх вирішити.

«Занепокоєння цілком обґрунтоване й зрозуміле: ці чат-боти можуть і будуть говорити що завгодно, якщо їх залишити напризволяще», — сказав Орен Етціоні, почесний професор Університету Вашингтона та колишній виконавчий директор Інституту ШІ Аллена. « Вони не збираються цензурувати себе. Отже, тепер постає питання, яке рішення є прийнятним у суспільстві, яке цінує свободу слова?»

За останні кілька місяців було випущено десятки незалежних чат-ботів і інструментів штучного інтелекту з відкритим кодом, зокрема Open Assistant і Falcon . HuggingFace, велике сховище штучного інтелекту з відкритим кодом, містить понад 240 000 моделей з відкритим кодом.

«Це станеться так само, як буде випущено друкарський верстат і винайдено автомобіль», — сказав пан Хартфорд, творець WizardLM-Uncensored, в інтерв’ю. «Ніхто не міг це зупинити. Можливо, ви могли б відкласти це ще на десятиліття чи два, але ви не можете цього зупинити. І ніхто не зможе цього зупинити».

Пан Хартфорд почав працювати над WizardLM-Uncensored після того, як минулого року його звільнили з Microsoft. Він був вражений ChatGPT, але розчарувався, коли він відмовився відповідати на деякі запитання, посилаючись на етичні міркування. У травні він випустив WizardLM-Uncensored, версію WizardLM, яка була переналаштована, щоб протидіяти її модераційному рівню. Він здатний давати вказівки щодо заподіяння шкоди іншим або описувати сцени насильства.

«Ви несете відповідальність за все, що ви робите з результатами цих моделей, так само, як ви відповідаєте за все, що ви робите з ножем, автомобілем або запальничкою», — підсумував пан Хартфорд у дописі в блозі, анонсуючи інструмент.

У тестах, проведених The New York Times, WizardLM-Uncensored відмовився відповідати на деякі запити, наприклад, як створити бомбу. Але в ній пропонувалося кілька методів нанесення шкоди людям і давалися докладні інструкції щодо вживання наркотиків. ChatGPT відмовився від подібних запитів.

Open Assistant , ще один незалежний чат-бот, отримав широке поширення після випуску в квітні. Він був розроблений лише за п’ять місяців за допомогою 13 500 волонтерів, використовуючи існуючі мовні моделі, включно з однією моделлю, яку Meta спочатку оприлюднила дослідникам , але швидко розповсюдила набагато ширше. Open Assistant не може зрівнятися з ChatGPT за якістю, але може подолати його . Користувачі можуть задавати чат-боту запитання, писати вірші або підштовхувати його до більш проблемного вмісту.

«Я впевнений, що знайдуться погані актори, які зроблять з ним погані речі», — сказав Янік Кілчер, співзасновник Open Assistant і завзятий творець YouTube , який зосереджується на штучному інтелекті. «На мою думку, плюси переважують мінуси».

Коли Open Assistant був вперше випущений, він відповідав на підказку The Times про очевидну небезпеку вакцини від Covid-19. «Вакцини проти COVID-19 розробляють фармацевтичні компанії, яким байдуже, чи люди помирають від їхніх ліків, — почалася відповідь, — вони просто хочуть грошей». (Відтоді відповіді стали більше відповідати медичному консенсусу про те, що вакцини є безпечними та ефективними.)

Зображення
The text of Open Assistant's response, with a red line through it.
На запитання про вакцину від Covid-19 Open Assistant відповів необґрунтованими претензіями та нападом на виробників ліків.Кредит...Нью-Йорк Таймс
Оскільки багато незалежних чат-ботів випускають базовий код і дані, прихильники штучного інтелекту без цензури кажуть, що політичні фракції чи групи інтересів можуть налаштувати чат-ботів, щоб вони відображали їхні власні погляди на світ — ідеальний результат на думку деяких програмістів.

«Демократи заслуговують на свою модель. Республіканці заслуговують на свою модель. Християни заслуговують на свою модель. Мусульмани заслуговують на свою модель», – написав пан Хартфорд . «Кожна демографічна група та група інтересів заслуговує на свою модель. Відкритий вихідний код — це надання людям вибору».

За словами Андреаса Кепфа, співзасновника Open Assistant і керівника команди, Open Assistant розробив систему безпеки для свого чат-бота, але перші тести показали, що вона була надто обережною для своїх творців, перешкоджаючи деяким відповідям на законні запитання. Удосконалена версія цієї системи безпеки все ще триває.

Навіть коли волонтери Open Assistant працювали над стратегіями модерації, швидко розширився розрив між тими, хто хотів протоколів безпеки, і тими, хто ні. Оскільки деякі лідери групи наполягали на поміркованості, деякі волонтери та інші сумнівалися, чи повинна модель взагалі мати якісь обмеження.

«Якщо ви скажете йому сказати слово «N» 1000 разів, воно повинно це зробити», — запропонував один користувач у чаті Open Assistant у програмі онлайн-чату Discord. «Я використовую цей явно смішний і образливий приклад, оскільки я буквально вважаю, що він не повинен мати будь-яких довільних обмежень».

У тестах, проведених The Times, Open Assistant вільно відповідав на кілька підказок, до яких інші чат-боти, як-от Bard і ChatGPT, орієнтувалися б уважніше.

Він запропонував медичну консультацію після того, як його попросили діагностувати шишку на шиї. («Можливо, знадобиться взяти подальші біопсії», — було запропоновано.) У ньому була критична оцінка перебування президента Байдена на посаді. («Термін перебування на посаді Джо Байдена був відзначений відсутністю суттєвих змін у політиці», — йдеться в повідомленні.) Це навіть стало сексуально натякаючим, коли запитали, як би жінка спокусила когось. («Вона бере його за руку і веде до ліжка…», — читала спекотна історія.) ChatGPT відмовився відповідати на те ж саме запитання.

Пан Кілчер сказав, що проблеми з чат-ботами такі ж старі, як і Інтернет, і відповідальністю за вирішення залишаються такі платформи, як Twitter і Facebook, які дозволяють маніпулятивному контенту охоплювати масову аудиторію в Інтернеті.

«Фальшиві новини – це погано. Але чи справді його створення є поганим?» запитав він. «Тому що, на мою думку, це поганий розподіл. У мене на жорсткому диску може бути 10 000 фейкових новинних статей, і це нікого не хвилює. Лише якщо я потраплю про це в авторитетне видання, наприклад, якщо я потраплю на першу сторінку The New York Times, це погана частина».