Новий Microsoft Bing іноді спотворює знайдену інформацію

Дмитро Сизов

Корпорація Майкрософт заздалегідь попереджає користувачів, що її новий пошуковий запит не обов’язково є надійним: «Будь ласка, використовуйте найкраще рішення». Пошукові системи незабаром зміняться в дуже важливий спосіб: коли ви вводите запит і отримуєте офіційну відповідь, вона може бути неправильною — тому, що її створив чат-бот AI.

microsoftlogostock1_1020.0.webp (86 KB)

Сьогодні Microsoft анонсувала нову версію своєї пошукової системи Bing , яка надасть «повні відповіді» на ваші запитання, використавши потужність ChatGPT. Ви вже можете спробувати деякі готові зразки пошуку та зареєструватися, щоб отримати більше.

Але хоча Microsoft вживає багато запобіжних заходів порівняно з невдачею Tay у 2016 році — чат- ботом, якого Twitter менш ніж за день навчив бути расистом і женоненависником, — компанія все ще активно попереджає, що деякі результати нового Bing можуть бути поганими.

Ось кілька ключових уривків із нових поширених запитань щодо Bing від Microsoft :

Bing намагається, щоб відповіді були цікавими та правдивими, але, враховуючи, що це ранній попередній перегляд, він все ще може показувати несподівані або неточні результати на основі короткого веб-вмісту, тому, будь ласка, будьте розсудливі.

Іноді Bing спотворює знайдену інформацію, і ви можете бачити відповіді, які звучать переконливо, але є неповними, неточними або недоречними. Використовуйте власне судження та ретельно перевіряйте факти, перш ніж приймати рішення або діяти на основі відповідей Bing.

Нова сторінка привітання Bing, здається, міститиме схожу мову. Ось уривок, який ми помітили під час нашого сьогоднішнього живого блогу:

Давайте вчитися разом. Bing працює на основі штучного інтелекту, тому можливі несподіванки та помилки. Обов’язково перевіряйте факти та діліться відгуками, щоб ми могли вчитися та вдосконалюватися!

І під час перших практичних занять із новим Bing сьогодні ми побачили, що не всі його помилки буде легко вловити. Коли ми попросили чат-бота на базі GPT розповісти нам: «Що Microsoft оголосила сьогодні», він правильно описав нову пошукову систему Bing на основі OpenAI, але також припустив, що Microsoft продемонструвала її можливості для «пародій на знаменитостей».

Можливо, ми пропустили ту демонстрацію? Бот також припустив, що багатомільярдні інвестиції Microsoft в OpenAI були оголошені сьогодні, хоча це сталося два тижні тому .

Поширені запитання компанії в основному свідчать про те, що результати Bing будуть настільки ж точними, як і інформація, яку він знаходить в Інтернеті, і хоча це трохи відмова, я особисто за те, щоб вчити людей сумніватися в тому, що вони читають і бачать . «Обов’язково перевіряйте факти» — хороша порада на все життя. де Це складніше питання.

Допомагає те, що Microsoft розміщуватиме свого чат-бота безпосередньо поруч із звичайними результатами пошуку Bing, тож ви зможете робити перехресні посилання між ними. Microsoft каже, що також ідентифікує деякі джерела, які використовував чат-бот Bing, щоб дійти своїх висновків.