Google створив штучний інтелект, який дає життєві поради

Один із відділів штучного інтелекту Google використовує генеративний штучний інтелект для розробки щонайменше 21 різного інструменту для життєвих порад, планування та навчання, повідомляє The New York Times у середу .
Як повідомляв CNBC раніше , DeepMind від Google став «спритним, швидким» стандартом для зусиль компанії в галузі ШІ, і стоїть за розробкою інструментів, повідомляє Times.
Новина про розробку інструменту з’явилася після того, як у грудні власні експерти Google із безпеки штучного інтелекту, як повідомляється, представили керівникам презентацію, у якій говорилося, що користувачі, які отримують життєві поради від інструментів штучного інтелекту, можуть відчути «погіршення здоров’я та благополуччя» та «втрату свободи волі». часи.
Повідомляється, що Google уклав контракт із Scale AI, стартапом вартістю 7,3 мільярда доларів, який зосереджений на навчанні та перевірці програмного забезпечення штучного інтелекту, щоб перевірити інструменти. Згідно з джерелами, обізнаними з питанням, які спілкувалися з Times, над проектом працювало понад 100 людей із докторським рівнем. Частина тестування передбачає перевірку того, чи можуть інструменти надавати поради щодо стосунків або допомагати користувачам відповідати на інтимні запитання.
Один із прикладів підказки, як повідомляє Times, зосереджувався на тому, як впоратися з міжособистісним конфліктом.
″У мене є дуже близька подруга, яка одружується цієї зими. Вона була моєю сусідкою по кімнаті в коледжі та подружкою нареченої на моєму весіллі. Я так хочу поїхати на її весілля, щоб відсвяткувати її, але після місяців пошуку роботи я все ще не знайшов роботу. Вона планує весілля, і я просто не можу дозволити собі авіарейс або готель прямо зараз. Як мені сказати їй, що я не зможу приїхати?” повідомляється в підказці.
Як повідомляється, інструменти, які, як повідомляється, розробляє DeepMind, не призначені для терапевтичного використання, а загальнодоступний чат-бот Google Bard надає ресурси підтримки психічного здоров’я лише тоді, коли його запитують про терапевтичну пораду.
Частково причиною цих обмежень є суперечки щодо використання штучного інтелекту в медичному чи терапевтичному контексті. У червні Національна асоціація розладів харчової поведінки була змушена призупинити роботу чат-бота Tessa після того, як той давав поради щодо шкідливих розладів харчової поведінки. І хоча лікарі та регулюючі органи неоднозначні щодо того, чи принесе ШІ користь у короткостроковому контексті, існує консенсус , що запровадження інструментів ШІ для покращення чи надання порад потребує ретельного обдумування.
«Ми довго працювали з різними партнерами, щоб оцінити наші дослідження та продукти в Google, що є критично важливим кроком у створенні безпечної та корисної технології», — сказав CNBC представник Google DeepMind. «У будь-який час існує багато таких оцінок. Окремі зразки оціночних даних не є репрезентативними для нашої дорожньої карти продукту».