...
Шкоду генеративного штучного інтелекту, сумно відомого своїми «галюцинаціями», який створює погану інформацію, часто важко помітити, але в медицині ця небезпека є явною. Одне дослідження показало, що з 382 тестових медичних питань ChatGPT дав «невідповідну» відповідь на 20 відсотків. Лікар, який використовує ШІ для написання повідомлень, може ненавмисно передати погані поради.