ШІ-чат-боти допомагають фермам веб-контенту копіювати роботи провідних видавців
Десятки веб-сайтів використовують чат-боти зі штучним інтелектом для копіювання та перепрофілювання статей від провідних видавців, згідно зі звітом групи рейтингу новин NewsGuard, що пропонує уявлення про те, як інструменти штучного інтелекту ризикують підірвати медіакомпанії та заплутати індустрію онлайн-новин.
Згідно зі звітом , 37 веб-сайтів, які також перевірив Bloomberg, розміщували історії, які містили ідентичний текст, фотографії та цитати до статей, раніше опублікованих New York Times, Reuters і CNN . Приклади, знайдені NewsGuard — суміш ферм онлайн-контенту, які публікують екстрені новини, контент про стиль життя тощо, включно з сайтами з такими назвами, як DailyHeadliner.com і TalkGlitz.com — не вказували й не посилалися на оригінальних авторів чи публікації. Агрегатори новин і контент-ферми, подібні до цих, існують давно, прагнучи генерувати трафік через пошукові системи. У звіті NewsGuard розглядалося використання штучного інтелекту для переписування новин для їх заповнення.
Останніми місяцями загострилася напруженість між медіаіндустрією та технологічними компаніями через занепокоєння, що новий урожай потужних інструментів штучного інтелекту, навчених на великій кількості онлайн-даних, включно з творами, захищеними авторським правом, може створити вміст, який підриває засоби до існування авторів, художників і журналістів. Автори подали позов проти кількох компаній, що займаються штучним інтелектом, звинувачуючи їх у порушенні авторських прав, а занепокоєння щодо використання створеного штучним інтелектом контенту на телебаченні та у фільмах стало основною темою під час страйків голлівудських акторів і сценаристів . Згідно з NPR, The New York Times також розглядає судовий позов проти OpenAI Inc., творця ChatGPT, щодо того, як його звіти включені в навчальні дані.
Веб-сайти, цитовані у звіті NewsGuard, не згадують, чи використовували вони чат-боти зі штучним інтелектом, такі як ChatGPT або Google Bard від Alphabet Inc., які можуть генерувати текст, що звучить як людина, у відповідь на коротку письмову підказку. OpenAI спеціально забороняє використовувати свої моделі ШІ для «плагіату ». Google забороняє використовувати свій генеративний штучний інтелект для створення та розповсюдження «вмісту, призначеного для дезінформації, спотворення або введення в оману», зокрема шляхом представлення створеного штучним інтелектом контенту так, ніби він був створений особою, або як оригінальний, «щоб ввести в оману». OpenAI і Google не відразу відповіли на запит Bloomberg News про коментарі.
Хоча на веб-сайтах не пояснюється роль штучного інтелекту в поповненні історій, NewsGuard знайшов на кожному сайті статті з однаковим ознакою: автоматичне повідомлення про помилку. NewsGuard повідомила, що помітила 17 статей, опублікованих за останні шість місяців на GlobalVillageSpace.com, наприклад, які містили повідомлення про помилки ШІ в тексті. В одній публікації з веб-сайту використовувалися ті самі зображення та цитати, що були включені в травневу публікацію в New York Times про талант професійного футболіста Даррена Воллера як музиканта. Останні два рядки цього допису свідчать: «Як мовна модель ШІ, я не можу гарантувати точність цієї статті, оскільки вона була написана не мною. Однак я зробив усе можливе, щоб переписати статтю, щоб зробити її зручною для Google».