Вчені навчили штучний інтелект розпізнавати діпфейки
Програма аналізує зображення та видає досить точний результат
ШІ може визначати картинки, створені "колегою" / Джерело: Pexels
Компанія-розробниця ChatGPT та DALL-E створила інструмент для розпізнавання зображень, які згенерував штучний інтелект. Наразі класифікатор працює лише з результатами, створеними власним генератором зображень OpenAI DALL-E 3 — але з високою точністю.
Під час внутрішніх тестувань інструмент правильно ідентифікував «штучні» зображення у 98% випадків. Повідомляється, що класифікатор також може визначати типові модифікації з мінімальним впливом, такі як стиснення, кадрування та зміни насиченості.
Відсьогодні OpenAI приймає заявки на доступ до класифікатора для першої групи тестувальників, включно з дослідницькими лабораторіями та науково-орієнтованими журналістськими некомерційними організаціями, у межах Програми доступу для дослідників.
Також OpenAI планує додавати водяні знаки для позначення цифрового контенту (фото чи аудіо), які «неможливо видалити», та приєднається до профільної галузевої групи C2PA, до якої вже входять Google, Microsoft і Adobe. На тлі виборів в США та у світі загалом зловживання інструментами штучного інтелекту зростає — лише у квітні, наприклад, фейкові відео двох боллівудських акторів, які критикують прем’єр-міністра Нарендру Моді, стали вірусними в мережі.