
Чим небезпечні зображення, згенеровані штучним інтелектом, та як відрізнити фейкову картинку від справжньої
Уявіть, що ви гортаєте стрічку у Facebook, Instagram чи TikTok і вам трапляється публікація з зображенням нібито військового, у якого сьогодні день народження, проте його ніхто не привітав. Безумовно, після прочитання такого у вас виникає почуття несправедливості та жалю і рука автоматично тягнеться до кнопки "вподобати". Саме на цьому етапі ви, з великою ймовірністю, стаєте частиною афери чи ворожої дезінформаційної кампанії
Мова про зображення, згенеровані штучним інтелектом, які створені максимально схожими на справжніх людей. Інколи такі роботи виглядають невдало та смішно, проте левова частка настільки якісна, що відрізнити їх дуже тяжко.
За інформацією Центру протидії дезінформації, такі публікації часто поширюють сторінки-боти. Мета таких дій проста: викликати емоції та заохотити людей до взаємодії. Що емоційніше та якісніше зображення – то потужніша віддача від реальних користувачів. Що активніша взаємодія людей з бото-сторінками – то краще самі соцмережі просувають фейкові дописи. Загалом виникає ситуація, коли бото-сторінки викладають фейковий емоційний контент, згенерований ШІ, а справжні користувачі, які сприйняли це як жарт або правду, взаємодіють із дописами. Через це соцмережі просувають такі публікації для ще ширшої аудиторії. У підсумку утворюється активний великий інформаційний майданчик із реальними людьми, який належить невідомій особі.
З цього випливають потенційні небезпеки як для самих українців, так і для безпеки країни. Приклади таких робіт навів на своїй сторінці у Facebook член Незалежної медійної ради Ігор Розкладай.
Чим небезпечні зображення, згенеровані штучним інтелектом
Підміна попередньої інформації. Функціонал соцмереж, таких як Facebook та Instagram, дозволяє змінювати інформацію в дописі навіть через декілька днів після публікації. Таку хитрість можуть використати проти вас як звичайні шахраї, так і ворожі сили. Наприклад, ви побачили допис на якому якісно згенероване штучним інтелектом зображення начебто українського військового. У дописі пише щось на кшталт такого: "Цей воїн доєднався до війська, ще на початку війни, але йому ніхто не подякував". Ви вподобали цю публікацію та написали "дякую" в коментарях, проте через декілька днів текст змінюють на щось схоже до: "Цей чоловік обстрілює цивільне населення". Фото залишається тим самим, але ваше "дякую" та вподобайка зберігаються, хоча цей допис уже став частиною російської пропаганди.
Створення пропагандистських майданчиків. Як уже згадували раніше, що активніше аудиторія взаємодіє з контентом, то краще соцмережі просувають публікацію та сторінку. У випадку бото-сторінок, згенеровані ШІ зображення приводять справжніх користувачів, які згодом можуть слугувати захистом під час дезінформаційних кампаній. Спочатку анонімний автор публікує контент, щоб зібрати аудиторію, а згодом поширює фейки та прикривається цією ж аудиторією.
Шахрайські схеми. Згенеровані штучним інтелектом зображення можуть використати шахраї, щоб змусити вас перейти за шкідливим посилання. Це може бути навіть пост із закликом про допомогу, в якому міститься посилання, замасковане під петицію, яку необхідно підписати.
Як відрізнити справжню публікацію від згенерованої штучним інтелектом
Попри неабияку схожість згенерованих зображень до реальності, штучний інтелект доволі часто помиляється та спотворює велику кількість деталей. Часто люди не звертають уваги на це, але саме незначні деталі можуть бути ключем до правди. Тож на що потрібно звернути увагу:
Тіні об’єктів та освітлення. Часто у фейкових зображеннях тіні не відповідають об’єкту, якому належать, або розташовані непропорційно до джерела світла. Крім того, предмети, які перебувають на тлі, можуть помилково мати декілька тіней.
Дрібні деталі. Штучний інтелект дуже часто спотворює дрібні предмети. Це можна помітити, коли на фото є: логотипи, марки, шеврони, книги, годинники, плакати з нечитабельним текстом, предмети інтер’єру та аксесуари. Також часто можна помітити розбіжності у формах та розмірах об’єктів, які повторюються і є ідентичними: ґудзики, сережки й так далі.
Мутації людських органів. Такі помилки трапляються особливо часто, коли мова про людські кінцівки, очі, вуха, зуби та волосся. ШІ може домалювати зайві пальці або забути згенерувати нігті чи частину вуха. Крім того, часто зображення виглядає занадто ідеальним та неправдоподібним, особливо коли йдеться про волосся та зуби.
Загалом методів, за якими можна визначити згенероване зображення багато, але в будь-якому випадку потрібно ставити собі головне запитання: "Чи може це бути в реальності?"



- Актуальне
- Важливе






