Як розпізнати фото, зроблене штучним інтелектом?
8 травня 2023 р.Ще ніколи не було так просто втілювати фантазії. Для цього потрібен лише доступ до інтернету та інструментів штучного інтелекту (ШІ). Такі нейромережі як Midjourney, DALL-E чи DeepAI за лічені секунди згенерують фотореалістичну картинку або створять оригінальне зображення, причому високої якості. Нейромережа здатна самостійно робити абсолютно новий контент або трансформувати вже наявний: змінювати кольори, форму і розташування предметів на картинці, додавати нові елементи та видаляти непотрібні, перемальовувати зображення в іншому стилі, жанрі тощо.
"Послуги" штучного інтелекту майже нічого не коштують, а іноді вони і взагалі безкоштовні. Саме тому сьогодні в соцмережах так багато різних зображень, які миттєво розповсюджуються по всьому світу. Бізнесменам, маркетологам, дизайнерам, копірайтерам та багатьом іншим нейромережі справді полегшують працю та звільняють час. Але водночас ШІ почали все частіше стали використовувати на шкоду людині, для пропаганди та дезінформації.
Упродовж кількох останніх місяців в інтернеті все частіше з'являються фотографії, створені за допомогою штучного інтелекту або ним самим. Серед інших особливу увагу привернув знімок начебто Володимира Путіна, який схилив коліно перед лідером КНР Сі Цзяньпіном і цілує йому руку; зображення нібито Дональда Трампа в оточенні поліцейських, що заарештували його, а також схожий за тематикою знімок з нібито російським президентом, якого ведуть під руки люди в бронежилетах і чорних шоломах; зображення Папи Римського Франциска у модному білому пуховику; фотографія Ілона Маска, що мило тримає за руку свою конкурентку - гендиректорку General Motors Мері Барру.
Читайте також: Чи може штучний інтелект конкурувати з митцями?
Усі ці знімки виглядають дуже правдоподібними, якщо говорити про їхнє технічне виконання. При цьому на них - події, яких насправді не було. Це говорить про те, що все більш досконалі алгоритми та нейронні мережі вже зараз здатні стерти межу між реальністю та вигадкою.
Землетруси, яких не було
Фотографії більшості видовищних подій на кшталт автомобільних перегонів або космічних польотів, а також арештів знаменитостей користувачі можуть досить швидко перевірити. Достатньо звернутися до авторитетних ЗМІ або інших джерел у мережі, що заслуговують на довіру.
Читайте також: "Щоденники Гітлера" - неперевершений фейк німецьких ЗМІ
Найбільш проблематичними та небезпечними з погляду поширення дезінформації є картинки, у яких зображені менш відомі люди. Про це розповів у інтерв'ю DW експерт з ШІ Генрі Ейдер (Henry Ajder). "Але не тільки згенеровані зображення конкретних персон можуть бути дезінформацією. Ми бачили людей, які самі створювали події, яких ніколи не було, наприклад, землетрус", - додав фахівець. Ідеться про сильний землетрус, який нібито стався у північно-західній частині Тихого океану у 2001 році. Але, як з'ясувалося, нічого подібного не було і фотографії, розміщені на англомовній платформі Reddit, було створено за допомогою ШІ.
Однак нині можна відрізнити справжні фотографії від штучно створених. Адже так само як і людині, ШІ властиво помилятися. Як виявити маніпуляцію? Декілька порад.
1. Збільшити масштаб та уважно роздивитися деталі
Багато зображень, створених ШІ, на перший погляд, дуже реальні. Розпізнати підробку можна лише під час розгляду зблизька. Для цього знайдіть версії знімка з максимально можливою роздільною здатністю та збільшіть деталі. Тоді і стане видно можливі невідповідності, нестикування ліній та тіней, помилки кольору, клони зображення тощо.
2. Знайти джерело зображення
Якщо ви не впевнені, чи є зображення реальним, спробуйте більше дізнатися про його походження. Наприклад, іноді інші користувачі діляться своїми думками у коментарях, і завдяки цьому можна вийти на джерело або першу публікацію картинки. Може допомогти і зворотний пошук зображення. Для цього завантажте зображення в такі інструменти, як зворотний пошук зображень Google, TinEye або Yandex. У результаті часто знаходиться додаткова інформація про знімок, а іноді - і його походження. Можливо, авторитетні джерела вже здійснили фактчекінг, і тоді пошуковик видасть роз'яснення у результатах пошуку.
3. Звернути увагу на пропорції тіла
Чи правильні пропорції тіла зображених людей? Саме в цьому пункті ШІ часто робить помилки: згенеровані руки можуть бути занадто маленькими, а пальці - занадто довгими. Або голова та ноги не відповідають решті тіла. Наприклад, на фейковій фотографії Путіна і Сі Цзіньпіна задній черевик російського президента надто великий і широкий. Литка тієї ж ноги здається подовженою. Та й голова при уважному розгляді надто велика і непропорційна щодо тіла.
4. Пам'ятати та бачити типові помилки ШІ
На даний момент деякі програми обробки зображень з ШІ ніяк не навчаться правильно зображати частини тіла людини, особливо руки. Часто вони малюють шостий палець. Або забирають п'ятий. Як, наприклад, у поліцейського зліва від Путіна, на згенерованому зображенні з його "арештом" (див. головну фотографію). Та сама помилка і на знімку Папи Франциска в білому пуховику - на його лівій руці в білій рукавичці лише чотири пальці, а на знімку без рукавички пальці непропорційно довгі.
Дуже часто у "підроблених людей" буває надто багато зубів. Або дивної форми вуха та очі. Окуляри, які люблять одягати людям ШІ, як правило, деформовані й неприродно сидять. Відображення, такі як вікна, забрала шоломів тощо, теж створюють проблеми програмам ШІ і полегшують їхнє викриття.
5. Чи не здається зображення неприродним?
Часто картинки ШІ надто ідеальні, щоб бути правдою. Довіртеся своїй інтуїції: чи може таке бездоганне з естетичного погляду зображення бути реальним? Якщо говорити про портретні фотографії, то підозру може викликати занадто гладка шкіра людини, занадто рівні й гармонійні пропорції обличчя, бездоганні зуби та волосся. Слід уважніше придивитися до фотографій, ідеального художнього вигляду яких важко досягти навіть професійним фотографам при зйомці у студії та подальшій обробці зображення. ШІ створює ідеали, які мають сподобатися всім.
6. Вивчити тло зображення
На тлі об'єкти можуть відображатися спотвореними, наприклад, ліхтарі. Часто буває, що програми ШІ клонують людей та предмети, використовуючи їх на одному знімку двічі. Крім того, тло нерідко буває розмитим.
Висновки
Нині багато зображень, створених ШІ, можна ідентифікувати, якщо уважно їх роздивитися й дізнатися про їхнє походження. Однак не варто забувати, що із вдосконаленням технологій ШІ зведе нанівець свої помилки. І навіть детектори ШІ, такі як Hugging Face, не зможуть допомогти нам виявити фальсифікацію - детектори дають підказки, але не більше. Опитані DW експерти не радять на них повністю покладатися, оскільки вони помиляються, і буває, що реальні фотографії оголошуються фейками й навпаки. Тому, найімовірніше, нам час звикати до того, що в інтернеті не можна довіряти жодній картинці.
Читайте також: "Хрещений батько" штучного інтелекту пішов з Google і застеріг від технозагроз
Примітка: DW не публікує зображення, створені ШІ. Як виняток ми можемо показати зображення, створені за допомогою ШІ, якщо вони є предметом повідомлення, наприклад, коли ми наводимо приклад фальшивих новин або розповідаємо про можливості ШІ. У такому разі ми чітко вказуємо, що ці зображення створено за допомогою ШІ.