1. Перейти до змісту
  2. Перейти до головного меню
  3. Перейти до інших проєктів DW

У Meta визнали "галюцинації" ШІ після замаху на Трампа

31 липня 2024 р.

Чат-бот Meta AI заперечував факт замаху на Дональда Трампа і відмовлявся визнавати справжність фотографій стрілянини. У компанії Facebook пояснили це "галюцинаціями" штучного інтелекту.

https://p.dw.com/p/4iyRU
Дональд Трамп після замаху на нього 13 липня 2024 року
ШІ-помічник Meta AI вважав підробкою фото Дональда Трампа після замаху Фото: REUTERS

Корпорація Meta, що об'єднує Facebook, Instagram і WhatsApp, визнала, що її штучний інтелект (ШІ) помилково заперечував факт замаху на Дональда Трампа - кандидата в президенти США від Республіканської партії.

Віцепрезидент Facebook із глобальної політики Джоель Каплан запевнив 30 липня, що в цій помилці, про яку "ми шкодуємо", не було "злого умислу".

Чат-бот не визнавав замах на Трампа

У квітні Meta представила власного ШІ-помічника Meta AI. Він має допомагати користувачам Facebook, Instagram і WhatsApp. Наприклад, чат-бот може порадити ресторан, концерт або організувати поїздку. Meta AI працює англійською мовою в понад 10 країнах, зокрема у США, Канаді, Австралії, Південно-Африканській Республіці, Нігерії, Пакистані. У Європі він недоступний.

Після замаху на Трампа користувачі почали запитувати Meta AI про стрілянину. Однак чат-бот відповідав довгими довідками про минуле і заперечував, що політика намагались вбити. Крім того, фотографію Трампа після замаху з піднятим догори кулаком Facebook та Instagram відзначали як підроблену.

"Галюцинації" штучного інтелекту

Як пояснив Каплан, чат-бот обробляє величезний масив даних, накопичених за багато років. Але саме тому йому важко працювати з терміновими новинами. ШІ плутається в суперечливій інформації про останні події та не завжди вдало зіставляє їх із минулим. Тому керівництво Meta спочатку взагалі заборонило чат-боту говорити про замах на Трампа. Надалі заборону зняли, але ШІ деякий час продовжував мовчати або стверджувати, що стрілянини не було.

"У невеликій кількості випадків Meta AI продовжував давати неправильні відповіді, іноді стверджуючи, що події не було. Над цим ми вже зараз працюємо. Ці типи відповідей називаються галюцинаціями, це проблема всієї галузі, ми бачимо її в усіх системах ШІ-генерації. Це проблема того, як ШІ обробляє події реального часу, які перебувають в розвитку. Як і всі інші системи ШІ-генерації, моделі можуть видавати неточні або недоречні дані", - поскаржився Каплан.

Чому ШІ прийняв фото Трампа за підробку

Проблеми зі світлиною Трампа після замаху Каплан пояснив тим, що в інтернеті якісь зловмисники запустили фейковий знімок, намалювавши працівникам Секретної служби США посмішки. Meta позначила цей шарж як підроблений. Але ШІ став блокувати всі схожі кадри, зокрема й оригінальний.

Пропустити розділ Більше за темою

Більше за темою