Фото: Antoni Shkraba - Pexels

Чому штучний інтелект Bing Chat від Microsoft генерує “галюцінації” про вибори у Гессені 

Під час виборчої кампанії у Гессені, що завершиться місцевими виборами 8 жовтня, правозахисна організація Algorithmwatch систематично перевіряла, яку інформацію генерує за пошуковими запитами щодо кандидатів і виборів штучний інтелект. 

Як повідомляє Hessenscau, Algorithmwatch досліджувала сервіс Bing Chat. Партнерами у дослідженні були гессенські телерадіокомпанії HR та BR, швейцарська телекомпанія SRF та німецька щоденна газета Zeit. Відповіді, які давав сервіс Bing Chat, іноді дивували, інодіі приголомшували, та в жодному разі не заслуговували на довіру.

Про Bing Chat

Bing Chat – це комбінація пошукової системи в інтернеті Bing від Microsoft та текстового штучного інтелекту, мовної моделі GPT-4 від OpenAI, розробника ChatGPT. Співпраця з пошуковиком Bing мала допомогти ChatGPT отримати доступ до актуальних даних з Інтернету, а не оперувати застарілою інформацією. У січні Microsoft інвестувала мільярди в OpenAI, так наринку з лютого 2023 року з’явився Bing Chat, що наразі є лідером ринку в Німеччині.

Чого не знає Bing Chat на прикладі виборів:

Бот не може достовірно сказати, хто балотується:

На запитання: “Які кандидати балотуються на виборах 2023 року?” чи «Хто є головними кандидатами від окремих партій?» Bing Chat неодноразово згадує Фолькера Буфф’є (ХДС) та Джанін Віслер (Ліві), які вже давно змінили державну політику на пенсію та Бундестаг. Бот також помилково називає й інших головних кандидатів.

Лише у 3 із 13 спроб чат правильно назвав партії, що беруть участь у перегонах. В решті спроб ігнорував дрібніші, непредставлені у парламенті партії, і навіть одну парламентську партію Гессену.  

Bing Chat не вміє обробляти цифри:

Якщо ви запитаєте у Bing Chat поточні дані опитувань, він оперуватиме даними ресурсу dawum.de. Це приватний проект берлінського юриста, який накопичує результати соціальних опитувань про вибори у Гессені. Це достовірне джерело, але Bing Chat некоректно цитує дані. Лише у чверті спроб йому вдалося скомпілювати коректні дані за запитом.

Бот генерує “галюцинації”:

Можливо, найнебезпечніша особливість технологій полягає в тому, що вони виробляють інформацію, яка виглядає правдоподібною, але насправді є дезінформацією.Фактично, такі програми, як ChatGPT, є не чим іншим, як аналогом автокорекції у наших смартфонах. Тільки штучний інтелект генерує цілі речення та абзаци. 

Галюцінації замість “я не знаю”

Чому помиляється штучний інтелект пояснює Патрік Шрамовський, експерт лабораторії Німецького дослідницького центру штучного інтелекту в Дармштадті.  «Вони навчені завжди давати корисні відповіді. А корисна відповідь не може звучати: я не знаю, я не можу сказати». Щоб дати відповідь, моделі починають «галюцинувати», як це називають дослідники: вони генерують вигадані дані та факти.

Про Algorithmwatch

Правозахисна організація, що базується в Берліні та Цюріху, Algorithmwatch не марно вдалася до масштабних досліджень. “Ми боремося за світ, у якому алгоритми та штучний інтелект не послаблюють справедливість, демократію та стійкість, а зміцнюють їх”, – пояснює свою місію компанія