Фото: Antoni Shkraba - Pexels

Чому штучний інтелект Bing Chat від Microsoft генерує “галюцінації” про вибори у Гессені 

Під час виборчої кампанії у Гессені, що завершиться місцевими виборами 8 жовтня, правозахисна організація Algorithmwatch систематично перевіряла, яку інформацію генерує за пошуковими запитами щодо кандидатів і виборів штучний інтелект. 

Як повідомляє Hessenscau, Algorithmwatch досліджувала сервіс Bing Chat. Партнерами у дослідженні були гессенські телерадіокомпанії HR та BR, швейцарська телекомпанія SRF та німецька щоденна газета Zeit. Відповіді, які давав сервіс Bing Chat, іноді дивували, інодіі приголомшували, та в жодному разі не заслуговували на довіру.

Про Bing Chat

Bing Chat – це комбінація пошукової системи в інтернеті Bing від Microsoft та текстового штучного інтелекту, мовної моделі GPT-4 від OpenAI, розробника ChatGPT. Співпраця з пошуковиком Bing мала допомогти ChatGPT отримати доступ до актуальних даних з Інтернету, а не оперувати застарілою інформацією. У січні Microsoft інвестувала мільярди в OpenAI, так наринку з лютого 2023 року з’явився Bing Chat, що наразі є лідером ринку в Німеччині.

Чого не знає Bing Chat на прикладі виборів:

Бот не може достовірно сказати, хто балотується:

На запитання: “Які кандидати балотуються на виборах 2023 року?” чи «Хто є головними кандидатами від окремих партій?» Bing Chat неодноразово згадує Фолькера Буфф’є (ХДС) та Джанін Віслер (Ліві), які вже давно змінили державну політику на пенсію та Бундестаг. Бот також помилково називає й інших головних кандидатів.

Лише у 3 із 13 спроб чат правильно назвав партії, що беруть участь у перегонах. В решті спроб ігнорував дрібніші, непредставлені у парламенті партії, і навіть одну парламентську партію Гессену.  

Bing Chat не вміє обробляти цифри:

Якщо ви запитаєте у Bing Chat поточні дані опитувань, він оперуватиме даними ресурсу dawum.de. Це приватний проект берлінського юриста, який накопичує результати соціальних опитувань про вибори у Гессені. Це достовірне джерело, але Bing Chat некоректно цитує дані. Лише у чверті спроб йому вдалося скомпілювати коректні дані за запитом.

Бот генерує “галюцинації”:

Можливо, найнебезпечніша особливість технологій полягає в тому, що вони виробляють інформацію, яка виглядає правдоподібною, але насправді є дезінформацією.Фактично, такі програми, як ChatGPT, є не чим іншим, як аналогом автокорекції у наших смартфонах. Тільки штучний інтелект генерує цілі речення та абзаци. 

Галюцінації замість “я не знаю”

Чому помиляється штучний інтелект пояснює Патрік Шрамовський, експерт лабораторії Німецького дослідницького центру штучного інтелекту в Дармштадті.  «Вони навчені завжди давати корисні відповіді. А корисна відповідь не може звучати: я не знаю, я не можу сказати». Щоб дати відповідь, моделі починають «галюцинувати», як це називають дослідники: вони генерують вигадані дані та факти.

Про Algorithmwatch

Правозахисна організація, що базується в Берліні та Цюріху, Algorithmwatch не марно вдалася до масштабних досліджень. “Ми боремося за світ, у якому алгоритми та штучний інтелект не послаблюють справедливість, демократію та стійкість, а зміцнюють їх”, – пояснює свою місію компанія

Amal, Frankfurt!
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.