
© Getty Images Обережності відображаються лише після кліку на кнопку “Показати більше” і дрібним шрифтом.
Після проведеного The Guardian дослідження в попередньому місяці, компанія Google прибрала з пошукової видачі певні медичні висновки штучного інтелекту, котрі надавали потенційно ризиковану та неправдиву інформацію стосовно результатів аналізів. Однак нове вивчення The Guardian виявило іншу проблему — Google ставить користувачів у небезпечне становище, зменшуючи значення застережень щодо медичних рекомендацій, створених штучним інтелектом.
Застереження виникає тільки після натискання на кнопку “Показати більше” під резюме, і навіть тоді воно знаходиться внизу сторінки більш малим і менш насиченим шрифтом. У тексті попередження вказано: “Інформація надається лише для ознайомлення. Для отримання медичної консультації або встановлення діагнозу зверніться до фахівця. Відповіді ШІ можуть містити неточності”.

Приклад відповіді Google AI.Скріншот ZN.UA
У Google заявили, що огляди ШІ “спонукають людей звертатися за кваліфікованою медичною допомогою” і згадують про це безпосередньо в тексті, “коли це доречно”. Разом з тим, компанія не заперечувала, що під час першої демонстрації медичної поради окреме застереження не з’являється.
Експерти з етичних питань штучного інтелекту та представники пацієнтських організацій виразили стурбованість. Вони акцентують увагу на тому, що застереження повинні бути помітними відразу, оскільки мова йде про делікатну сферу охорони здоров’я.
Пет Патаранутапорн, науковий співробітник Массачусетського технологічного інституту, зазначив: “Відсутність застережень при початковому наданні користувачам медичної інформації створює декілька серйозних ризиків”. За його словами, навіть передові моделі ШІ можуть породжувати дезінформацію або надавати відповіді, спрямовані на задоволення користувача, а не на коректність.
“Застереження є важливим моментом втручання. Вони руйнують цю автоматичну довіру і стимулюють користувачів більш критично ставитися до отриманих даних”, — додав науковець.
Професорка Лондонського університету королеви Марії Джина Нефф висловила думку, що “проблема з неякісними оглядами ШІ є навмисною”. За її словами, огляди розроблені для оперативності, а не точності, що може бути небезпечним у галузі медичної інформації.
Соналі Шарма з Центру штучного інтелекту в медицині та візуалізації Стенфордського університету звернула увагу на розташування оглядів у верхній частині сторінки. За її словами, це формує враження вичерпної відповіді та може знижувати мотивацію користувачів шукати додаткові відомості чи переглядати застереження.
“Ми усвідомлюємо, що дезінформація — це справжня проблема, але коли мова йде про дезінформацію щодо здоров’я, вона потенційно дуже ризикована”, — заявив Том Бішоп з благодійної організації Anthony Nolan та додав, що попередження повинно бути розміщене зверху та тим самим шрифтом, що й основний текст.
У січні The Guardian вже інформувало про ризики, пов’язані з невірною та обманливою інформацією про здоров’я в оглядах Google AI. Після публікації компанія прибрала огляди ШІ для деяких медичних запитів, але не для всіх.
