Оксфордський аналіз застеріг щодо ризиків застосування штучного інтелекту в медичних консультаціях.

Оксфордський університет провів дослідження, яке продемонструвало, що чат-боти на основі штучного інтелекту надають неточні та неузгоджені медичні поради. Це становить ризик для здоров’я пацієнтів через хибне тлумачення неповної інформації.

Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Дослідники з Оксфордського університету з’ясували, що чат-боти, які використовують штучний інтелект, дають неточні та суперечливі поради щодо здоров’я, що створює ризики для безпеки пацієнтів. Дослідження наголошує, що нездатність цих моделей правильно розуміти неповну інформацію від користувачів робить самостійну діагностику за допомогою ШІ дуже небезпечною. Про це повідомляє УНН.

Деталі

Експеримент, в якому брали участь 1300 осіб, показав, що результати взаємодії з ШІ істотно залежать від способу формулювання питань. Користувачам пропонували оцінити такі симптоми, як сильний головний біль або слабкість, але чат-боти часто надавали список діагнозів, з яких людині доводилося обирати навмання. Доктор Адам Махді, головний автор дослідження, відзначив у коментарі BBC: “Коли штучний інтелект перелічував три можливі стани, людині доводилось вгадувати, який з них може підійти. Саме тут і виникають проблеми”.

Провідний лікар дослідження, доктор Ребекка Пейн, назвала практику консультацій з ШІ “небезпечною”. Вона пояснила, що користувачі зазвичай діляться інформацією поступово і можуть упускати важливі деталі, які професійний медик виявив би під час особистого огляду. Зрештою, люди, які користувалися ШІ, отримували суміш корисних і шкідливих порад, що ускладнювало прийняття рішення про необхідність відвідування сімейного лікаря або отримання невідкладної допомоги.

Упередженість алгоритмів та перспективи галузі

Окрім технічних недоліків, експерти вказують на системні проблеми технології. Докторка Ембер В. Чайлдс з Єльського університету підкреслила, що ШІ навчається на медичних даних, які вже містять десятирічні упередження.

Чат-бот є таким же хорошим діагностом, як і досвідчені клініцисти, що також не є ідеальним

– додала вона.

Це створює додатковий ризик повторення помилок, закладених у сучасну медичну практику.

Незважаючи на критику, фахівці бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені спеціально для галузі охорони здоров’я, можуть показати кращі результати. Однак ключовою умовою безпеки залишається запровадження чітких національних правил, регуляторних бар’єрів та офіційних медичних рекомендацій для вдосконалення таких систем.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *