Оксфордський аналіз виявив ризики застосування штучного інтелекту у сфері медичних консультацій.

Знахідки Оксфордського університету показали, що інтелектуальні чат-боти надають помилкові та протирічні медичні поради. Це становить ризик для безпеки хворих через невірне тлумачення обмеженої інформації.

Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Дослідники Оксфордського університету з’ясували, що керовані штучним інтелектом чат-інструменти дають невірні та суперечливі поради щодо здоров’я, що піддає ризику безпеку пацієнтів. Дослідження наголошує, що неспроможність моделей належним чином розшифровувати неповні дані від користувачів робить самостійну діагностику за допомогою ШІ надзвичайно небезпечною. Про це повідомляє УНН.

Деталі

Експеримент з залученням 1300 осіб виявив, що результати взаємодії з ШІ значною мірою залежать від способу формулювання питань. Користувачам було запропоновано оцінити ознаки, такі як сильний головний біль або знесилення, проте чат-боти часто надавали перелік діагнозів, серед яких людині доводилося вибирати довільно. Доктор Адам Махді, головний автор дослідження, зауважив у коментарі для BBC: “Коли інтелект перелічив три ймовірні умови, людям доводилося здогадуватися, яка з них може підійти. Ось тоді все й руйнується”.

Провідний лікар дослідження, доктор Ребекка Пейн, назвала практику консультування з ШІ “ризикованою”. Вона пояснила, що клієнти зазвичай надають інформацію поступово і можуть упускати ключові деталі, які професійний медик виявив би під час безпосереднього огляду. Зрештою, люди, які використовували ШІ, отримували суміш корисних і шкідливих вказівок, що ускладнювало прийняття рішення про необхідність відвідування сімейного лікаря або термінової допомоги.

Упередженість алгоритмів та перспективи галузі

Окрім технічних недоліків, експерти вказують на системні вади технології. Доктор Ембер В. Чайлдс з Єльського університету наголосила, що ШІ навчається на медичних даних, які вже містять упередження десятирічної давнини.

Чат-бот є настільки ж добрим діагностом, наскільки добрими є досвідчені клініцисти, що також не ідеально

– додала вона.

Це створює додатковий ризик повторення помилок, інтегрованих у поточну медичну практику.

Не зважаючи на критику, фахівці бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені саме для сектору охорони здоров’я, можуть продемонструвати кращі результати. Однак, головною умовою безпеки залишається введення чітких національних правил, регуляторних обмежень та офіційних медичних настанов для вдосконалення таких систем.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *