19.3 C
Kyiv

Як ChatGPT випадково спровокував психоз у пацієнта

У ЦЕНТРІ УВАГИ

Унікальний випадок отруєння натрієм бромідом, що призвело до розвитку психозу, був зафіксований у США — і причиною стало слідування порадам штучного інтелекту ChatGPT. Лікарі з Університету Вашингтона описали цей інцидент у журналі *Annals of Internal Medicine: Clinical Cases*, наголошуючи на ризиках безконтрольного використання штучного інтелекту для отримання медичних чи дієтичних рекомендацій.

Все почалося, коли чоловік звернувся до місцевої лікарні з підозрою на отруєння. У нього спостерігалися симптоми збудження, параної, галюцинації, а також відмова пити воду навіть при сильній спразі. Медики встановили, що пацієнт перебував у стані психотичного епізоду, який потребував примусової госпіталізації у психіатричне відділення. Після детального обстеження виявилося, що чоловік отруївся натрієм бромідом — токсичною речовиною, відомою як причина так званого бромізму.

За словами пацієнта, він протягом трьох місяців свідомо вживав натрію бромід за порадою ChatGPT, намагаючись замінити в раціоні звичайну кухонну сіль (натрій хлорид). Зокрема, він турбувався через негативний вплив надлишку хлориду на здоров’я, і в пошуках альтернатив звернувся до штучного інтелекту. Відповідь ChatGPT нібито підтвердила безпеку використання броміду замість хлориду. В результаті чоловік почав купувати і вживати бромід, що і стало причиною інтоксикації.

Лікарі відзначають, що у типовому контексті заміна броміду на хлорид стосується побутових чи технічних сфер, наприклад, очищення води, і ніколи не рекомендується для вживання людиною. Однак у спілкуванні зі штучним інтелектом пацієнт не отримав попереджень про токсичність броміду, а також не було запитано про мету використання речовини, що могло б змінити відповіді моделі. Самі медики провели тестування ChatGPT 3.5 і отримали подібні рекомендації, що свідчить про прогалини в системі фільтрації потенційно небезпечної інформації.

Після госпіталізації чоловіку призначили внутрішньовенне введення рідин та антипсихотичні препарати. Протягом трьох тижнів його стан поступово стабілізувався, і він зміг залишити лікарню. Через два тижні після виписки пацієнт залишався у стабільному стані і припинив приймати антипсихотики.

Цей випадок викликав серйозне занепокоєння у медичній спільноті. Лікарі наголошують, що, незважаючи на значний потенціал штучного інтелекту в якості інформаційного ресурсу, він не замінить консультацію з кваліфікованим фахівцем. Ризик отримання неповної або дезорієнтованої інформації залишається суттєвим, особливо якщо йдеться про здоров’я та медикаментозне лікування.

Відомо, що ШІ-моделі створені на основі аналізу величезної кількості текстових даних, у яких можуть траплятися суперечливі чи неточні поради. Без відповідного контролю і фільтрації вони можуть надавати рекомендації, які у звичайних умовах не дали б живі експерти. Тому медики та розробники закликають користувачів критично оцінювати відповіді ШІ і не покладатися на них як на єдине джерело медичної інформації.

Останні новини