Штучний інтелект дедалі частіше використовується для порад — від вибору ресторану до складання робочих листів. Однак випадок, зафіксований лікарями у США, показав, що покладатися на чат-ботів у питаннях здоров’я може бути небезпечним. Чоловік, який вирішив скористатися планом харчування, рекомендованим AI, потрапив до лікарні з рідкісним видом отруєння, відомим як бромізм.
Все почалося з наміру пацієнта зменшити споживання солі (хлориду натрію) та знайти її безпечний замінник. Замість того щоб звернутися до дієтолога чи лікаря, він поставив запитання ChatGPT. Чат-бот запропонував використовувати бромід натрію — речовину, яка дійсно може замінювати хлорид натрію, але зазвичай застосовується для дезінфекції джакузі, а не при приготуванні їжі. Штучний інтелект не уточнив цього критично важливого нюансу, і чоловік почав додавати бромід натрію у свій раціон.
Через три місяці він звернувся до лікарні з сильними психічними симптомами. Пацієнт був переконаний, що його сусід намагається його отруїти. Протягом першої доби перебування у відділенні параноя посилювалася, з’явилися слухові та зорові галюцинації. Після спроби втечі чоловіка довелося помістити на примусове психіатричне утримання через серйозну небезпеку для себе.
Медикам вдалося стабілізувати стан пацієнта за допомогою антипсихотичних препаратів. Коли він заспокоївся, розповів про свій «AI-дієтичний план». Аналізи виявили у його крові 1700 мг/л броміду при нормі до 10 мг/л. Це дозволило поставити діагноз — бромізм, токсичне накопичення броміду в організмі.
Бромізм був доволі поширеним у першій половині XX століття та, за оцінками, спричиняв до 8% усіх психіатричних госпіталізацій. Однак у 1970–1980-х роках випадки різко зменшилися після відмови від медикаментів, що містили броміди. Сучасна медицина майже не стикається з цим захворюванням, що робить випадок особливо рідкісним.
Лікування тривало близько трьох тижнів, після чого пацієнта виписали без серйозних наслідків. Але головний висновок цієї історії — навіть найсучасніші AI-системи не здатні замінити фахову медичну консультацію, особливо коли йдеться про питання, що безпосередньо впливають на здоров’я.
Автори дослідження, опублікованого в журналі Annals of Internal Medicine: Clinical Cases, наголосили, що ChatGPT та інші мовні моделі можуть генерувати наукові неточності, не мають здатності критично аналізувати результати та потенційно поширюють небезпечну дезінформацію. Як підкреслюють лікарі, малоймовірно, що кваліфікований медик коли-небудь порадив би пацієнту вживати бромід натрію як заміну кухонної солі.