BLOG | Artykuły o zdrowiu, inspiracje i recenzje
Porada dietetyczna od ChatGPT zakończyła się hospitalizacją i omamami
60-letni mężczyzna trafił do szpitala i przez kilka tygodni zmagał się z halucynacjami po tym, jak zatruł się, stosując w diecie nietypowy zamiennik soli – zasugerowany przez sztuczną inteligencję (ChatGPT).
Jak opisuje opublikowane 5 sierpnia w prestiżowym czasopiśmie Annals of Internal Medicine studium przypadku, mężczyzna postanowił całkowicie wyeliminować sól kuchenną (chlorek sodu) ze swojego jadłospisu. W poszukiwaniu alternatywy zwrócił się o poradę do ChatGPT. Otrzymał sugestię użycia bromku sodu – związku chemicznego, który w przeszłości wykorzystywano w przemyśle farmaceutycznym i produkcji, lecz nigdy jako przyprawy spożywczej.
Choć lekarze podkreślili, że nie mieli dostępu do pełnej historii rozmowy z chatbotem i że podpowiedź mogła dotyczyć np. zastosowań przemysłowych lub czyszczenia, mężczyzna kupił bromek sodu i przez trzy miesiące używał go zamiast soli.
Skutki były dramatyczne. Trafił na oddział ratunkowy z paranoicznymi urojenami, mimo że wcześniej nie cierpiał na żadne zaburzenia psychiczne. Był przekonany, że sąsiad próbuje go otruć, a pragnienie miał tak silne, że mimo ogromnej suchości w ustach odmawiał picia wody w szpitalu. Objawy narastały – pojawiły się omamy słuchowe i wzrokowe, a także próba ucieczki ze szpitala, która skończyła się przymusowym zatrzymaniem w oddziale psychiatrycznym.
Co właściwie się stało?
Według danych medycznych, bromizm może także prowadzić do nudności, wymiotów, biegunki, drżeń lub napadów padaczkowych, senności, bólów głowy, osłabienia, utraty masy ciała, uszkodzenia nerek, niewydolności oddechowej, a w skrajnych przypadkach – śpiączki.
Sto lat temu zatrucia bromkami były znacznie częstsze, bo sole bromu stosowano powszechnie w lekach dostępnych bez recepty. Powodowały one liczne problemy neurologiczne i dermatologiczne, aż w latach 70.–80. XX wieku amerykańska FDA wycofała bromki z farmaceutyków.
Mężczyzna spędził w szpitalu trzy tygodnie, a w tym czasie jego stan stopniowo się poprawiał.
OpenAI - firma twórca ChatGPT stwierdziła: „Nasze warunki użytkowania jasno mówią, że ChatGPT nie jest przeznaczony do leczenia żadnych schorzeń i nie może zastępować profesjonalnej porady. Posiadamy zespoły zajmujące się bezpieczeństwem, które pracują nad minimalizowaniem ryzyka, a nasze systemy AI zostały wytrenowane tak, aby zachęcać użytkowników do korzystania z fachowej opieki.”
AI może „wspierać rozprzestrzenianie dezinformacji”, ostrzegają lekarze
Lekarze zaangażowani w studium przypadku podejrzewają, że pacjent korzystał z ChatGPT w wersji 3.5 lub 4.0. Wersję 3.5 przetestowali sami, próbując odtworzyć odpowiedzi, jakie otrzymał mężczyzna. Autorzy badania zaznaczyli, że nie mogli poznać dokładnej treści informacji udzielonej pacjentowi bez dostępu do oryginalnej rozmowy, ale podczas własnych testów uzyskali sugestię użycia bromku jako zamiennika chloru.
⚠️ Uwaga dla czytelników
Internet – w tym narzędzia oparte na sztucznej inteligencji – może być cennym źródłem informacji, ale porady dietetyczne czy zdrowotne uzyskane online mogą być nieprecyzyjne, wyrwane z kontekstu lub wręcz niebezpieczne. AI nie ma dostępu do pełnego obrazu sytuacji zdrowotnej użytkownika i może sugerować substancje przeznaczone wyłącznie do zastosowań przemysłowych lub technicznych.
Zanim wprowadzisz jakąkolwiek drastyczną zmianę w diecie, szczególnie związaną z eliminacją lub zastępowaniem podstawowych składników, upewnij się, że korzystasz z wiarygodnych źródeł – najlepiej podręczników medycznych, publikacji naukowych lub sprawdzonych opracowań dietetycznych. Pamiętaj: nawet pozornie niewinny „zamiennik” może mieć poważne skutki zdrowotne.
