Opracował dietę z pomocą ChatGPT i trafił do szpitala psychiatrycznego

„`html
Krzysztof Sulikowski wskazuje na niebezpieczeństwa traktowania sztucznej inteligencji jako źródła porad dietetycznych. Mężczyzna w wieku 60 lat ze Stanów Zjednoczonych osobiście przekonał się, jakie konsekwencje może mieć nieświadome stosowanie się do takich rad. Zastępując sól bromem, rozwinął bromizm i ucierpiał na zdrowiu psychicznym. Jest to już drugi przypadek takiego zatrucia wywołanego działaniem AI.
Sztuczna Inteligencja Otruła Użytkownika
Brzmi jak scenariusz odcinka Black Mirror, ale to rzeczywistość. Sztuczna Inteligencja, przez niesprawdzoną poradę, naraziła użytkownika na poważne problemy zdrowotne. 60-latek wierzył, że jest truty przez sąsiada, lecz lekarze odkryli, że powodem była dieta ułożona przez ChataGPT. Podczas gdy brom w produktach spożywczych jest mało prawdopodobny do przedawkowania, suplementacja może być niebezpieczna.
Jak doszło do zatrucia?
Użytkownik skonsultował się z ChatemGPT w celu eliminacji soli z diety. Sztuczna inteligencja sugerowała zastąpienie chlorku bromem, nie ostrzegając o konsekwencjach. Pacjent przez trzy miesiące spożywał (lub suplementował) wysokie ilości bromu, co doprowadziło do rzadkiego schorzenia — zatrucia bromem. W XIX wieku już wiedziano o toksyczności bromu, co doprowadziło do jego eliminacji z leków w latach 80. XX wieku.
Objawy i Leczenie Pacjenta
Z raportu medycznego wynika, że mężczyzna trafił na pogotowie z objawami paranoi i halucynacji. Podczas jego hospitalizacji lekarze zdiagnozowali bromizm. Jego poziom bromu we krwi przekraczał normę. Pacjent przyznał, że, pragnąc poprawić swoje zdrowie, przeprowadzał eksperyment dietetyczny przy wsparciu ChatGPT.
Wnioski z Przypadku
AI, takie jak ChatGPT, mogą nieświadomie wprowadzać dezinformację. Zatem ważne jest, aby błędnie zrozumiane porady nie kończyły się tragicznie. Na przykład przypadek atlasu grzybów wygenerowanego przez AI, który wprowadził czytelników w błąd prowadząc do niebezpiecznych zatruc.
Przyszłość ChatGPT
Twórcy świadomości AI rozważają zwiększenie odpowiedzialności i profesjonalizmu ChatuGPT w kolejnych wersjach. Choć GPT-5 ma być bardziej zaawansowany, twórcy nieustannie pracują nad jego zdolnościami ostrzegania przed niebezpieczeństwami. Wszystko to w celu poprawy bezpieczeństwa użytkowników i stworzenia bardziej zaufanego narzędzia komunikacyjnego.
„`