Egy férfi súlyosan mérgezést szenvedett, miután a népszerű ChatGPT mesterséges intelligencia nyelvi modelljétől kért étkezési tanácsokat. Az AI által javasolt, vélhetően ártatlannak tűnő összetevő vagy étrend-kiegészítő fogyasztása után rövidesen rosszul lett, és mérgezéses tüneteket produkált. A férfi kezdetben paranoiás gondolatokba merült, és azt hitte, a szomszédja mérgezi őt, ami tovább súlyosbította a szituációt. Ez az eset drámai módon rávilágít arra a veszélyre, amit az orvosi vagy egészségügyi tanácsok kizárólagos AI-ra bízása jelent.
Az eset súlyosan felhívja a figyelmet arra, hogy az AI modellek, mint a ChatGPT, hajlamosak lehetnek az úgynevezett „hallucinációra”, azaz valótlan vagy veszélyes információk generálására. Bár a chatbotok hasznos eszközök lehetnek bizonyos területeken, egészségügyi kérdésekben soha nem szabad kizárólag rájuk támaszkodni. Mindig konzultáljunk szakképzett orvossal, dietetikussal vagy gyógyszerésszel, mielőtt bármilyen étrend-változtatásba vagy kiegészítő szedésébe fognánk. Ez az eset ékes bizonyítéka annak, hogy a digitális forradalom ellenére az emberi szakértelem és körültekintés továbbra is elengedhetetlen az életveszélyes helyzetek elkerüléséhez.