
Një përdorim i zakonshëm i ChatGPT mund të kishte përfunduar në tragjedi. YouTuber-ja Kristi, e njohur nga llogaria rawbeautybykristi, zbuloi se shoqja e saj më e mirë rrezikoi të helmoheshin vdekjeprurës pas një identifikimi të gabuar të një bime nga AI.
Shoqja e saj dërgoi një foto të një bime të panjohur nga oborri i saj te ChatGPT dhe pyeti se çfarë ishte. ChatGPT u përgjigj me siguri se ishte gjethe karote, edhe pse në realitet bëhej fjalë për poison hemlock, një nga bimët më vdekjeprurëse në botë.

Më shqetësuese ishte se, kur u dërgua një foto tjetër, ChatGPT vazhdoi të insistonte se nuk ishte poison hemlock, duke injoruar tiparet e qarta si kërcellët e hollë me njolla të purpurta.
Identifikimi përmes Google Lens ishte i menjëhershëm: poison hemlock. Edhe në një dritare të re ChatGPT në telefon, sistemi paralajmëroi menjëherë për karakterin toksik të bimës.
View this post on Instagram
Kristi theksoi me forcë: «Nëse nuk do të më pyeste mua, shoqja ime do të kishte vdekur». Ky incident tregon se chatbot-et nuk duhet të zëvendësojnë gjykimin njerëzor, sidomos kur rrezikohet shëndeti apo jeta.
Historia ringjalli debatin për limitimet e inteligjencës artificiale dhe përgjegjësinë e përdoruesve: teknologjia mund të ndihmojë, por kur shndërrohet në autoritet absolut, gabimet e saj bëhen të rrezikshme. /VERSUS

