Истражување покажува сериозни слабости кај најпопуларните алатки
Ново истражување укажува дека четботовите како ChatGPT и Grok често даваат неточни или нецелосни медицински информации. Анализата на 50 медицински прашања покажала дека околу половина од одговорите биле оценети како проблематични.
„Халуцинации“, пристрасност и неточни податоци
Според резултатите, „Грок“ имал најголем удел на спорни одговори со 58 проценти, додека „ChatGPT“ достигнал 52 проценти, а Meta AI околу 50 проценти. Истражувачите посочуваат дека овие системи често „халуцинираат“, односно создаваат информации што звучат убедливо, но не се точни.
Дополнително, моделите понекогаш се прилагодуваат на ставовите на корисниците наместо да ја следат точноста.
Потребен надзор и ризици за јавното здравје
Научниот труд е објавен во списанието BMJ Open, а авторите предупредуваат дека употребата на ваквите алатки во медицината бара внимателен пристап. Тие нагласуваат дека четботовите немаат лиценца за да даваат медицински совети и не секогаш располагаат со најнови информации.
И претходни анализи покажале дека само 32 проценти од над 500 цитати генерирани од ChatGPT, ScholarGPT и DeepSeek биле точни, додека значителен дел биле делумно измислени.
-По правило, четботовите немаат пристап до податоци во реално време, туку генерираат резултати со заклучување на статистички шеми од нивните податоци за обука и предвидување на веројатни низи на зборови. Тие не размислуваат, ниту ги проценуваат доказите, ниту се способни да донесуваат етички или вредносни проценки. Ова ограничување во однесувањето значи дека четботовите можат да репродуцираат одговори што звучат авторитативно, но доволно веројатно се погрешни, гласи заклучокот на научниот тим.
Експертите предупредуваат дека со зголемената употреба на ваквите технологии е потребна поголема едукација и регулаторен надзор за да се заштити јавното здравје.
