JCC. Trwa wyścig firm o narzucenie technologicznego standardu oceny obrazu endoskopowego za pomocą sztucznej inteligencji. Jak sprawdza się w tym zwykły ChatGPT-4 użyty bez wcześniejszej konfiguracji i dostrajania? Trafność oceny badań obrazowych, którą przeprowadzają maszyny, dynamicznie rośnie i już w wielu dziedzinach np. w radiologii uznawana jest za wystarczają wysoką. Pisaliśmy o tym relacjonując wykład radiologa, prof. Laghi z rzymskiego Uniwersytetu Sapienza, który był wygłoszony podczas ostatniego kongresu UEG w Wiedniu. Czy jednak trzeba aż tak wielkich nakładów pracy i czasu, aby uzyskać poprawną ocenę obrazu endoskopowego, skoro najnowsze duże modele językowe (LLM) oparte na samouczeniu się maszyn o charakterze multimodalnym (wykorzystujące różne źródła danych) mogą już teraz interpretować okazane im obrazy? Jak odpowiedziano na to pytanie? W styczniu 2025 r. w Journal of Crohn’s and Colitis opublikowano abstrakt z kongresu z ECCO w Berlinie, w którym autorzy z Sheba Medical Center w Tel Avivie, m.in. Asaf Lavartovsky i Uri Kopylow, ocenili dokładność diagnostyczną ChatGPT-4 w identyfikowaniu i ocenianiu obrazów endoskopowych pacjentów z colitis ulcerosa przy użyciu endoskopowej części Skali Mayo (eMS 0-3), jako standardu odniesienia, i – co wydaje się tu najważniejsze – bez jego wcześniejszej konfiguracji lub dostrajania. Autorzy piszą w uzasadnieniu: Sztuczna inteligencja stała się obiecującym narzędziem…
Rewolucja nadejdzie jeszcze szybciej?

Ta treść jest dostępna tylko dla zalogowanych użytkowników. Proszę zaloguj się, aby zobaczyć tę treść.