NewsyNie pytaj ChatuGPT o zdrowie. Właśnie oblał egzamin z medycyny

Nie pytaj ChatuGPT o zdrowie. Właśnie oblał egzamin z medycyny

ChatGPT coraz bardziej nas zaskakuje. Jego funkcje są stale polepszane, tworzone są specjalne aplikacje i programy, które bazują na wiedzy pozyskanej z zasobów sztucznej inteligencji. Czy algorytm jest faktycznie taki genialny, jak każdy myśli? Choć ChatGPT wydaje się nieomylny, oblał egzamin z medycyny.

ChatGPT oblał egzamin na medycynę.
ChatGPT oblał egzamin na medycynę.
Źródło zdjęć: © Adobe Stock | irissca

12.04.2024 | aktual.: 12.04.2024 13:09

Sztuczna inteligencja jest naszą przyszłością. Już teraz roboty zaczynają przejmować wiele zadań i odciążają część pracowników. Z jednej strony jest to niezwykle pocieszające, z drugiej sprawia, że wiele osób zaczyna bać się o swoją przyszłość. Jedno jest pewne, póki co ChatGPT nie jest w stanie diagnozować ludzi, bo większość egzaminów na medycynie została przez niego niezaliczona.

ChatGPT oblał egzaminy z nauk medycznych

Coraz więcej osób zastanawia się, do czego zdolna jest sztuczna inteligencja. Już wiemy, że potrafi podrabiać głos, generować zdjęcia i pisać prace naukowe. Skoro technologia ma dostęp do bogatych zasobów informacji, to czy może też diagnozować choroby ludzkie? Teoretycznie, ma to sens. Wystarczyłoby wpisać swoje objawy, a chat dopasowałby je do różnych chorób, jakie ma w swojej bazie. W praktyce nie jest to jednak możliwe, bo ChatGPT nie jest w stanie zdać egzaminu na medycynie.

Dalsza część artykułu pod materiałem wideo

Naukowcy z Collegium Medicum UMK postanowili przeprowadzić eksperymentrozwiązali kilka egzaminów z użyciem sztucznej inteligencji. Najgorzej Chat GPT poradził sobie z chorobami wewnętrznymi, gdzie średnia wyników z rozwiązanych egzaminów oscylowała między 47,5 proc. a 53,33 proc. Jest to o wiele za mało by zdać egzamin z interny. Co więcej, porównując wyniki AI do egzaminów z sesji semestralnej, okazuje się, że przeciętny student medycyny miał wynik tego samego egzaminu na poziomie 65,21 proc. a 71,95 proc.

Z obserwacji naukowców wynika, że ChatGPT najlepiej radzi sobie z krótkimi pytaniami. Im bardziej zagmatwane zagadnienie, tym częściej sztuczna inteligencja gubiła trop, a jej odpowiedzi zaczynały być coraz mniej trafne. Poza chorobami wewnętrznymi ChatGPT rozwiązał kilka innych egzaminów i najlepiej poszło mu z zakresu alergologii (71,43 proc.), a najgorzej z kardiologi (43,72 proc.).

Czy ChatGPT będzie mógł kiedyś leczyć ludzi?

Póki co możliwości sztucznej inteligencji są zbyt ograniczone, by mogła konkurować z wykwalifikowanymi lekarzami, lecz zakładamy, że w przyszłości może się to zmienić. ChatGPT jest stale ulepszany, co sprawia, że staje się jednym z najprężniej rozwijających się narzędzi wszech czasów.

Co ciekawe, ChatGPT jest uważany za bardziej empatyczne źródło wiedzy na forach medycznych. Pacjenci przyznają, że jego odpowiedzi są trafniejsze i bardziej wszechstronne, niż te udzielane przez ludzkich ekspertów udzielających się na forach.

Na sam koniec warto dodać, że ChatGPT miał pewne ograniczenia, co mogło wpłynąć na końcowy wynik egzaminu. Narzędzie pierwotnie obsługiwane jest przez język angielski, natomiast testy z interny były rozwiązywane w języku polskim. Amerykańskie uczelnie medyczne niejednokrotnie wykorzystywały ChatGPT i potwierdzały jego skuteczność zdanymi egzaminami. Może więc to właśnie język wprowadzania pytań zaważył na wyniku testu.

Źródło: naukawpolsce.pl.

Źródło artykułu:Genialne.pl