OpenAI oficjalnie uruchomiło ChatGPT Health – wydzieloną sekcję przeznaczoną do rozmów o zdrowiu. To odpowiedź na rosnącą liczbę pytań medycznych, jakie użytkownicy kierowali do modeli AI, oraz krok w stronę bezpieczniejszego i bardziej odpowiedzialnego wykorzystania technologii w ochronie zdrowia.

Sztuczna inteligencja już od dawna była wciągnięta w rozmowy o zdrowiu – zanim ktokolwiek ogłosił uruchomienie ChatGPT Health. Użytkownicy na całym świecie zwracali się do niej z pytaniami o ból, który nie mija mimo kolejnych prób leczenia, o wyniki badań, których nikt wcześniej nie potrafił spokojnie i zrozumiale wyjaśnić, o lęk przed diagnozą, która dopiero ma paść, a także o objawy, które z jednej strony bywają bagatelizowane, a z drugiej skutecznie odbierają spokój i sen. Coraz częściej były to również rozmowy dotyczące zdrowia psychicznego: przewlekłego zmęczenia, stanów lękowych, bezsenności, napięcia i poczucia, że „coś jest nie tak”, choć trudno to jednoznacznie nazwać lub ubrać w medyczne pojęcia.

To właśnie skala i charakter tych zapytań sprawiły, że rozmowa o AI w zdrowiu przestała dotyczyć wyłącznie jej możliwości technologicznych. Zaczęła dotykać kwestii znacznie trudniejszych: odpowiedzialności, bezpieczeństwa użytkownika i granic, których nie można przekroczyć bez realnych konsekwencji.

Dlaczego powstało ChatGPT Health

Jak przyznaje OpenAI, decyzja o wydzieleniu osobnej sekcji zdrowotnej nie była efektem jednego przełomu technologicznego, lecz odpowiedzią na obserwację zachowań użytkowników. Ludzie i tak pytali o zdrowie. Robili to coraz częściej, coraz bardziej szczegółowo i coraz bardziej emocjonalnie. W tym momencie pytanie „czy AI powinna rozmawiać o zdrowiu” stało się nieaktualne. Znacznie ważniejsze było pytanie, jak zrobić to w sposób odpowiedzialny.

Prace nad ChatGPT Health trwały około dwóch lat i były prowadzone we współpracy z setkami lekarzy z kilkudziesięciu krajów. Ich celem nie było stworzenie narzędzia diagnostycznego ani cyfrowego lekarza, lecz zaprojektowanie bezpiecznej przestrzeni do rozmów, w której jasno wyznaczone są granice roli sztucznej inteligencji. Rozmowy prowadzone w tej sekcji są odizolowane od pozostałych czatów, dane nie są wykorzystywane do trenowania modeli, a system konsekwentnie podkreśla, że nie stawia diagnoz i nie podejmuje decyzji terapeutycznych, jednocześnie zachęcając użytkowników do kontaktu z lekarzem.

To podejście pokazuje wyraźną zmianę narracji. Zamiast obiecywać „rewolucję w leczeniu”, twórcy skupiają się na porządkowaniu informacji, redukowaniu chaosu poznawczego i wspieraniu użytkownika w przygotowaniu do kontaktu z profesjonalistą. W systemie ochrony zdrowia przeciążonym informacyjnie i emocjonalnie jest to rola mniej spektakularna, ale potencjalnie bardzo potrzebna.

Równoległa historia o skuteczności

W tym samym czasie, niemal równolegle do uruchomienia ChatGPT Health, pojawiły się wyniki badań, które ponownie rozpaliły wyobraźnię opinii publicznej. Microsoft AI zaprezentował rezultaty pracy nad narzędziem Microsoft AI Diagnostic Orchestrator (MAI-DxO), pokazując, że sztuczna inteligencja potrafi z bardzo wysoką skutecznością analizować najtrudniejsze przypadki diagnostyczne opisywane w "New England Journal of Medicine".

Badanie nie polegało na sprawdzaniu wiedzy podręcznikowej ani rozwiązywaniu testów egzaminacyjnych. Zbudowano sekwencyjny benchmark diagnostyczny oparty na rzeczywistych przypadkach klinicznych, w którym zarówno lekarze, jak i model AI mogli zadawać pytania, zlecać badania, analizować kolejne informacje i stopniowo zawężać rozumowanie prowadzące do diagnozy. W takim porównaniu najlepsza konfiguracja narzędzia AI osiągnęła trafność sięgającą około 85 proc., podczas gdy średni wynik grupy doświadczonych lekarzy był kilkukrotnie niższy.

To są dane, których nie da się zignorować, bo dotyczą samego rdzenia myślenia klinicznego. Jednocześnie sam Microsoft podkreśla, że mówimy o badaniach i symulacjach, a nie o gotowym narzędziu do samodzielnego stosowania w praktyce klinicznej.

Dlaczego te dwie historie nie stoją ze sobą w sprzeczności

Na pierwszy rzut oka może się wydawać, że ostrożne, wyraźnie „ograniczone” ChatGPT Health i imponujące wyniki AI w diagnostyce to dwa sprzeczne komunikaty. W rzeczywistości pokazują one dwa etapy dojrzewania tej samej technologii.

Z jednej strony sztuczna inteligencja osiąga poziom analizy danych, który w wąskich, dobrze zdefiniowanych warunkach może przewyższać możliwości pojedynczego człowieka. Z drugiej strony twórcy tych systemów coraz wyraźniej widzą, że skuteczność obliczeniowa nie rozwiązuje problemu odpowiedzialności, relacji i zaufania, które w ochronie zdrowia są równie istotne jak trafna diagnoza.

A co z „autoterapią” i zdrowiem psychicznym

W tym kontekście naturalnie pojawia się pytanie, czy ChatGPT Health może stać się narzędziem wspierającym tzw. autoterapie psychologiczne. Odpowiedź jest złożona. Sztuczna inteligencja może pomóc w porządkowaniu myśli, nazywaniu emocji, zrozumieniu mechanizmów psychologicznych czy w psychoedukacji, a także zachęcać do sięgnięcia po profesjonalną pomoc. Nie zastąpi jednak terapii ani relacji terapeutycznej, co twórcy systemu wyraźnie podkreślają, projektując jego ograniczenia.

Właśnie dlatego ChatGPT Health zostało zaprojektowane nie jako narzędzie leczenia, lecz jako bezpieczna przestrzeń rozmowy i refleksji, która ma wspierać użytkownika, a nie przejmować rolę specjalisty.

Dojrzałość zamiast sensacji

Cała ta historia nie jest opowieścią o tym, że sztuczna inteligencja „wygrywa” z lekarzami. Jest raczej sygnałem, że AI weszła w etap, w którym sama skuteczność przestaje wystarczać. Coraz ważniejsze staje się to, jak technologia jest osadzona w realnych procesach ochrony zdrowia, jakie ma granice i w jaki sposób wspiera – a nie zastępuje – ludzką odpowiedzialność.

Być może właśnie w tym tkwi największa zmiana: w przesunięciu akcentu z pytania „czy AI potrafi diagnozować” na pytanie „czy potrafimy mądrze z niej korzystać”. W zdrowiu bardziej niż w jakiejkolwiek innej dziedzinie odpowiedź na to pytanie będzie miała realne konsekwencje dla ludzi, a nie tylko dla technologii.H

© ℗ Wszelkie prawa zastrzeżone