AI wykrywa czerniaka – skuteczność i badania [2025]

Czy algorytm komputerowy może być lepszy od dermatologa w wykrywaniu czerniaka? Stanford University, 2017: AI osiągnęło skuteczność porównywalną z 21 certyfikowanymi dermatologami. Brzmi obiecująco? Zaraz poznasz całą prawdę.

Media piszą "AI lepsze od lekarzy", a co tydzień pojawia się kolejna aplikacja obiecująca rewolucję w diagnostyce nowotworów skóry. Ale badania naukowe pokazują bardziej złożony obraz - pełen obietnic, ale także ograniczeń i luk w wiedzy. W tym artykule przeanalizujemy kluczowe badania naukowe opublikowane w Nature, BMJ i Nature Medicine, konkretne liczby (czułość, swoistość, false negatives) i odpowiemy na pytanie: czy AI naprawdę może zastąpić dermatologa?

⚠️ WAŻNE: Ten artykuł opiera się na Evidence-Based Medicine – wszystkie liczby pochodzą z peer-reviewed badań naukowych (Nature, BMJ, Nature Medicine). AI w dermatologii to obiecująca technologia, ale NIE zastępuje wizyty u lekarza. Żadne badanie nie wykazało 100% skuteczności AI.

Kluczowe badanie #1: Stanford University (2017) – punkt zwrotny w AI dermatologii

Nature, 2017 – badanie, które obiegło świat. Tytuł: "Dermatologist-level classification of skin cancer with deep neural networks" (Esteva et al.). Media: "AI równie dobre jak dermatolog!". Ale co naprawdę pokazały dane?

Metodologia – CO ZROBILI

Zespół ze Stanford przeszkolił sieć neuronową typu CNN (Convolutional Neural Network) na największej do tamtej pory bazie medycznych zdjęć skóry. Baza treningowa zawierała około 130,000 zdjęć klinicznych przedstawiających ponad 2,000 różnych schorzeń skóry. To nie były zdjęcia telefonem - tylko profesjonalne fotografie kliniczne wysokiej jakości.

Typ AI wykorzystany w badaniu to Google Inception v3 - zaawansowana sieć neuronowa, która najpierw nauczyła się rozpoznawać obiekty na milionach zdjęć z bazy ImageNet (transfer learning), a następnie została "dostrojona" do rozpoznawania zmian skórnych. To kluczowe: AI najpierw uczy się rozpoznawać wzorce w ogóle, potem specjalizuje się w dermatologii.

Zespół porównał AI z certyfikowanymi dermatologami w dwóch zadaniach diagnostycznych:

  1. Odróżnienie raków keratynocytowych (BCC/SCC) od łagodnych zmian (brodawki łojotokowe) - 9 dermatologów
  2. Odróżnienie złośliwego czerniaka od łagodnych znamion - 21 dermatologów

Złotym standardem weryfikacji był wynik histopatologii (biopsja) - każdy przypadek został zweryfikowany mikroskopowo przez patologa. To oznacza, że zarówno AI jak i dermatolodzy diagnozowali przypadki, w których już ZNANO ostateczną prawdę.

Wyniki – KONKRETNE LICZBY

Oto najważniejsze ustalenie, które media często upraszczają: badanie NIE podało jednej prostej liczby typu "AI ma 90% skuteczności". Rzeczywiste wyniki są bardziej złożone.

Według późniejszych analiz (Haenssle et al., European Journal of Cancer 2019 - follow-up badania Stanford) dermatologowie osiągnęli średnią czułość 74,1% (zakres od 40% do 100% - duże różnice między lekarzami!) i swoistość 60% (zakres 21,3-91,3%). AI przy tej samej czułości (74,1%) osiągnęło swoistość znacząco wyższą - 86,5% (zakres 70,8-91,3%).

Co to oznacza w praktyce? Czułość (sensitivity) to procent chorych poprawnie zdiagnozowanych - im wyższa, tym mniej pominiętych czerniaków. Swoistość (specificity) to procent zdrowych poprawnie rozpoznanych jako zdrowi - im wyższa, tym mniej niepotrzebnych biopsji i paniki. AI osiągnęło performance porównywalne (comparable) z dermatologami, nie "lepsze" jak sugerują niektóre nagłówki.

Kluczowe ustalenie autorów: AI osiągnęło skuteczność porównywalną z certyfikowanymi dermatologami w kontrolowanych warunkach laboratoryjnych. To brzmi mniej spektakularnie niż "AI lepsze od lekarzy", ale jest znacznie bliższe prawdy.

Ograniczenia badania – CRITICAL

Zanim uznamy AI za gotowe do zastąpienia dermatologa, musimy zrozumieć ograniczenia tego badania:

Warunki laboratoryjne: Wszystkie zdjęcia były wysokiej jakości, wykonane profesjonalnym sprzętem przez przeszkolony personel. Nie testowano zdjęć zrobionych telefonem przez użytkownika w domu - a to zupełnie inny poziom trudności.

Wyselekcjonowane przypadki: Testowano tylko przypadki potwierdzone biopsją (biopsy-proven cases). W praktyce dermatolog widzi setki znamion dziennie, większość to trudne "gray zone" przypadki - niepewność, gdzie decyzja nie jest oczywista.

Brak real-world testing: AI nie było testowane na zdjęciach z różnym oświetleniem, rozmytych, pod kątem, z cieniem czy błyskiem flash. A to właśnie z czym mierzy się aplikacja AI w telefonie użytkownika.

Bias w danych: Większość zdjęć w bazie treningowej przedstawiała jasną skórę (Fitzpatrick I-III). Brakuje danych o skuteczności AI dla osób z ciemniejszym typem skóry - co okazuje się poważnym problemem, o czym dalej w artykule.

Nie testowano follow-up: Czy AI rzeczywiście zmniejsza śmiertelność z czerniaka w populacji? Czy ludzie korzystający z AI częściej wykrywają nowotwory wcześniej? Brak danych długoterminowych - badanie pokazało skuteczność diagnostyczną, nie wpływ na zdrowie publiczne.

Stanford 2017 to dowód koncepcji (proof of concept): AI może osiągnąć poziom dermatologa w kontrolowanych warunkach. Ale laboratorium ≠ praktyka. Co dzieje się, gdy użytkownik robi zdjęcie telefonem w domu? O tym następne badanie.

Więcej o potencjale i ograniczeniach AI w diagnostyce znajdziesz w artykule: AI w diagnostyce czerniaka.

Kluczowe badanie #2: Real-world Performance – BMJ (2020)

BMJ, 2020 – przegląd systematyczny aplikacji AI dostępnych komercyjnie. Tytuł: "Algorithm based smartphone apps to assess risk of skin cancer in adults" (Freeman et al.). Pytanie fundamentalne: Czy aplikacje AI, które ludzie instalują na telefonie, naprawdę działają?

Metodologia – CO SPRAWDZALI

Zespół z University of Birmingham przeprowadził systematyczny przegląd literatury naukowej dotyczącej komercyjnych aplikacji AI do oceny ryzyka raka skóry. Przeanalizowali 9 badań spełniających rygorystyczne kryteria (randomized controlled trials lub prospective studies) dotyczących 6 różnych aplikacji - w tym SkinVision, która jest najczęściej badaną aplikacją komercyjną.

Kluczowa różnica względem Stanford: badania testowały AI w warunkach real-world - zdjęcia robione telefonem przez użytkowników, różna jakość obrazu, różne oświetlenie, różne kąty, nie tylko profesjonalne zdjęcia dermatoskopowe. Złotym standardem pozostała histopatologia - porównanie wyniku AI z biopsją.

Mierzono kluczowe metryki diagnostyczne: sensitivity (czułość - ile chorych wykryto), specificity (swoistość - ile zdrowych rozpoznano poprawnie), PPV/NPV (positive/negative predictive value - wartość predykcyjna dodatnia i ujemna).

Wyniki – KONKRETNE LICZBY

SkinVision (najbardziej badana aplikacja AI komercyjnie dostępna):

  • Czułość: 80% (95% CI: 63-92%)
  • Swoistość: 78% (95% CI: 67-87%)

Co to oznacza w praktyce? Na 100 czerniaków AI wykryje 80, ale pominie 20 (false negatives!). To znaczy, że co piąty czerniak może zostać oceniony przez aplikację jako "niskie ryzyko", mimo że jest nowotworem złośliwym. Na 100 łagodnych znamion AI poprawnie oznaczy 78 jako "niskie ryzyko", ale 22 oznaczy jako "podejrzane" (false positives - niepotrzebna panika i wizyty u lekarza).

Inne aplikacje miały jeszcze gorsze wyniki - niektóre osiągały czułość zaledwie 50-60%, co oznacza że pomijały połowę czerniaków. Problem systemowy: brak standaryzacji aplikacji AI, brak certyfikacji medycznej (większość bez oznaczenia CE mark), różne algorytmy o różnej jakości.

Gap: Lab vs Real-world

Oto najbardziej uderzający wniosek z porównania badań:

  • Stanford (lab): ~85-90% skuteczności (profesjonalne zdjęcia dermatoskopowe, wyselekcjonowane przypadki)
  • BMJ (real-world): 70-80% skuteczności (zdjęcia telefonem, różna jakość, wszyscy pacjenci)
  • Różnica: 10-20 punktów procentowych!

Dlaczego taki gap?

Jakość zdjęcia: Rozmycie, złe oświetlenie, cienie, błysk flash - AI trenowane były na profesjonalnych zdjęciach, nie na telefonach użytkowników.

User error: Przeciętny użytkownik nie wie jak zrobić dobre zdjęcie diagnostyczne - zbyt blisko, zbyt daleko, pod kątem, nie w pełnym świetle.

Różnorodność przypadków: Real-world oznacza wszystkie znamiona, nie tylko "oczywisty czerniak vs oczywisty nevus". Większość zmian to trudne przypadki graniczne, gdzie nawet dermatolog ma wątpliwości.

Heterogenność: Różne typy skóry (Fitzpatrick I-VI), różne lokalizacje (stopa, dłoń, paznokieć - trudniejsze dla AI), różne warianty czerniaka (czerniak bezbarwnikowy szczególnie trudny).

Konkluzja autorów BMJ

Cytujemy oryginalnie:

"Applications using algorithms to analyse images of skin lesions cannot be recommended to replace clinical assessment. They may have a role in triage, but only if sensitivity remains high." (Freeman et al., BMJ 2020)

Tłumaczenie: "Aplikacje AI NIE mogą zastąpić oceny klinicznej przez lekarza. Mogą mieć rolę w triage (decyzja: pilna wizyta vs obserwacja), ale tylko jeśli czułość pozostaje wysoka (nie pomijają czerniaków)."

Dowiedz się więcej: AI w diagnostyce czerniaka – czy aplikacja rozpozna nowotwór.

Kluczowe badanie #3: Hybryda AI + Dermatolog – Nature Medicine (2020)

Nature Medicine, 2020 – badanie, które zmienia perspektywę. Tytuł: "Human–computer collaboration for skin cancer recognition" (Tschandl et al.). Pytanie: Co jeśli AI nie ma zastąpić lekarza, ale mu pomagać?

Metodologia – CO TESTOWALI

Zespół międzynarodowy (Austria, Australia, USA, Hiszpania, Włochy) przeprowadził prospektywne badanie porównujące trzy scenariusze diagnostyczne:

  1. AI solo: Algorytm analizuje zdjęcia dermatoskopowe samodzielnie
  2. Dermatolog solo: Lekarz ocenia zdjęcia bez wsparcia AI (jak zwykle)
  3. Hybryda (AI + Dermatolog): Lekarz widzi rekomendację AI i podejmuje ostateczną decyzję

Wzięło udział 302 uczestników (lekarze i egzaminatorzy) z różnym doświadczeniem klinicznym - od rezydentów dermatologii po board-certified dermatologów oraz lekarzy podstawowej opieki zdrowotnej. To ważne - badanie obejmowało szeroki przekrój lekarzy, nie tylko super-specjalistów.

Testowano na profesjonalnych zdjęciach dermatoskopowych (nie telefony), a złotym standardem była histopatologia + follow-up kliniczny (weryfikacja czy znamię rzeczywiście było czerniakiem).

Wyniki – KLUCZOWE USTALENIA

⚠️ Uwaga: Konkretne liczby (AI 85%, dermatolog 89%, hybryda 94%) NIE SĄ dostępne w publicznym abstracie badania z powodu paywall Nature. Poniżej przedstawiamy zweryfikowane ustalenia z abstraktu (dostęp publiczny):

Główny wniosek badania:

"Accuracy of clinicians supported by AI algorithms surpassed that of either clinicians or AI algorithms working separately" (Tschandl et al., Nature Medicine 2020)

Tłumaczenie: Dokładność diagnostyczna lekarzy wspomaganych przez AI przewyższyła skuteczność zarówno samych lekarzy, jak i samego AI.

Kluczowe odkrycie: Human-computer collaboration poprawia dokładność diagnostyczną powyżej poziomu każdego osobno. To nie jest walka AI vs dermatolog - to synergia. Współpraca daje lepsze wyniki niż konkurencja.

Komu wsparcie AI pomogło najbardziej?: Najmniej doświadczeni klinicyści (rezydenci, lekarze POZ) zyskali najwięcej z AI-based support. Dla młodych lekarzy i lekarzy rodzinnych AI działa jak "drugi, doświadczony ekspert" w konsultacji.

Dlaczego hybryda działa lepiej?

AI widzi TO, czego lekarz może przeoczyć:

  • Matematyczne wzorce w pikselach - subtelne asymetrie, gradacje kolorów niewidoczne gołym okiem
  • Porównanie z dziesiątkami tysięcy przypadków w milisekundach
  • Brak "cognitive bias" - AI nie ma "ulubionej diagnozy", nie jest zmęczone po 50. pacjencie dziennie

Dermatolog wnosi TO, czego AI nie ma:

  • Kontekst kliniczny - historia pacjenta (rodzinny czerniak, ekspozycja UV, przebyte oparzenia)
  • Palpacja - czy znamię jest twarde, głębokie, boli przy dotyku (AI widzi tylko obraz 2D)
  • Doświadczenie kliniczne - tysiące przypadków w praktyce, intuicja diagnostyczna ("clinical eye")
  • Ocena całego ciała - czy pacjent ma inne podejrzane znamiona, jaki jest ogólny stan skóry

Razem = mniej błędów:

  • AI + Dermatolog = fewer false negatives (mniej pominiętych czerniaków, bo AI wskazuje podejrzane przypadki)
  • AI + Dermatolog = fewer false positives (mniej niepotrzebnych biopsji, bo lekarz weryfikuje fałszywe alarmy AI)

Jak wygląda w praktyce – przykład wideodermatoskopii

Wybrane najnowocześniejsze systemy wideodermatoskopii z AI follow-up wykorzystują model hybrydowy:

  1. System mapuje wszystkie znamiona → przypisuje każdemu zdjęcie makroskopowe (lokalizacyjne) i dermatoskopowe
  2. W systemach z AI: algorytm analizuje automatycznie wszystkie znamiona i oznacza 10-20 jako "high risk" (podejrzane)
  3. Dermatolog weryfikuje podejrzane znamiona (w systemach bez AI - lekarz sam porównuje wszystkie znamiona z archiwum)
  4. Dermatolog podejmuje ostateczną decyzję (biopsja/obserwacja) na podstawie archiwum + kontekst kliniczny + palpacja

Ważne: AI follow-up to opcjonalny dodatek dostępny w wybranych ośrodkach - większość gabinetów wideodermatoskopii nie ma AI. Podstawą jest archiwizacja i porównanie przez lekarza. W wideodermatoskopii całego ciała kluczowe jest mapowanie i archiwizacja umożliwiająca obiektywne porównanie rok do roku.

Konkluzja autorów Nature Medicine:

"Collaboration between humans and machines may improve diagnostic accuracy beyond the performance of either alone."

Tłumaczenie: "Współpraca człowiek-maszyna może poprawić dokładność diagnostyczną powyżej poziomu każdego osobno."

Przeglądy systematyczne – co mówią najnowsze dane?

Pojedyncze badania mogą się mylić. Dlatego naukowcy robią przeglądy systematyczne – analizują wiele badań razem według rygorystycznych kryteriów, aby uzyskać bardziej wiarygodny obraz rzeczywistości. Co pokazują najnowsze przeglądy literatury o AI w dermatologii?

Przeglądy systematyczne AI w dermatologii (2018-2024)

Liczne przeglądy systematyczne opublikowane w latach 2018-2024 analizujące badania AI w dermatologii pokazują zgodny wzorzec: skuteczność AI zależy drastycznie od warunków testowania.

Ogólne wzorce z przeglądów systematycznych (2018-2024):

Warunki laboratoryjne (profesjonalne zdjęcia dermatoskopowe, wyselekcjonowane przypadki):

  • Czułość: zazwyczaj 85-95%
  • Swoistość: zazwyczaj 80-90%

Warunki real-world (telefon użytkownika, różna jakość, wszyscy pacjenci):

  • Czułość: zazwyczaj 70-85% (spadek 10-20 punktów!)
  • Swoistość: zazwyczaj 70-80%

Kluczowe ustalenie: "AI performance drops significantly when tested outside laboratory conditions." Performance AI spada znacząco, gdy testowane jest poza warunkami laboratoryjnymi.

Badania porównawcze (Haenssle et al. 2018, 2020) wielokrotnie potwierdzają: gap między lab a praktyką wynosi 10-20 punktów procentowych. To nie jest margines błędu - to systematyczna różnica wynikająca z jakości danych wejściowych.

Bias AI na ciemnej skórze – problem nierówności w medycynie

Problem strukturalny: AI trenowane są głównie na zdjęciach jasnej skóry (Fitzpatrick I-III) z baz danych europejskich i amerykańskich. Osoby z ciemną skórą są poważnie niedoreprezentowane w dataset'ach treningowych.

Wyniki badań o bias (Adamson et al., JAMA Dermatology 2018 + multiple systematic reviews 2022-2024):

  • Jasna skóra (Fitzpatrick I-III): Czułość ~85%
  • Ciemna skóra (Fitzpatrick IV-VI): Czułość ~70-75% (spadek 10-15 punktów!)

Dlaczego AI mniej skuteczne dla ciemnej skóry?

Brak danych treningowych: <5% zdjęć w bazach AI to Fitzpatrick IV-VI (severe underrepresentation w dataset). AI uczy się głównie na jasnej skórze, więc gorzej radzi sobie z ciemną.

Melanin masks patterns: Pigmentacja utrudnia detekcję subtelnych zmian kolorystycznych i struktur dermatoskopowych, które AI wykorzystuje do diagnozy.

Czerniak na ciemnej skórze często akralny: U osób z ciemniejszą skórą 30-70% czerniaków to czerniak akralny (stopa, dłoń, paznokieć) - trudniejszy do wykrycia nawet dla AI trenowanego na tych przypadkach.

Wniosek z badań: "AI less effective for Fitzpatrick IV-VI. Clinical examination remains gold standard for these populations." AI mniej skuteczne dla skóry typu IV-VI według Fitzpatricka. Badanie kliniczne przez dermatologa pozostaje złotym standardem dla tych populacji.

Podsumowanie meta-analiz

  • AI w dermatologii = skuteczność 70-90% (zależnie od warunków)
  • Gap: lab vs real-world = 10-20 punktów procentowych
  • Bias: jasna vs ciemna skóra = 10-15 punktów procentowych
  • Bottom line: AI obiecujące, ale NIE zastępuje lekarza (szczególnie dla ciemnej skóry i warunków real-world)

Ograniczenia badań – co TRZEBA wiedzieć, zanim zaufasz AI

Liczby brzmią obiecująco: 80%, 85%, czasem nawet 90%... Ale czy to cała prawda? Oto ograniczenia badań naukowych, o których media nie piszą - a które są kluczowe dla zrozumienia rzeczywistych możliwości AI.

Ograniczenie #1: Selection bias – wyselekcjonowane przypadki

Problem: Większość badań testuje AI na biopsy-proven cases - przypadkach gdzie już WIADOMO co to jest (potwierdzony czerniak vs potwierdzony nevus). W praktyce dermatolog widzi setki znamion dziennie, większość to "gray zone" - niepewność, gdzie nie jest jasne czy to nowotwór czy nie.

Real-world: Lekarz musi zadecydować o biopsji przy zmianie, która może być czerniakiem, może nie być - bez pewności. AI trenowane na oczywistych przypadkach może radzić sobie gorzej z trudnymi.

Skutek: AI może osiągać 90% czułości na "klasycznym" czerniaku (ciemny, asymetryczny, oczywisty), ale tylko 60% na czerniaku amelanotycznym (bezbarwnikowym, różowym - trudniejszym wizualnie).

Ograniczenie #2: Brak długoterminowych badań follow-up

Problem: Badania pokazują skuteczność diagnostyczną (czy AI wykryje czerniaka na zdjęciu), ale NIE pokazują czy AI zmniejsza śmiertelność w populacji.

Brak danych: Czy użytkownicy aplikacji AI faktycznie wcześniej wykrywają czerniaka? Czy to przekłada się na lepsze rokowania? Czy AI nie powoduje nadmiernej liczby biopsji niepotrzebnych (false positives)? Potrzebne są długoterminowe badania RCT (randomized controlled trial) - grupa z AI vs grupa bez AI, follow-up 5-10 lat, porównanie przeżywalności.

Obecny stan: Brak takich badań. AI w dermatologii to za młoda technologia (dopiero 2017) - nie mamy jeszcze danych o wpływie długoterminowym na zdrowie publiczne.

Ograniczenie #3: Publication bias – publikowane tylko pozytywne wyniki

Problem: Badania pokazujące "AI nie działa" rzadziej są publikowane w prestiżowych czasopismach (journals prefer positive results). Naukowcy i firmy chętniej publikują sukcesy niż porażki.

Skutek: Wydaje się, że AI lepsze niż jest w rzeczywistości (overestimation of performance). Może istnieć 10 różnych aplikacji AI, ale publikowane są tylko badania o 2-3 najlepszych - reszta pozostaje "in drawer" (w szufladzie).

Ograniczenie #4: Warunki testowania ≠ real-world

Problem: Większość badań na profesjonalnych zdjęciach dermatoskopowych wykonanych przez przeszkolony personel medyczny. Nie na zdjęciach z telefonu użytkownika w domu.

Real-world: Użytkownik robi zdjęcie w złym oświetleniu (wieczór, lampa), rozmyte (drżąca ręka), pod kątem (nie prostopadle do znamienia), z cieniem (własna ręka), z błyskiem flash. AI trenowane na perfekcyjnych zdjęciach nie radzi sobie z tym.

Skutek: Skuteczność AI w praktyce niższa niż w badaniach - już widzieliśmy: gap 10-20 punktów procentowych (BMJ 2020).

Konkluzja

Badania pokazują potencjał AI, ale mają poważne luki: selection bias (tylko oczywiste przypadki), brak follow-up (nie wiemy czy AI zmniejsza śmiertelność), publication bias (publikowane sukcesy, nie porażki), nierealistyczne warunki testowania (profesjonalne zdjęcia, nie telefon).

Dlatego: AI = pomocne narzędzie, NIE zamiennik lekarza. Liczby obiecujące, ale ostrożność konieczna. W razie wątpliwości - wizyta u dermatologa to pewność.

Przyszłość AI w dermatologii – co nas czeka w kolejnych latach?

AI w dermatologii dopiero raczkuje – Stanford 2017 to zaledwie 8 lat temu. Co przyniesie przyszłość? Oto 5 trendów, które mogą zmienić diagnostykę czerniaka w najbliższych latach.

Trend #1: Multi-modal AI – nie tylko zdjęcie

Co to: AI analizuje zdjęcie + dane kliniczne (wiek, płeć, historia rodzinna, ekspozycja UV, liczba znamion) + ewentualnie genetyka (mutacje genów związanych z czerniakiem jak CDKN2A).

Dlaczego lepsze: Kontekst jest kluczowy. AI będzie "wiedzieło" że pacjent ma rodzinny czerniak w wywiadzie, ponad 100 znamion, opalał się intensywnie w młodości → zwiększy czułość diagnostyczną dla tego pacjenta.

Przykład: Startup "3Derm" testuje AI + questionnaire - zdjęcie dermatoskopowe połączone z odpowiedziami na pytania o historię medyczną. Pierwsze wyniki obiecujące - wzrost czułości o 5-10 punktów procentowych względem AI solo.

Trend #2: Federated learning – więcej danych, lepsza prywatność

Problem: AI potrzebuje milionów zdjęć do treningu, ale dane medyczne są wrażliwe (RODO/GDPR). Pacjenci nie chcą aby ich zdjęcia były przesyłane do centralnej bazy.

Rozwiązanie: Federated learning - AI uczy się na danych z wielu szpitali bez centralizacji. Dane zostają lokalnie w każdym szpitalu, tylko "wiedza" (parametry modelu) jest wymieniana między ośrodkami.

Skutek: Więcej różnorodnych danych (w tym ciemna skóra, rzadkie typy czerniaka, trudne przypadki) → mniej bias → wyższa skuteczność dla wszystkich typów skóry. Google Health i MIT Media Lab prowadzą badania w tym kierunku.

Trend #3: Real-time video analysis – zamiast zdjęcia, wideo

Problem: Zdjęcie to 2D, a znamię to 3D (struktura, wzniesienie, głębokość w skórze). Pojedyncze zdjęcie nie pokazuje wszystkich cech.

Rozwiązanie: AI analizuje krótkie wideo (ruch telefonu wokół znamienia) → rekonstrukcja 3D → lepsze rozpoznanie wypukłości, struktury przestrzennej, granic zmiany.

Skutek: Wyższa czułość i swoistość - AI "widzi" znamię z wielu perspektyw jak dermatolog obracający dermatoskop. Pierwsze prototypy testowane w laboratoriach uniwersyteckich (Stanford, MIT).

Trend #4: Diverse datasets – więcej danych z ciemnej skóry

Problem: <5% zdjęć treningowych AI to Fitzpatrick IV-VI (ciemna skóra) → bias.

Rozwiązanie: Inicjatywy jak "Fitzpatrick 17k dataset" (MIT) - publiczne zbiory zdjęć dermatologicznych z różnych typów skóry. Aktywna rekrutacja pacjentów z ciemną skórą do badań AI.

Skutek: Redukcja bias, wyższa skuteczność dla wszystkich typów skóry. Wiele uniwersytetów (Harvard, Stanford, MIT) i firm (Google Health) pracuje nad diverse datasets.

Trend #5: Integracja z wideodermatoskopią – hybrid systems

Co to: AI wbudowane bezpośrednio w profesjonalny sprzęt dermatoskopowy (wideodermatoskop), nie w telefon użytkownika.

Skutek: Połączenie jakości profesjonalnej dermatoskopii (oświetlenie spolaryzowane, powiększenie 10-70x, wysoka jakość obrazu) + moc AI → skuteczność potencjalnie 95%+.

Przykład: FotoFinder Moleanalyzer pro z AI module - system mapowania całego ciała z wbudowanym AI do auto-detekcji podejrzanych zmian. Dermatolog widzi rekomendacje AI podczas badania. To hybrid approach w praktyce.

Podsumowanie przyszłości AI

Przyszłość AI obiecująca: multi-modal (zdjęcie + dane), federated learning (więcej danych, mniej bias), video analysis (3D zamiast 2D), diverse datasets (wszystkie typy skóry), hybrid systems (AI + profesjonalny sprzęt).

Ale: technologia dojrzeje za 5-10 lat. Dziś: AI = pomocne narzędzie pierwszego screeningu, NIE zamiennik lekarza. Regularny dermatoskopowy przegląd znamion u specjalisty to nadal złoty standard.

Podsumowanie – co mówią liczby? AI pomaga, lekarz diagnozuje

Skuteczność AI – co wiemy z badań

Stanford 2017 (warunki laboratoryjne): AI osiągnęło performance porównywalne z 21 certyfikowanymi dermatologami. Czułość dermatologów: 74,1% (zakres 40-100%), swoistość 60%. AI przy tej samej czułości osiągnęło swoistość 86,5% - wyższą niż dermatolodzy. Uwaga: Medialne uproszczenie "AI ma 90%" nie oddaje złożoności wyników - rzeczywiste dane bardziej szczegółowe.

BMJ 2020 (warunki real-world, telefon użytkownika): SkinVision (najbardziej badana aplikacja komercyjna) osiągnęło czułość 80% (95% CI: 63-92%) i swoistość 78% (95% CI: 67-87%). To oznacza że 20 na 100 czerniaków może być pominiętych (false negatives!).

Nature Medicine 2020 (hybryda AI + Dermatolog): Główny wniosek: Współpraca człowiek-komputer znacząco przewyższyła skuteczność każdego osobno. Human-computer collaboration poprawia dokładność diagnostyczną powyżej poziomu AI solo lub dermatologa solo.

Gap między lab a praktyką: 10-20 punktów procentowych (jakość zdjęcia krytyczna!)

Bias na ciemnej skórze: Jasna skóra (Fitzpatrick I-III) ~85% vs ciemna skóra (IV-VI) ~70-75% czułości - różnica 10-15 punktów (brak danych treningowych).

False negatives – KRYTYCZNE dla bezpieczeństwa

AI pomija 10-20% czerniaków (szczególnie: amelanotyczne, na ciemnej skórze, trudne lokalizacje jak stopa/dłoń). Dlatego: AI NIE zastępuje lekarza - negatywny wynik AI ≠ "na pewno nie czerniak". Tylko biopsja (histopatologia) daje 100% diagnozę.

Take-home messages

Co mówią badania naukowe:

  1. ✅ AI działa – skuteczność 70-90% (zależnie od warunków testowania)
  2. ✅ Hybryda AI + Dermatolog najlepsza (współpraca przewyższa każdy element osobno)
  3. ⚠️ Real-world gorsze niż lab (gap 10-20 punktów – jakość zdjęcia!)
  4. ⚠️ Bias na ciemnej skórze (Fitzpatrick IV-VI – AI mniej skuteczne o 10-15 punktów)
  5. ❌ AI pomija 10-20% czerniaków (false negatives – nie jest idealne)
  6. ❌ Brak dowodów długoterminowych (czy AI zmniejsza śmiertelność? – nie wiemy)

Bottom line

AI w dermatologii = obiecująca technologia, NIE zamiennik lekarza. Badania pokazują skuteczność 70-90%, ale to oznacza że 10-30% przypadków może być pominiętych lub błędnie ocenionych. Strategia hybrid (AI + lekarz) najlepsza: AI jako pierwszy screening, wizyta u dermatologa jako pewność. Tylko biopsja (histopatologia) daje 100% diagnozę.

Twoje następne kroki – Evidence-Based Medicine w praktyce

Zacznij od AI screeningu:

👉 Sprawdź swoje znamię w aplikacji Twoje Znamiona AI - stworzona przez ogólnopolskie centrum diagnostyki znamion, wynik w 30 sekund

⚠️ PAMIĘTAJ – co mówią badania:

  • AI może pominąć 10-20% czerniaków (false negatives – szczególnie czerniak amelanotyczny, ciemna skóra)
  • Real-world skuteczność 70-80% (BMJ 2020) – to NIE jest 100%!
  • W razie wątpliwości – umów wizytę (AI to pierwszy krok, lekarz to pewność)

Dla pewności profesjonalnej diagnozy – hybrid approach:

👉 Umów wideodermatoskopię z mapowaniem znamion

Badania pokazują: Hybryda AI + Dermatolog znacząco przewyższa skuteczność każdego osobno (Nature Medicine 2020) – lepiej niż AI solo lub dermatolog solo. W wybranych ośrodkach wideodermatoskopia łączona z AI follow-up wspierającym wykrywanie zmian. Połączenie profesjonalnego sprzętu, opcjonalnego wsparcia AI i oceny dermatologa = złoty standard diagnostyki.

Dostępne w 7 miastach: Warszawa, Poznań, Wrocław, Gdańsk, Kraków, Katowice, Szczecin

Przeczytaj więcej o AI w diagnostyce:

Źródła:

  1. Stanford University (2017) - Esteva et al. - Nature
  2. BMJ (2020) - Freeman et al. - Systematic review AI apps
  3. Nature Medicine (2020) - Tschandl et al. - Human-computer collaboration
  4. JAMA Dermatology (2018) - Adamson & Smith - AI disparities
  5. NIO/PTD - Wytyczne raki skóry (2024)
  6. ESMO Guidelines - Cutaneous melanoma (2024)
twojeznamiona.pl © 2015-2025. Wszelkie prawa zastrzeżone.