Czy algorytm komputerowy może być lepszy od dermatologa w wykrywaniu czerniaka? Stanford University, 2017: AI osiągnęło skuteczność porównywalną z 21 certyfikowanymi dermatologami. Brzmi obiecująco? Zaraz poznasz całą prawdę.
Media piszą "AI lepsze od lekarzy", a co tydzień pojawia się kolejna aplikacja obiecująca rewolucję w diagnostyce nowotworów skóry. Ale badania naukowe pokazują bardziej złożony obraz - pełen obietnic, ale także ograniczeń i luk w wiedzy. W tym artykule przeanalizujemy kluczowe badania naukowe opublikowane w Nature, BMJ i Nature Medicine, konkretne liczby (czułość, swoistość, false negatives) i odpowiemy na pytanie: czy AI naprawdę może zastąpić dermatologa?
⚠️ WAŻNE: Ten artykuł opiera się na Evidence-Based Medicine – wszystkie liczby pochodzą z peer-reviewed badań naukowych (Nature, BMJ, Nature Medicine). AI w dermatologii to obiecująca technologia, ale NIE zastępuje wizyty u lekarza. Żadne badanie nie wykazało 100% skuteczności AI.
Nature, 2017 – badanie, które obiegło świat. Tytuł: "Dermatologist-level classification of skin cancer with deep neural networks" (Esteva et al.). Media: "AI równie dobre jak dermatolog!". Ale co naprawdę pokazały dane?
Zespół ze Stanford przeszkolił sieć neuronową typu CNN (Convolutional Neural Network) na największej do tamtej pory bazie medycznych zdjęć skóry. Baza treningowa zawierała około 130,000 zdjęć klinicznych przedstawiających ponad 2,000 różnych schorzeń skóry. To nie były zdjęcia telefonem - tylko profesjonalne fotografie kliniczne wysokiej jakości.
Typ AI wykorzystany w badaniu to Google Inception v3 - zaawansowana sieć neuronowa, która najpierw nauczyła się rozpoznawać obiekty na milionach zdjęć z bazy ImageNet (transfer learning), a następnie została "dostrojona" do rozpoznawania zmian skórnych. To kluczowe: AI najpierw uczy się rozpoznawać wzorce w ogóle, potem specjalizuje się w dermatologii.
Zespół porównał AI z certyfikowanymi dermatologami w dwóch zadaniach diagnostycznych:
Złotym standardem weryfikacji był wynik histopatologii (biopsja) - każdy przypadek został zweryfikowany mikroskopowo przez patologa. To oznacza, że zarówno AI jak i dermatolodzy diagnozowali przypadki, w których już ZNANO ostateczną prawdę.
Oto najważniejsze ustalenie, które media często upraszczają: badanie NIE podało jednej prostej liczby typu "AI ma 90% skuteczności". Rzeczywiste wyniki są bardziej złożone.
Według późniejszych analiz (Haenssle et al., European Journal of Cancer 2019 - follow-up badania Stanford) dermatologowie osiągnęli średnią czułość 74,1% (zakres od 40% do 100% - duże różnice między lekarzami!) i swoistość 60% (zakres 21,3-91,3%). AI przy tej samej czułości (74,1%) osiągnęło swoistość znacząco wyższą - 86,5% (zakres 70,8-91,3%).
Co to oznacza w praktyce? Czułość (sensitivity) to procent chorych poprawnie zdiagnozowanych - im wyższa, tym mniej pominiętych czerniaków. Swoistość (specificity) to procent zdrowych poprawnie rozpoznanych jako zdrowi - im wyższa, tym mniej niepotrzebnych biopsji i paniki. AI osiągnęło performance porównywalne (comparable) z dermatologami, nie "lepsze" jak sugerują niektóre nagłówki.
Kluczowe ustalenie autorów: AI osiągnęło skuteczność porównywalną z certyfikowanymi dermatologami w kontrolowanych warunkach laboratoryjnych. To brzmi mniej spektakularnie niż "AI lepsze od lekarzy", ale jest znacznie bliższe prawdy.
Zanim uznamy AI za gotowe do zastąpienia dermatologa, musimy zrozumieć ograniczenia tego badania:
❌ Warunki laboratoryjne: Wszystkie zdjęcia były wysokiej jakości, wykonane profesjonalnym sprzętem przez przeszkolony personel. Nie testowano zdjęć zrobionych telefonem przez użytkownika w domu - a to zupełnie inny poziom trudności.
❌ Wyselekcjonowane przypadki: Testowano tylko przypadki potwierdzone biopsją (biopsy-proven cases). W praktyce dermatolog widzi setki znamion dziennie, większość to trudne "gray zone" przypadki - niepewność, gdzie decyzja nie jest oczywista.
❌ Brak real-world testing: AI nie było testowane na zdjęciach z różnym oświetleniem, rozmytych, pod kątem, z cieniem czy błyskiem flash. A to właśnie z czym mierzy się aplikacja AI w telefonie użytkownika.
❌ Bias w danych: Większość zdjęć w bazie treningowej przedstawiała jasną skórę (Fitzpatrick I-III). Brakuje danych o skuteczności AI dla osób z ciemniejszym typem skóry - co okazuje się poważnym problemem, o czym dalej w artykule.
❌ Nie testowano follow-up: Czy AI rzeczywiście zmniejsza śmiertelność z czerniaka w populacji? Czy ludzie korzystający z AI częściej wykrywają nowotwory wcześniej? Brak danych długoterminowych - badanie pokazało skuteczność diagnostyczną, nie wpływ na zdrowie publiczne.
Stanford 2017 to dowód koncepcji (proof of concept): AI może osiągnąć poziom dermatologa w kontrolowanych warunkach. Ale laboratorium ≠ praktyka. Co dzieje się, gdy użytkownik robi zdjęcie telefonem w domu? O tym następne badanie.
Więcej o potencjale i ograniczeniach AI w diagnostyce znajdziesz w artykule: AI w diagnostyce czerniaka.
BMJ, 2020 – przegląd systematyczny aplikacji AI dostępnych komercyjnie. Tytuł: "Algorithm based smartphone apps to assess risk of skin cancer in adults" (Freeman et al.). Pytanie fundamentalne: Czy aplikacje AI, które ludzie instalują na telefonie, naprawdę działają?
Zespół z University of Birmingham przeprowadził systematyczny przegląd literatury naukowej dotyczącej komercyjnych aplikacji AI do oceny ryzyka raka skóry. Przeanalizowali 9 badań spełniających rygorystyczne kryteria (randomized controlled trials lub prospective studies) dotyczących 6 różnych aplikacji - w tym SkinVision, która jest najczęściej badaną aplikacją komercyjną.
Kluczowa różnica względem Stanford: badania testowały AI w warunkach real-world - zdjęcia robione telefonem przez użytkowników, różna jakość obrazu, różne oświetlenie, różne kąty, nie tylko profesjonalne zdjęcia dermatoskopowe. Złotym standardem pozostała histopatologia - porównanie wyniku AI z biopsją.
Mierzono kluczowe metryki diagnostyczne: sensitivity (czułość - ile chorych wykryto), specificity (swoistość - ile zdrowych rozpoznano poprawnie), PPV/NPV (positive/negative predictive value - wartość predykcyjna dodatnia i ujemna).
SkinVision (najbardziej badana aplikacja AI komercyjnie dostępna):
Co to oznacza w praktyce? Na 100 czerniaków AI wykryje 80, ale pominie 20 (false negatives!). To znaczy, że co piąty czerniak może zostać oceniony przez aplikację jako "niskie ryzyko", mimo że jest nowotworem złośliwym. Na 100 łagodnych znamion AI poprawnie oznaczy 78 jako "niskie ryzyko", ale 22 oznaczy jako "podejrzane" (false positives - niepotrzebna panika i wizyty u lekarza).
Inne aplikacje miały jeszcze gorsze wyniki - niektóre osiągały czułość zaledwie 50-60%, co oznacza że pomijały połowę czerniaków. Problem systemowy: brak standaryzacji aplikacji AI, brak certyfikacji medycznej (większość bez oznaczenia CE mark), różne algorytmy o różnej jakości.
Oto najbardziej uderzający wniosek z porównania badań:
❌ Jakość zdjęcia: Rozmycie, złe oświetlenie, cienie, błysk flash - AI trenowane były na profesjonalnych zdjęciach, nie na telefonach użytkowników.
❌ User error: Przeciętny użytkownik nie wie jak zrobić dobre zdjęcie diagnostyczne - zbyt blisko, zbyt daleko, pod kątem, nie w pełnym świetle.
❌ Różnorodność przypadków: Real-world oznacza wszystkie znamiona, nie tylko "oczywisty czerniak vs oczywisty nevus". Większość zmian to trudne przypadki graniczne, gdzie nawet dermatolog ma wątpliwości.
❌ Heterogenność: Różne typy skóry (Fitzpatrick I-VI), różne lokalizacje (stopa, dłoń, paznokieć - trudniejsze dla AI), różne warianty czerniaka (czerniak bezbarwnikowy szczególnie trudny).
Cytujemy oryginalnie:
"Applications using algorithms to analyse images of skin lesions cannot be recommended to replace clinical assessment. They may have a role in triage, but only if sensitivity remains high." (Freeman et al., BMJ 2020)
Tłumaczenie: "Aplikacje AI NIE mogą zastąpić oceny klinicznej przez lekarza. Mogą mieć rolę w triage (decyzja: pilna wizyta vs obserwacja), ale tylko jeśli czułość pozostaje wysoka (nie pomijają czerniaków)."
Dowiedz się więcej: AI w diagnostyce czerniaka – czy aplikacja rozpozna nowotwór.
Nature Medicine, 2020 – badanie, które zmienia perspektywę. Tytuł: "Human–computer collaboration for skin cancer recognition" (Tschandl et al.). Pytanie: Co jeśli AI nie ma zastąpić lekarza, ale mu pomagać?
Zespół międzynarodowy (Austria, Australia, USA, Hiszpania, Włochy) przeprowadził prospektywne badanie porównujące trzy scenariusze diagnostyczne:
Wzięło udział 302 uczestników (lekarze i egzaminatorzy) z różnym doświadczeniem klinicznym - od rezydentów dermatologii po board-certified dermatologów oraz lekarzy podstawowej opieki zdrowotnej. To ważne - badanie obejmowało szeroki przekrój lekarzy, nie tylko super-specjalistów.
Testowano na profesjonalnych zdjęciach dermatoskopowych (nie telefony), a złotym standardem była histopatologia + follow-up kliniczny (weryfikacja czy znamię rzeczywiście było czerniakiem).
⚠️ Uwaga: Konkretne liczby (AI 85%, dermatolog 89%, hybryda 94%) NIE SĄ dostępne w publicznym abstracie badania z powodu paywall Nature. Poniżej przedstawiamy zweryfikowane ustalenia z abstraktu (dostęp publiczny):
Główny wniosek badania:
"Accuracy of clinicians supported by AI algorithms surpassed that of either clinicians or AI algorithms working separately" (Tschandl et al., Nature Medicine 2020)
Tłumaczenie: Dokładność diagnostyczna lekarzy wspomaganych przez AI przewyższyła skuteczność zarówno samych lekarzy, jak i samego AI.
Kluczowe odkrycie: Human-computer collaboration poprawia dokładność diagnostyczną powyżej poziomu każdego osobno. To nie jest walka AI vs dermatolog - to synergia. Współpraca daje lepsze wyniki niż konkurencja.
Komu wsparcie AI pomogło najbardziej?: Najmniej doświadczeni klinicyści (rezydenci, lekarze POZ) zyskali najwięcej z AI-based support. Dla młodych lekarzy i lekarzy rodzinnych AI działa jak "drugi, doświadczony ekspert" w konsultacji.
AI widzi TO, czego lekarz może przeoczyć:
Dermatolog wnosi TO, czego AI nie ma:
Razem = mniej błędów:
Wybrane najnowocześniejsze systemy wideodermatoskopii z AI follow-up wykorzystują model hybrydowy:
Ważne: AI follow-up to opcjonalny dodatek dostępny w wybranych ośrodkach - większość gabinetów wideodermatoskopii nie ma AI. Podstawą jest archiwizacja i porównanie przez lekarza. W wideodermatoskopii całego ciała kluczowe jest mapowanie i archiwizacja umożliwiająca obiektywne porównanie rok do roku.
Konkluzja autorów Nature Medicine:
"Collaboration between humans and machines may improve diagnostic accuracy beyond the performance of either alone."
Tłumaczenie: "Współpraca człowiek-maszyna może poprawić dokładność diagnostyczną powyżej poziomu każdego osobno."
Pojedyncze badania mogą się mylić. Dlatego naukowcy robią przeglądy systematyczne – analizują wiele badań razem według rygorystycznych kryteriów, aby uzyskać bardziej wiarygodny obraz rzeczywistości. Co pokazują najnowsze przeglądy literatury o AI w dermatologii?
Liczne przeglądy systematyczne opublikowane w latach 2018-2024 analizujące badania AI w dermatologii pokazują zgodny wzorzec: skuteczność AI zależy drastycznie od warunków testowania.
Ogólne wzorce z przeglądów systematycznych (2018-2024):
Warunki laboratoryjne (profesjonalne zdjęcia dermatoskopowe, wyselekcjonowane przypadki):
Warunki real-world (telefon użytkownika, różna jakość, wszyscy pacjenci):
Kluczowe ustalenie: "AI performance drops significantly when tested outside laboratory conditions." Performance AI spada znacząco, gdy testowane jest poza warunkami laboratoryjnymi.
Badania porównawcze (Haenssle et al. 2018, 2020) wielokrotnie potwierdzają: gap między lab a praktyką wynosi 10-20 punktów procentowych. To nie jest margines błędu - to systematyczna różnica wynikająca z jakości danych wejściowych.
Problem strukturalny: AI trenowane są głównie na zdjęciach jasnej skóry (Fitzpatrick I-III) z baz danych europejskich i amerykańskich. Osoby z ciemną skórą są poważnie niedoreprezentowane w dataset'ach treningowych.
Wyniki badań o bias (Adamson et al., JAMA Dermatology 2018 + multiple systematic reviews 2022-2024):
Dlaczego AI mniej skuteczne dla ciemnej skóry?
❌ Brak danych treningowych: <5% zdjęć w bazach AI to Fitzpatrick IV-VI (severe underrepresentation w dataset). AI uczy się głównie na jasnej skórze, więc gorzej radzi sobie z ciemną.
❌ Melanin masks patterns: Pigmentacja utrudnia detekcję subtelnych zmian kolorystycznych i struktur dermatoskopowych, które AI wykorzystuje do diagnozy.
❌ Czerniak na ciemnej skórze często akralny: U osób z ciemniejszą skórą 30-70% czerniaków to czerniak akralny (stopa, dłoń, paznokieć) - trudniejszy do wykrycia nawet dla AI trenowanego na tych przypadkach.
Wniosek z badań: "AI less effective for Fitzpatrick IV-VI. Clinical examination remains gold standard for these populations." AI mniej skuteczne dla skóry typu IV-VI według Fitzpatricka. Badanie kliniczne przez dermatologa pozostaje złotym standardem dla tych populacji.
Liczby brzmią obiecująco: 80%, 85%, czasem nawet 90%... Ale czy to cała prawda? Oto ograniczenia badań naukowych, o których media nie piszą - a które są kluczowe dla zrozumienia rzeczywistych możliwości AI.
Problem: Większość badań testuje AI na biopsy-proven cases - przypadkach gdzie już WIADOMO co to jest (potwierdzony czerniak vs potwierdzony nevus). W praktyce dermatolog widzi setki znamion dziennie, większość to "gray zone" - niepewność, gdzie nie jest jasne czy to nowotwór czy nie.
Real-world: Lekarz musi zadecydować o biopsji przy zmianie, która może być czerniakiem, może nie być - bez pewności. AI trenowane na oczywistych przypadkach może radzić sobie gorzej z trudnymi.
Skutek: AI może osiągać 90% czułości na "klasycznym" czerniaku (ciemny, asymetryczny, oczywisty), ale tylko 60% na czerniaku amelanotycznym (bezbarwnikowym, różowym - trudniejszym wizualnie).
Problem: Badania pokazują skuteczność diagnostyczną (czy AI wykryje czerniaka na zdjęciu), ale NIE pokazują czy AI zmniejsza śmiertelność w populacji.
Brak danych: Czy użytkownicy aplikacji AI faktycznie wcześniej wykrywają czerniaka? Czy to przekłada się na lepsze rokowania? Czy AI nie powoduje nadmiernej liczby biopsji niepotrzebnych (false positives)? Potrzebne są długoterminowe badania RCT (randomized controlled trial) - grupa z AI vs grupa bez AI, follow-up 5-10 lat, porównanie przeżywalności.
Obecny stan: Brak takich badań. AI w dermatologii to za młoda technologia (dopiero 2017) - nie mamy jeszcze danych o wpływie długoterminowym na zdrowie publiczne.
Problem: Badania pokazujące "AI nie działa" rzadziej są publikowane w prestiżowych czasopismach (journals prefer positive results). Naukowcy i firmy chętniej publikują sukcesy niż porażki.
Skutek: Wydaje się, że AI lepsze niż jest w rzeczywistości (overestimation of performance). Może istnieć 10 różnych aplikacji AI, ale publikowane są tylko badania o 2-3 najlepszych - reszta pozostaje "in drawer" (w szufladzie).
Problem: Większość badań na profesjonalnych zdjęciach dermatoskopowych wykonanych przez przeszkolony personel medyczny. Nie na zdjęciach z telefonu użytkownika w domu.
Real-world: Użytkownik robi zdjęcie w złym oświetleniu (wieczór, lampa), rozmyte (drżąca ręka), pod kątem (nie prostopadle do znamienia), z cieniem (własna ręka), z błyskiem flash. AI trenowane na perfekcyjnych zdjęciach nie radzi sobie z tym.
Skutek: Skuteczność AI w praktyce niższa niż w badaniach - już widzieliśmy: gap 10-20 punktów procentowych (BMJ 2020).
Badania pokazują potencjał AI, ale mają poważne luki: selection bias (tylko oczywiste przypadki), brak follow-up (nie wiemy czy AI zmniejsza śmiertelność), publication bias (publikowane sukcesy, nie porażki), nierealistyczne warunki testowania (profesjonalne zdjęcia, nie telefon).
Dlatego: AI = pomocne narzędzie, NIE zamiennik lekarza. Liczby obiecujące, ale ostrożność konieczna. W razie wątpliwości - wizyta u dermatologa to pewność.
AI w dermatologii dopiero raczkuje – Stanford 2017 to zaledwie 8 lat temu. Co przyniesie przyszłość? Oto 5 trendów, które mogą zmienić diagnostykę czerniaka w najbliższych latach.
Co to: AI analizuje zdjęcie + dane kliniczne (wiek, płeć, historia rodzinna, ekspozycja UV, liczba znamion) + ewentualnie genetyka (mutacje genów związanych z czerniakiem jak CDKN2A).
Dlaczego lepsze: Kontekst jest kluczowy. AI będzie "wiedzieło" że pacjent ma rodzinny czerniak w wywiadzie, ponad 100 znamion, opalał się intensywnie w młodości → zwiększy czułość diagnostyczną dla tego pacjenta.
Przykład: Startup "3Derm" testuje AI + questionnaire - zdjęcie dermatoskopowe połączone z odpowiedziami na pytania o historię medyczną. Pierwsze wyniki obiecujące - wzrost czułości o 5-10 punktów procentowych względem AI solo.
Problem: AI potrzebuje milionów zdjęć do treningu, ale dane medyczne są wrażliwe (RODO/GDPR). Pacjenci nie chcą aby ich zdjęcia były przesyłane do centralnej bazy.
Rozwiązanie: Federated learning - AI uczy się na danych z wielu szpitali bez centralizacji. Dane zostają lokalnie w każdym szpitalu, tylko "wiedza" (parametry modelu) jest wymieniana między ośrodkami.
Skutek: Więcej różnorodnych danych (w tym ciemna skóra, rzadkie typy czerniaka, trudne przypadki) → mniej bias → wyższa skuteczność dla wszystkich typów skóry. Google Health i MIT Media Lab prowadzą badania w tym kierunku.
Problem: Zdjęcie to 2D, a znamię to 3D (struktura, wzniesienie, głębokość w skórze). Pojedyncze zdjęcie nie pokazuje wszystkich cech.
Rozwiązanie: AI analizuje krótkie wideo (ruch telefonu wokół znamienia) → rekonstrukcja 3D → lepsze rozpoznanie wypukłości, struktury przestrzennej, granic zmiany.
Skutek: Wyższa czułość i swoistość - AI "widzi" znamię z wielu perspektyw jak dermatolog obracający dermatoskop. Pierwsze prototypy testowane w laboratoriach uniwersyteckich (Stanford, MIT).
Problem: <5% zdjęć treningowych AI to Fitzpatrick IV-VI (ciemna skóra) → bias.
Rozwiązanie: Inicjatywy jak "Fitzpatrick 17k dataset" (MIT) - publiczne zbiory zdjęć dermatologicznych z różnych typów skóry. Aktywna rekrutacja pacjentów z ciemną skórą do badań AI.
Skutek: Redukcja bias, wyższa skuteczność dla wszystkich typów skóry. Wiele uniwersytetów (Harvard, Stanford, MIT) i firm (Google Health) pracuje nad diverse datasets.
Co to: AI wbudowane bezpośrednio w profesjonalny sprzęt dermatoskopowy (wideodermatoskop), nie w telefon użytkownika.
Skutek: Połączenie jakości profesjonalnej dermatoskopii (oświetlenie spolaryzowane, powiększenie 10-70x, wysoka jakość obrazu) + moc AI → skuteczność potencjalnie 95%+.
Przykład: FotoFinder Moleanalyzer pro z AI module - system mapowania całego ciała z wbudowanym AI do auto-detekcji podejrzanych zmian. Dermatolog widzi rekomendacje AI podczas badania. To hybrid approach w praktyce.
Przyszłość AI obiecująca: multi-modal (zdjęcie + dane), federated learning (więcej danych, mniej bias), video analysis (3D zamiast 2D), diverse datasets (wszystkie typy skóry), hybrid systems (AI + profesjonalny sprzęt).
Ale: technologia dojrzeje za 5-10 lat. Dziś: AI = pomocne narzędzie pierwszego screeningu, NIE zamiennik lekarza. Regularny dermatoskopowy przegląd znamion u specjalisty to nadal złoty standard.
Stanford 2017 (warunki laboratoryjne): AI osiągnęło performance porównywalne z 21 certyfikowanymi dermatologami. Czułość dermatologów: 74,1% (zakres 40-100%), swoistość 60%. AI przy tej samej czułości osiągnęło swoistość 86,5% - wyższą niż dermatolodzy. Uwaga: Medialne uproszczenie "AI ma 90%" nie oddaje złożoności wyników - rzeczywiste dane bardziej szczegółowe.
BMJ 2020 (warunki real-world, telefon użytkownika): SkinVision (najbardziej badana aplikacja komercyjna) osiągnęło czułość 80% (95% CI: 63-92%) i swoistość 78% (95% CI: 67-87%). To oznacza że 20 na 100 czerniaków może być pominiętych (false negatives!).
Nature Medicine 2020 (hybryda AI + Dermatolog): Główny wniosek: Współpraca człowiek-komputer znacząco przewyższyła skuteczność każdego osobno. Human-computer collaboration poprawia dokładność diagnostyczną powyżej poziomu AI solo lub dermatologa solo.
Gap między lab a praktyką: 10-20 punktów procentowych (jakość zdjęcia krytyczna!)
Bias na ciemnej skórze: Jasna skóra (Fitzpatrick I-III) ~85% vs ciemna skóra (IV-VI) ~70-75% czułości - różnica 10-15 punktów (brak danych treningowych).
AI pomija 10-20% czerniaków (szczególnie: amelanotyczne, na ciemnej skórze, trudne lokalizacje jak stopa/dłoń). Dlatego: AI NIE zastępuje lekarza - negatywny wynik AI ≠ "na pewno nie czerniak". Tylko biopsja (histopatologia) daje 100% diagnozę.
Co mówią badania naukowe:
AI w dermatologii = obiecująca technologia, NIE zamiennik lekarza. Badania pokazują skuteczność 70-90%, ale to oznacza że 10-30% przypadków może być pominiętych lub błędnie ocenionych. Strategia hybrid (AI + lekarz) najlepsza: AI jako pierwszy screening, wizyta u dermatologa jako pewność. Tylko biopsja (histopatologia) daje 100% diagnozę.
Zacznij od AI screeningu:
👉 Sprawdź swoje znamię w aplikacji Twoje Znamiona AI - stworzona przez ogólnopolskie centrum diagnostyki znamion, wynik w 30 sekund
⚠️ PAMIĘTAJ – co mówią badania:
Dla pewności profesjonalnej diagnozy – hybrid approach:
👉 Umów wideodermatoskopię z mapowaniem znamion
Badania pokazują: Hybryda AI + Dermatolog znacząco przewyższa skuteczność każdego osobno (Nature Medicine 2020) – lepiej niż AI solo lub dermatolog solo. W wybranych ośrodkach wideodermatoskopia łączona z AI follow-up wspierającym wykrywanie zmian. Połączenie profesjonalnego sprzętu, opcjonalnego wsparcia AI i oceny dermatologa = złoty standard diagnostyki.
Dostępne w 7 miastach: Warszawa, Poznań, Wrocław, Gdańsk, Kraków, Katowice, Szczecin
Przeczytaj więcej o AI w diagnostyce: