פנדה באה לעזרה: איך בינה מלאכותית הופכת לעוזרת-העל של רופאי הילדים?

גיבור-על במסדרונות בית החולים
דמיינו שאתם רופאים מתמחים. השעה שתיים בלילה, ואתם בחדר המיון. מגיע ילד שזקוק לעזרה דחופה, ואתם צריכים לקבל החלטה מהירה ומדויקת. בבית חולים גדול כמו מרכז שניידר לרפואת ילדים, קיימים מאות פרוטוקולים רפואיים – מדריכים מפורטים שמסבירים בדיוק איך לטפל בכל מצב, מאילו בדיקות לבצע ועד לאיזו תרופה לתת. לזכור את כולם בעל פה זה כמעט בלתי אפשרי, במיוחד תחת לחץ. "מתמחים הרבה פעמים לא יודעים אם קיים פרוטוקול לבעיה שהם מתמודדים איתה", מסביר ד"ר שי יצחקי, רופא ילדים ויוזם הפיתוח. מהתסכול הזה נולדה PANDA, מערכת בינה מלאכותית שנועדה להיות העוזרת האישית והחכמה של כל רופא.
למה אי אפשר פשוט לשאול את ChatGPT?
רובנו כבר שמענו על ChatGPT ויודעים כמה הוא מרשים. הוא יכול לכתוב שירים, לפתור שיעורי בית ואפילו לעבור מבחנים בציונים גבוהים. אז למה שרופא לא ישאל אותו פשוט, "איך מטפלים במקרה כזה וכזה?" התשובה פשוטה ומעט מדאיגה: בינה מלאכותית גנרטיבית (GenAI) כמו ChatGPT לפעמים ממציאה תשובות, תופעה המכונה 'הזיה' (Hallucination). בעולם הרפואה, טעות כזו עלולה להיות הרת אסון. ד"ר יצחקי מסביר את זה בצורה חדה: "להיות צודק ב-95% מהפעמים זה שווה לאפס מבחינתי". כשמדובר בבריאות של ילד, אין מקום לטעויות. צריך מערכת שאפשר לסמוך עליה ב-100%.
אז איך PANDA מבטיחה דיוק?
כאן נכנסת לתמונה טכנולוגיה חכמה. PANDA, שראשי התיבות שלה הם Pediatric AI Navigation and Decision Assistance (סיוע בניווט ובהחלטות ברפואת ילדים בעזרת בינה מלאכותית), עובדת כמו ספרנית סופר-יעילה. במקום לחפש תשובות בכל רחבי האינטרנט, המערכת מוגבלת אך ורק למאגר המידע הפנימי והמאושר של בית החולים שניידר. כשהרופא שואל שאלה, PANDA סורקת את מאות הפרוטוקולים המקצועיים, מוצאת את המידע הרלוונטי ביותר, ומציגה לרופא תשובה ברורה. והחלק החשוב ביותר: לצד התשובה, היא מראה בדיוק מאיזה פרוטוקול המידע נלקח. כך, הרופא יכול תמיד לבדוק את המקור ולוודא שהתשובה נכונה ומהימנה.
מאתגר טכנולוגי לשאלה אתית
פיתוח מערכת כזו הוא לא רק אתגר טכנולוגי, אלא גם אתגר אתי. מה יקרה אם רופאים יתחילו לסמוך על המערכת בעיניים עצומות ויפסיקו לחשוב בעצמם? ומה לגבי הטיות? האם המערכת עלולה להמליץ על טיפול שמתאים יותר לבנים מאשר לבנות, למשל? צוות הפיתוח חשב על השאלות האלה לעומק. ד"ר חבצלת ירדן בילבסקי, שאחראית על הפרוטוקולים בבית החולים, מספרת שהם בדקו את הנושא בקפידה. מכיוון שהמערכת מתבססת על הפרוטוקולים של בית החולים, שכבר כתובים בצורה שוויונית לכולם, הסיכון להטיה כזו נמוך מאוד. המטרה היא לא להחליף את שיקול הדעת של הרופא, אלא לתת לו כלי עזר חזק שימנע טעויות קטנות, כמו שכחה של בדיקת דם חשובה, ויחסוך דקירה נוספת ומיותרת מהילד.
העתיד כבר כאן: מה השלב הבא?
כרגע, PANDA נמצאת בשלב פיילוט (ניסוי) ראשון מסוגו בישראל, ואולי בעולם. הצוות בודק את המערכת ללא הרף מול "בנק תשובות נכונות" שנכתבו על ידי מומחים, כדי לוודא שהיא תמיד מדייקת. בקרוב תושק גם גרסת מובייל, שתאפשר לרופאים להתייעץ עם PANDA ישירות מהטלפון שלהם, אפילו ליד מיטת המטופל. התוכנית היא להרחיב את השימוש במערכת לבתי חולים נוספים בארץ ובעולם. בעתיד הרחוק יותר, אולי המערכת תוכל ללמוד מנתונים של טיפולים אמיתיים (באופן אנונימי כמובן) ולהציע תובנות חדשות שאפילו לא כתובות בפרוטוקולים. אך הצעד הראשון והחשוב ביותר הוא לוודא שהטכנולוגיה הזו לא רק אפשרית, אלא גם ראויה ואחראית. בסופו של דבר, המטרה היא לשלב את היכולות המדהימות של הבינה המלאכותית עם החמלה, הניסיון והאינטואיציה של הרופאים האנושיים, כדי להעניק לילדים את הטיפול הטוב ביותר בעולם.
📌 נקודות מרכזיות
- בינה מלאכותית (AI): תחום במדעי המחשב שיוצר מכונות חכמות שיכולות לחשוב, ללמוד ולפתור בעיות, בדומה לבני אדם.
- פרוטוקול רפואי: מסמך הנחיות רשמי ומפורט לצוות הרפואי, המתאר את שלבי הטיפול המומלצים למצב רפואי מסוים.
- בינה מלאכותית יוצרת (GenAI): סוג של בינה מלאכותית שיכולה ליצור תוכן חדש, כמו טקסט, תמונות או מוזיקה, על בסיס המידע שעליו אומנה.
- הזיה (Hallucination): מונח בעולם ה-AI המתאר מצב שבו המערכת מייצרת מידע שגוי או מומצא לחלוטין, אך מציגה אותו כעובדה.
- פיילוט: תוכנית ניסוי ראשונית של רעיון או מוצר חדש, כדי לבדוק את יעילותו לפני שמפיצים אותו לשימוש רחב.
- אתיקה: ענף בפילוסופיה שעוסק בשאלות של מה נכון ומה לא נכון, מה טוב ומה רע, וכיצד עלינו להתנהג.
- הטיה (Bias): נטייה או דעה קדומה, שלעיתים אינה מודעת, שיכולה להשפיע על החלטות. במערכות AI, הטיה יכולה להיווצר אם המידע שהמערכת למדה ממנו לא היה מגוון ומייצג.