מחשבי-על בצבא: מי באמת מחליט כשזה חשוב?

דמיינו שאתם משחקים במשחק וידאו מאתגר. יש לכם עוזר מיוחד במשחק - דמות שמצביעה על רמזים נסתרים, מתריעה מפני סכנות שמתקרבות ומנתחת את המפה במהירות כדי להראות לכם את הדרך הטובה ביותר. העוזר הזה לא משחק במקומכם, אבל הוא נותן לכם המון מידע כדי שאתם תוכלו לקבל את ההחלטה הנכונה ולנצח. עכשיו, דמיינו עוזר כזה, אבל הרבה יותר חזק ומשוכלל, שעוזר לחיילים בצבא. לעוזר הזה קוראים בינה מלאכותית, או בקיצור AI.
המוח הדיגיטלי של הצבא
בינה מלאכותית היא לא באמת מוח, אלא תוכנת מחשב חכמה במיוחד. בצבא, היא משמשת כמו זוג עיניים ואוזניים עוצמתיות במיוחד. היא יכולה לסרוק כמויות אדירות של מידע - תמונות, שיחות, ונתונים מכל מיני חיישנים - ולמצוא בתוכם דברים קטנים שנראים חשודים או חריגים. לדבריה של מירב פרץ בלינסקי, מומחית שעבדה בעבר ביחידה הטכנולוגית המיוחדת 8200, "אילו לא היה AI, לא היה בידינו את כל המידע המודיעיני שהיה ויש לנו". כלומר, הבינה המלאכותית עוזרת לאסוף את כל חלקי הפאזל, כדי שהמפקדים יוכלו לראות את התמונה המלאה.
זה קצת כמו לחפש מחט בערימת שחת ענקית. בעוד שלאדם זה ייקח המון זמן, מחשב חכם יכול לסרוק את כל הערימה בשניות ולמצוא את המחט. כך ה-AI עוזר לאתר מידע חשוב במהירות שיכולה להיות קריטית.
שאלה גדולה: מי אחראי כשטועים?
בשנה שעברה, מדינת ישראל חוותה אירוע ביטחוני קשה מאוד. אחריו, אנשים רבים שאלו שאלות קשות, ואחת מהן הייתה קשורה לטכנולוגיה. האם סמכנו יותר מדי על המחשבים ופחות מדי על שיקול הדעת של האנשים? זו שאלה מצוינת שמראה איך אנחנו צריכים לחשוב בזהירות על השימוש בכלים חזקים כאלה.
המומחים שהתאספו בוועידה מיוחדת בנושא הייטק וביטחון, כמו תת-אלוף (במילואים) נתי כהן, הסבירו משהו מעניין. הם טענו שהבעיה לא הייתה בטכנולוגיה עצמה. המידע, ככל הנראה, היה קיים. ה-AI אפילו הצביע על "אנומליה", כלומר על משהו שנראה שונה ולא רגיל. הבעיה, לדבריהם, הייתה בפרשנות של המידע. כלומר, איך האנשים שהסתכלו על המידע הבינו אותו ומה הם החליטו לעשות איתו.
זה מדגיש רעיון חשוב: מכונה יכולה להראות לנו נתונים, אבל היא לא מבינה את המשמעות העמוקה שלהם כמו בן אדם. היא לא מרגישה, אין לה ניסיון חיים או אינטואיציה. לכן, האחריות על ההחלטה הסופית נשארת תמיד אצל בני האדם.
הטייס האנושי מול המחשב החכם
אז איפה עובר הגבול? מירב פרץ בלינסקי הציבה קו ברור: "בכל הנושא הביטחוני, במיוחד בהחלטות דרמטיות שעלולות להשפיע על ביטחונם של אנשים, חשוב שתמיד יהיה אדם לפני קבלת החלטה". היא השתמשה בדימוי של "כפתור אדום מטאפורי" - כלומר, לפני שעושים פעולה משמעותית, בן אדם חייב לבדוק, לחשוב ולהיות זה שלוקח את האחריות.
מבט אל העתיד: צבא של רובוטים?
מומחה אחר, מוני כץ מהתעשייה האווירית, חושב שהעולם צועד לכיוון של כלים אוטונומיים יותר, כלומר כלים שיכולים לפעול בעצמם. הוא אפילו חזה שבעוד 30 שנה, אולי יהיו חילות אוויר עם מטוסים ללא טייסים בכלל. זה נשמע כמו מדע בדיוני, אבל הטכנולוגיה מתקדמת מהר. ועדיין, גם אם מטוס יטוס לבד, בני אדם הם אלו שיתכנתו אותו, יגדירו לו את המשימה ויקבעו את הכללים. האחריות האנושית לא נעלמת.
לא רק למצבים קשים: איך AI עוזר לאזרחים
החלק היפה הוא שטכנולוגיה מדהימה כזו לא משמשת רק לנושאים ביטחוניים. אותה בינה מלאכותית יכולה לעזור גם לאזרחים. למשל, אחרי אירועים קשים, המדינה צריכה לעזור למשפחות רבות. ה-AI יכול לעזור למיין את כל הנתונים ולהבין במהירות מי צריך עזרה, איזה סוג של עזרה, ולוודא שהיא מגיעה לאנשים הנכונים בזמן. במקום שאנשים יצטרכו למלא טפסים רבים, המערכת החכמה יכולה להציע להם את העזרה שהם זקוקים לה, לפעמים עוד לפני שהם הספיקו לבקש.
בסופו של דבר, המסר מהמומחים ברור: בינה מלאכותית היא כלי עזר מדהים, אולי אחד החזקים ביותר שהמצאנו. אבל היא תמיד צריכה להישאר כלי. את ההחלטות החשובות באמת, אלו שדורשות חמלה, הבנה ואחריות, אנחנו תמיד נשאיר בידיים של בני האדם.
📌 נקודות מרכזיות
- בינה מלאכותית (AI): תוכנת מחשב שיכולה ללמוד, לחשוב ולפתור בעיות באופן שמזכיר חשיבה אנושית.
- מידע מודיעיני: פיסות מידע קטנות וגדולות שנאספות כדי להבין מה קורה וכדי לקבל החלטות ביטחוניות נכונות.
- פרשנות נתונים: הפעולה של להסתכל על מידע (נתונים) ולהבין מה הוא אומר ומה המשמעות שלו.
- אוטונומיה: היכולת של מכונה או רובוט לפעול ולקבל החלטות בעצמו, ללא התערבות של אדם בכל רגע.
- אנומליה: משהו חריג, שונה מהרגיל, שיכול להצביע על בעיה או על משהו שצריך לבדוק.
- היתוך נתונים: תהליך שבו לוקחים מידע ממקורות רבים ושונים (כמו תמונות, קול וחיישנים) ומחברים אותו יחד לתמונה אחת ברורה.
- מערך הדיגיטל הלאומי: גוף בממשלה שאחראי על שימוש בטכנולוגיה כדי לשפר את השירותים לאזרחי המדינה.