מדע וטכנולוגיה

כשהרובוט ממציא חוקים: מה קורה כש-ChatGPT נכנס לבית המשפט?

יום חמישי, 7 באוגוסט 2025|6 דקות קריאה|מקור: ynet • נכתב על ידי מערכת האתר
כשהרובוט ממציא חוקים: מה קורה כש-ChatGPT נכנס לבית המשפט?
המשטרה השתמשה בתוכנת הבינה המלאכותית ChatGPT כדי לכתוב מסמך לבית המשפט, אך התוכנה המציאה סעיפי חוק שאינם קיימים. עורכי דין חשדניים גילו את הטעות, והשופט מתח ביקורת חריפה על ההתנהלות. בעקבות המקרה המביך, גובשו הנחיות חדשות במשטרה לשימוש אחראי ב-AI, והנושא הועבר לטיפול הגורמים הבכירים ביותר במערכת המשפט כדי למנוע טעויות דומות בעתיד.

דמיינו שאתם משתתפים במשחק קופסה, ואחד השחקנים ממציא פתאום חוק חדש שלא קיים, רק כדי שהוא יוכל לנצח. עכשיו, דמיינו שזה קורה לא במשחק, אלא בבית משפט אמיתי, והשחקן שממציא את הכללים הוא המשטרה, שנעזרת בתוכנת מחשב. זה בדיוק מה שקרה במקרה יוצא דופן וחשוב בישראל, שבו תוכנת הבינה המלאכותית הפופולרית, ChatGPT, הפכה לכוכבת לא רצויה בדרמה משפטית. הסיפור הזה הוא לא רק על טעות מביכה, אלא על שאלה גדולה יותר: איך אנחנו, כחברה, מתמודדים עם כוחה העצום של טכנולוגיה חדשה?

מה בדיוק קרה בתסבוכת המשפטית?

הסיפור מתחיל עם אדם בשם אברהים מחאג'נה, שהיה מעורב בחקירה משטרתית. במסגרת החקירה, המשטרה לקחה את הטלפון הנייד שלו. לאחר זמן מה, הוא ביקש לקבל אותו בחזרה בטענה שהוא זקוק לו כדי לגשת למערכת האבטחה של החנות שלו שנשדדה. המשטרה לא רצתה להחזיר את המכשיר, והייתה צריכה לנמק את עמדתה בפני בית המשפט.

כאן הסיפור מקבל תפנית טכנולוגית. במקום לחפש חוקים אמיתיים בספרי החוקים, שתי חוקרות משטרה החליטו להשתמש ב-ChatGPT כדי לכתוב את התגובה לבית המשפט. הבעיה? ChatGPT, למרות יכולותיו המרשימות, לא באמת יודע מהם החוקים. הוא פשוט מנחש מה אמור להיראות כמו טקסט משפטי. התוצאה הייתה מסמך שהוגש לבית המשפט ובו צוטטו שני "סעיפי חוק" שלא היו קיימים מעולם. הם פשוט הומצאו על ידי האלגוריתם.

עורכי הדין של מחאג'נה, תמיר קלדרון ורמי זועבי, קראו את המסמך והרגישו שמשהו לא מסתדר. הם חשדו. בצעד אמיץ, הם אמרו לשופט בבית המשפט: "יש לנו חשד שתגובת המשטרה נלקחה מתוך ChatGPT". נציג המשטרה שנכח בדיון נאלץ להודות – הם אכן השתמשו בבינה מלאכותית, והמידע שהגישו היה שגוי.

זעם בבית המשפט: "חשבתי שראיתי הכל"

השופט, אהוד קפלן, היה המום. דמיינו את המורה שלכם מגלה שהגשתם עבודה שהועתקה ממקור לא אמין, ועוד כזה שהמציא את כל התשובות. עכשיו תכפילו את התחושה הזו פי מאה, כי כאן מדובר בבית משפט, מקום שבו האמת והדיוק הם ערכים עליונים.

"אם חשבתי שראיתי הכל ב-30 השנים שאני על כס השיפוט, כנראה שטעיתי," כתב השופט בהחלטתו. הוא הוסיף שהמשטרה "ביזתה את עצמה" והדגיש עד כמה המעשה חמור. הוא אפילו ציין שחיפוש פשוט בגוגל היה מגלה שהחוקים המומצאים הללו לא קיימים בשום מקום. המקרה הזה הראה באופן ברור את הסכנה בהסתמכות "עיוורת" על כלים טכנולוגיים מבלי לבדוק את המידע.

מהי "הזיה" של בינה מלאכותית?

כדי להבין איך טעות כזו יכולה לקרות, חשוב להבין איך כלים כמו ChatGPT עובדים. הם לא "חושבים" כמו בני אדם. הם מודלי שפה ענקיים (LLM) שאומנו על כמויות אדירות של טקסט מהאינטרנט. המטרה שלהם היא לחזות את המילה הבאה במשפט בצורה שתיראה הגיונית ורהוטה.

לפעמים, כשהם לא מוצאים מידע מדויק, הם פשוט "ממציאים" אותו. התופעה הזו נקראת "הזיה" (Hallucination). הבינה המלאכותית לא משקרת בכוונה, היא פשוט משלימה את הפערים במידע שיש לה באופן שנשמע משכנע, גם אם הוא שקרי לחלוטין. זו הסיבה שאסור להשתמש בהם כמקור מידע אמין ובלעדי, במיוחד בנושאים חשובים כמו חוק, רפואה או אפילו שיעורי בית.

הלקח נלמד: קובעים כללים חדשים לעידן ה-AI

הסיפור לא נגמר בבית המשפט. בעקבות המקרה, הוגשה תלונה רשמית לנציב תלונות הציבור על מייצגי המדינה, השופט בדימוס מנחם פינקלשטיין. הנציב חקר את המקרה וקבע שהתלונה מוצדקת. הוא כינה את התנהלות המשטרה "תמוהה וחמורה".

החדשות הטובות הן שהאירוע הזה הוביל לשינוי חיובי. משטרת ישראל הבינה את גודל הטעות. חטיבת החקירות גיבשה במהירות הנחיה חדשה וברורה לכל השוטרים והחוקרים, שמסבירה כיצד ומתי מותר להשתמש בכלי בינה מלאכותית, וחשוב מכך - מתי אסור.

הנציב פינקלשטיין לקח את זה צעד קדימה. הוא העביר את החלטתו ליועצת המשפטית לממשלה ולפרקליט המדינה, והמליץ להם לגבש הנחיות כלליות לכל משרדי הממשלה. המטרה היא לוודא שכולם מבינים את היתרונות והחסרונות של AI, ומשתמשים בו בצורה אחראית, אתית וחוקית.

הסיפור הזה הוא תזכורת חשובה לכולנו. טכנולוגיה היא כלי אדיר, אבל היא לא מחליפה חשיבה ביקורתית, אחריות אישית ובדיקת עובדות. בין אם אתם מכינים עבודה לבית הספר, מחפשים מידע באינטרנט או סתם משוחחים עם צ'אטבוט, זכרו תמיד לשאול, לבדוק ולהטיל ספק. בסופו של דבר, המוח האנושי הוא עדיין הכלי החשוב ביותר.

📌 נקודות מרכזיות

  • ChatGPT: תוכנת בינה מלאכותית שיכולה לנהל שיחה וליצור טקסטים במגוון נושאים.
  • בית משפט: המקום שבו שופטים מכריעים במחלוקות על פי החוק.
  • חוק: כלל רשמי שנקבע על ידי המדינה וכולם חייבים לציית לו.
  • עורך דין: איש מקצוע שמייצג אנשים בבית המשפט ומייעץ להם בעניינים משפטיים.
  • שופט: האדם שמנהל את הדיונים בבית המשפט ומקבל את ההחלטה הסופית.
  • תלונה: פנייה רשמית לגורם מוסמך על מנת לדווח על בעיה או מעשה לא תקין.
  • הנחיה: הוראה או קו מנחה שניתן על ידי גורם בכיר כדי לקבוע איך יש לפעול במצבים מסוימים.
  • חשיבה ביקורתית: היכולת לבחון מידע בצורה מעמיקה, להטיל ספק, לזהות הנחות יסוד ולגבש דעה עצמאית.

📚 מילון מושגים

בינה מלאכותית (AI)
טכנולוגיית מחשב שמנסה לחקות חשיבה אנושית, ללמוד ממידע ולקבל החלטות. למשל, ChatGPT.
הזיה (Hallucination)
בשימוש של בינה מלאכותית, הכוונה היא למצב שבו התוכנה ממציאה עובדות, ציטוטים או מקורות מידע שאינם קיימים במציאות.
נציב תלונות הציבור
אדם שתפקידו לבדוק תלונות של אזרחים נגד גופים ציבוריים כמו המשטרה או משרדי ממשלה, ולוודא שהם פועלים כראוי.
הליך שיפוטי
התהליך שמתנהל בבית משפט כדי להכריע בסכסוך או להחליט אם אדם אשם או זכאי.