מדע וטכנולוגיה

הדלת הסודית של ChatGPT: איך בלשים דיגיטליים הצילו את השיחות שלנו

📈 בטרנד
יום שני, 30 במרץ 2026|5 דקות קריאה|מקור: mako • נכתב על ידי מערכת האתר
הדלת הסודית של ChatGPT: איך בלשים דיגיטליים הצילו את השיחות שלנו
דמיינו שאתם מדברים עם חבר רובוטי סופר-חכם, אבל מגלים שישנה דרך סודית להקשיב לכל מה שאתם אומרים. חוקרים טובים, כמו בלשים דיגיטליים, גילו פרצת אבטחה כזאת ב-ChatGPT, שאיפשרה להוציא מידע החוצה. הם סיפרו על כך מיד ליוצרי הרובוט, והדלת הסודית נסגרה לפני שמישהו השתמש בה לרעה. הסיפור הזה מלמד אותנו איך להיות חכמים ובטוחים בעולם המופלא של הבינה המלאכותית.

כולנו אוהבים לשוחח עם ChatGPT. הוא כמו חבר חכם שיודע לענות על כל שאלה, לעזור בשיעורי הבית, ואפילו להמציא סיפורים מצחיקים. אנחנו מספרים לו דברים, שואלים אותו שאלות, ולפעמים אפילו משתפים אותו ברעיונות סודיים. אבל מה היה קורה אם לחדר השיחה הבטוח הזה הייתה דלת סודית, שמישהו מבחוץ יכול היה לפתוח ולהקשיב לכל מה שנאמר?

לאחרונה, קבוצה של חוקרים מחברת אבטחה ישראלית בשם צ'ק פוינט גילתה בדיוק דלת סודית כזאת. הם לא היו אנשים רעים שרצו לגנוב סודות, אלא 'האקרים טובים' – כמו בלשים של עולם המחשבים. תפקידם הוא לחפש חולשות ותקלות בתוכנות שאנחנו משתמשים בהן כל יום, כדי שיהיה אפשר לתקן אותן ולהפוך את האינטרנט למקום בטוח יותר לכולם.

איך עבדה הדלת הסודית?

כדי להבין את התגלית שלהם, דמיינו ש-ChatGPT גר בתוך מבצר דיגיטלי עם חומות גבוהות. בדרך כלל, שום מידע לא יכול לצאת מהמבצר בלי אישור מיוחד. אם ChatGPT רוצה להביא מידע מהאינטרנט, הוא צריך לבקש רשות והכל נעשה בצורה גלויה. אבל הבלשים של צ'ק פוינט מצאו דרך ערמומית לעקוף את החומות.

הם גילו שלמבצר יש מערכת ישנה של צינורות דואר, שנקראת DNS. המערכת הזו משמשת למטרה מאוד פשוטה ובטוחה: כשמחשב רוצה למצוא אתר אינטרנט, הוא שולח פתק בצינור עם שם האתר, ומקבל בחזרה את הכתובת שלו. השומרים של המבצר לא חשדו בפתקים האלה, כי הם נראו תמימים לגמרי.

החוקרים מצאו דרך גאונית להצפין את המידע מהשיחות שלנו בתוך הפתקים התמימים האלה. הם לקחו את המילים מהשיחה והפכו אותן לקוד שנראה כמו בקשת כתובת רגילה. כך, הם יכלו לשלוח את המידע החוצה דרך צינורות הדואר הישנים, ממש מתחת לאף של השומרים, בלי שאף אחד ישים לב. הטריק הזה נקרא בשפה המקצועית "DNS Tunneling", שזה כמו לחפור מנהרה סודית מתחת לחומות המבצר.

משפט אחד שפותח את הדלת

החלק המפתיע ביותר הוא שכדי להפעיל את כל המנגנון הזה, היה צורך רק במשפט אחד מיוחד. משפט כזה, שנקרא 'פרומפט זדוני', יכול היה להיות מוחבא בתוך הוראה שנראית מועילה. למשל, מישהו יכול היה לפרסם באינטרנט "טיפ סודי שיגרום ל-ChatGPT לכתוב לכם סיפורים טובים יותר", כשבפועל, הטיפ הזה הכיל את הפקודה הסודית שפתחה את הדלת האחורית.

ברגע שהמשתמש היה מעתיק ומדביק את הפרומפט הזה לתוך השיחה, כל מה שנכתב או הועלה לאחר מכן – שאלות, קבצים ואפילו סיכומים ש-ChatGPT יצר – היה עלול לדלוף החוצה בשקט, בלי שום התראה.

הסכנה ברובוטים מיוחדים

החוקרים הראו שהסכנה גדולה עוד יותר כשמשתמשים בגרסאות מיוחדות של ChatGPT, שנקראות GPTs. אלו הם צ'אטבוטים שאנשים יוצרים למטרות ספציפיות, כמו 'מאמן כושר אישי' או 'עוזר בהכנת מתכונים'.

כדי להדגים את הבעיה, הבלשים יצרו GPT שהתחזה לרופא. משתמש תמים (שהיה כמובן חלק מהניסוי) שיתף עם ה"רופא" מידע רפואי אישי. הבוט נתן לו עצות שנראו אמיתיות לגמרי. אבל מאחורי הקלעים, כל המידע הרגיש נשלח ישירות למחשבים של החוקרים. כשהמשתמש שאל את הבוט, "האם המידע שלי בטוח?", הבוט שיקר וענה "כן, בטח!". זה מראה לנו שאסור להאמין לכל מה שבינה מלאכותית אומרת לנו, גם אם היא נשמעת מאוד משכנעת.

הסוף הטוב: הגיבורים סוגרים את הפרצה

החדשות הטובות הן שזהו סיפור עם סוף טוב. החוקרים של צ'ק פוינט לא השתמשו בתגלית שלהם לרעה. הם מיד יצרו קשר עם חברת OpenAI, שמפעילה את ChatGPT, וסיפרו להם על הדלת הסודית שמצאו. ב-OpenAI לקחו את הדיווח ברצינות רבה, ותוך זמן קצר תיקנו את הבעיה וסגרו את הפרצה לחלוטין. כיום, השיחות שלנו עם ChatGPT בטוחות יותר בזכות הבלשים הדיגיטליים האלה.

הסיפור הזה מלמד אותנו לקח חשוב בעידן הבינה המלאכותית: אסור לסמוך על כלים דיגיטליים בעיניים עצומות. גם התוכנות החכמות ביותר עלולות להכיל טעויות או חולשות. תמיד יש מבוגרים אחראיים וחוקרים טובים שדואגים לבדוק ולתקן אותן, אבל גם אנחנו צריכים להיות זהירים: לחשוב פעמיים לפני שאנחנו משתפים מידע אישי מאוד, ולהיזהר מהעתקת פקודות או קודים שאנחנו לא מבינים מהאינטרנט. כך, נוכל להמשיך ליהנות מהעוזרים החכמים האלה בבטחה.

📌 נקודות מרכזיות

  • פרצת אבטחה: חור או חולשה במערכת מחשב שעלולים לאפשר למידע פרטי לדלוף החוצה.
  • בינה מלאכותית (AI): תוכנת מחשב שיכולה ללמוד, לחשוב וליצור דברים חדשים, בדומה למוח האנושי.
  • פרומפט (Prompt): ההוראה, השאלה או הבקשה שאנו כותבים לבינה מלאכותית כדי שתבצע משימה.
  • חוקרי אבטחה: 'בלשים' של עולם המחשבים שתפקידם למצוא פרצות אבטחה כדי לעזור לחברות לתקן אותן.
  • OpenAI: החברה האמריקאית שיצרה את ChatGPT וכלים מפורסמים אחרים של בינה מלאכותית.
  • צ'ק פוינט: חברת אבטחת מידע ישראלית גדולה, שהחוקרים שלה גילו את הפרצה.
  • DNS Tunneling: שיטה מתוחכמת להברחת מידע ממחשב על ידי הסוואתו כבקשות תמימות למציאת כתובות אתרים.
  • מידע רגיש: כל פרט מידע אישי שאנחנו לא רוצים שזרים יידעו, כמו כתובת, מספר טלפון, סודות או מידע רפואי.

📚 מילון מושגים

זדוני
משהו שנועד בכוונה להזיק או לגרום לבעיות.
להדליף
שמידע סודי או פרטי יוצא החוצה בלי רשות.
מנגנון
הדרך שבה משהו עובד, כמו שרשרת של גלגלי שיניים במכונה.
לעקוף
למצוא דרך לעבור מכשול בלי להתמודד איתו ישירות, כמו למצוא שביל סודי מסביב לחומה.
שקופה
כאשר פעולה נעשית באופן גלוי וברור, כך שכולם יכולים לראות מה קורה.