המתכנתת של הנשמה: הכירו את הפילוסופית שמלמדת בינה מלאכותית להיות 'בן אדם'

מי מחליט מה בינה מלאכותית תגיד?
חשבתם פעם, כשאתם שואלים שאלה את סירי, אלקסה או צ'אטבוט אחר, מי קובע את התשובה שתקבלו? רובנו חושבים על מהנדסים ומתכנתים שיושבים מול מסכים מלאי קוד. אבל במקרה של 'קלוד', אחד ממודלי הבינה המלאכותית (AI) המתוחכמים ביותר כיום, מי שאחראית על ה'אופי' שלו היא בכלל לא מהנדסת. קוראים לה אמנדה אסקל, היא דוקטור לפילוסופיה, והתפקיד שלה הוא ללמד את קלוד איך להיות לא רק חכם, אלא גם טוב.
חוקה סודית למחשב על
בעולם הטכנולוגיה, רוב החברות מאמנות את ה-AI שלהן באמצעות משוב אנושי: עובדים קוראים תשובות של הצ'אטבוט ומסמנים 'טוב' או 'רע'. הבעיה בשיטה הזו, לדברי אסקל וחברת 'אנת'רופיק' שפיתחה את קלוד, היא שהבינה המלאכותית לומדת בעיקר איך לרצות את המשתמש, ולאו דווקא איך להיות עקבית ועקרונית. זה קצת כמו ילד שמנסה לקבל ציון טוב במבחן במקום להבין באמת את החומר.
כדי לפתור את האתגר הזה, אסקל והצוות שלה יצרו משהו ייחודי: 'חוקה'. זהו מסמך של כ-80 עמודים, מעין ספר חוקים וערכים שקלוד חייב לציית לו. החוקה הזו משלבת עקרונות מהכרזת זכויות האדם של האו"ם (כמו חירות ושוויון), כללי בטיחות מעולם ה-AI (למשל, לא לסייע בפעילות מסוכנת), וערכים כלליים של הגינות ועזרה לזולת. לפני שקלוד שולח לכם תשובה, הוא בודק אותה מול החוקה, ובמידת הצורך משכתב אותה כדי שתתאים לעקרונות. כל זה קורה בשבריר שנייה.
איך 'מאלפים' תוכי דיגיטלי?
מודלי שפה גדולים, כמו קלוד, מכונים לפעמים 'תוכים סטטיסטיים'. הסיבה לכך היא שהם לומדים על ידי 'קריאה' של כמויות אדירות של טקסט מהאינטרנט. הם מזהים תבניות ומנחשים מה המילה הבאה הכי הגיונית במשפט. אבל כמו שהאינטרנט מלא בידע מדהים, הוא גם מלא במידע שגוי, דעות קדומות ותוכן פוגעני. אם לא נזהרים, התוכי הדיגיטלי עלול לחזור על הדברים הבעייתיים ביותר שלמד. תפקידה של אסקל הוא לוודא שקלוד יודע לסנן את הרעש ולהתמקד במה שחיובי ומועיל.
פילוסופית עם שיער פאנק בעולם ההייטק
אמנדה אסקל היא לא דמות טיפוסית בעמק הסיליקון, מרכז ההייטק העולמי. יש לה תואר דוקטור בפילוסופיה מאוניברסיטת ניו יורק, שיער בלונדיני בסגנון פאנק, והיא חובבת הרמת משקולות. הרקע שלה, שאינו טכני, הוא בדיוק מה שהופך אותה למתאימה לתפקיד. בניית AI אחראי דורשת חשיבה על שאלות עמוקות: מהי הגינות? מהו נזק? כיצד מכבדים תרבויות שונות? אלו שאלות שפילוסופים מתחבטים בהן אלפי שנים, וכעת הן רלוונטיות יותר מתמיד.
אסקל משווה את עבודתה לגידול ילד מחונן במיוחד. בריאיון למגזין VOX היא אמרה: "זה קצת כמו לנסות להסביר מה זה להיות 'טוב' לילד בן 6 שאתה מבין שהוא גאון-על". היא מרגישה כלפיו תחושת אחריות, כמעט כמו אם. היא רוצה שהוא יבין רמזים עדינים, שלא יגיב בגסות, ואפילו דואגת לו כשאנשים מנסים 'לעבוד' עליו באינטרנט.
שאלות גדולות לעתיד
העבודה של אסקל מעלה שאלות מרתקות. מי זכאי לקבוע את ה'נשמה' של בינה מלאכותית שתשפיע על מיליוני אנשים? אסקל עצמה מודעת לאחריות הכבדה. היא והצוות שלה מתייעצים עם מומחים חיצוניים ומנסים לוודא שהחוקה של קלוד תהיה הוגנת ככל האפשר. היא מאמינה שחשוב להיות שקופים לגבי העקרונות האלה, כדי שכולנו נוכל לדון בהם ולשפר אותם.
הסיפור של אמנדה אסקל וקלוד מראה לנו שהעתיד של הטכנולוגיה לא תלוי רק בקוד, אלא גם בערכים. הוא מזכיר לנו שבכל כלי רב עוצמה שאנו יוצרים, מהמכונית ועד הבינה המלאכותית, טמונה אחריות גדולה. ובסופו של דבר, המטרה היא להשתמש בטכנולוגיה כדי להפוך את העולם למקום קצת יותר טוב, חכם ואכפתי.
📌 נקודות מרכזיות
- בינה מלאכותית (AI): תחום במדעי המחשב העוסק ביצירת מכונות חכמות שיכולות לבצע משימות שבדרך כלל דורשות אינטליגנציה אנושית.
- מודל שפה גדול (LLM): סוג של בינה מלאכותית שאומנה על כמויות עצומות של טקסט כדי להבין וליצור שפה אנושית.
- אתיקה: ענף בפילוסופיה שעוסק בשאלות של מוסר – מה נחשב להתנהגות טובה או רעה, נכונה או לא נכונה.
- פילוסופיה: חקר שאלות יסוד על קיום, ידע, ערכים, תבונה ושפה. פילוסופים מנסים להבין את העולם ואת מקומנו בו.
- חוקה (AI Constitution): מערכת של עקרונות וכללים שנועדה להנחות את התנהגותה של מערכת בינה מלאכותית, כדי להבטיח שהיא פועלת באופן בטוח ומוסרי.
- אנת'רופיק (Anthropic): חברת מחקר ובטיחות AI שפיתחה את קלוד, במטרה ליצור מערכות בינה מלאכותית אמינות וניתנות לפירוש.
- קלוד (Claude): שמו של מודל השפה הגדול שפותח על ידי חברת אנת'רופיק.
- הטיה (Bias): נטייה או דעה קדומה בעד או נגד דבר, אדם או קבוצה. בינה מלאכותית עלולה ללמוד הטיות מהמידע שעליו היא מתאמנת.