בשנת 1979, IBM פרסמה מדריך הדרכה פנימי שכלל את המשפט הבא: A computer can never be held accountable. Therefore, a computer must never make a management decision. — מחשב לא יכול להיות אחראי. לכן, מחשב לא יכול לקבל החלטה ניהולית.

47 שנים אחר כך, המשפט הזה חוזר בדיוק ברגע שבו עולם העסקים מתלבט כיצד לאצול סמכויות לכלים של בינה מלאכותית.

הבעיה עם AI שמזייף - ועדיין עובד

אחד האתגרים המרכזיים של מודלי שפה גדולים כיום הוא מה שחוקרים מכנים הזיות - מצבים שבהם המודל מייצר תוצאות שגויות, לא עקביות, או כאלה שנראות נכונות אך אינן מבוססות. הבעיה אינה שה-AI טועה לפעמים. הבעיה היא שאי-אפשר לצפות מתי ובאיזה אופן.

בניגוד לתוכנה קלאסית, מודלי AI הם דטרמיניסטיים-למחצה. שינוי זעיר בפרמטרים עלול לשנות את התוצאה לחלוטין. זה הופך אותם לעוצמתיים, אבל גם לבלתי-צפויים.

האחריות לא נעלמת - היא רק עוברת

כשאנחנו מאצילים סמכות קבלת החלטות ל-AI, אנחנו לא מבטלים אחריות - אנחנו מעבירים אותה. בכל מקרה שבו AI גורם לנזק - בין אם מדובר בהחלטת אשראי שגויה, בפיטורים לא מוצדקים, או בייעוץ רפואי מוטעה - תמיד יהיה בן אדם שיישא בתוצאות.

מה זה אומר לארגון שמשתמש ב-AI כיום?

המסגרת פשוטה: ככל שהחלטה נושאת עמה השלכות בלתי-הפיכות - בפיטורים, בהקצאת משאבים, ביחסים עם לקוחות - כך צריכה להיות גדולה יותר הנוכחות האנושית בתהליך. AI יכול לסייע, לנתח, להציע. אך האחריות הסופית חייבת להישאר בידי אדם.

המשפט של IBM ב-1979 לא תיאר את גבולות הטכנולוגיה - הוא תיאר את גבולות האחריות. וגבולות אלה לא השתנו.