כשמכונה מחליטה — ואיש לא לוקח אחריות
כאשר מערכת בינה מלאכותית עושה טעות — בין אם זו קביעת אשראי שגויה, סיווג תמונה רפואית שגוי, או החלטת ביטוח לא מוצדקת — מתעוררת שאלה משפטית שהדין עדיין לא ענה עליה במלואה: מי אחראי? המפתח שכתב את הקוד? הארגון שהפעיל את המערכת? המשתמש שלחץ על "אשר"?
הדילמה קשה במיוחד משום שמערכות AI לומדות ומשתנות בזמן הפעלה — מה שהופך את התנהגותן לבלתי צפויה לפעמים גם עבור מפתחיהן. בניגוד לרכיב הנדסי פיזי שמתנהג כמצופה, מודל ML שעבר fine-tuning יכול לפתח התנהגויות שלא תוכננו.
שלוש מסגרות אחריות — ומה מתאים לאיזה מצב
המשפט הישראלי לא כתב "פרק AI" בפקודת הנזיקין — לא צריך. בית המשפט מחיל שלוש מסגרות קיימות, וכל אחת מהן יכולה להיות קטלנית לארגון שלא היה מוכן:
דיני נזיקין — פקודת הנזיקין, סעיפים 35-36: אם מערכת AI גורמת לנזק, הנפגע יגיש תביעת נזיקין נגד מי שאחראי לפעולת המערכת. הבסיס: חובת זהירות, הפרתה, ונזק סיבתי. זו המסגרת הרחבה ביותר ומתאימה לרוב המקרים.
אחריות מוצר: כאשר מערכת AI גורמת לנזק בגלל פגם בעיצוב, פגם בייצור, או היעדר אזהרות מספיקות — היצרן אחראי. הגדרת "פגם" בהקשר ל-AI עדיין שנויה במחלוקת, אך ניתן לטעון שהטיה אלגוריתמית ידועה שלא נחשפה ללקוח היא "פגם".
רשלנות מקצועית: אם מפתח AI או מפעיל לא נקט זהירות ראויה — בפיתוח, בבדיקה, בפיקוח — תוחל עליו אחריות. זה הבסיס החזק ביותר לתביעה, כי הנטל קל יותר להוכחה כשמדובר בגורם מקצועי.
אחריות המפתח, המשתמש והמפעיל
כאשר משהו הולך לא כמו שצריך עם AI, הזכות לתביעה עשויה להיות נגד אחד או יותר מהגורמים הבאים:
המפתח (Developer): מי שיצר את האלגוריתם אחראי אם הוא לא בדק את המערכת כראוי, לא תיעד את המגבלויות שלה, או לא זיהה סיכונים ידועים. למשל, אם מפתח משחרר מערכת AI עם הטיה ידועה בנוגע לקטגוריה מסוימת, וזה גורם לנזק, המפתח עלול להיות אחראי.
המפעיל (Operator): הגוף שמשתמש במערכת ה-AI אחראי אם הוא לא בחר כראוי, לא פקח כראוי, או לא הציב מנגנוני ביטחון מספיקים. למשל, בנק שמשתמש במערכת AI להחלטות הלוואות אחראי אם הוא לא בדק את ההחלטות של המערכת או לא יצר מנגנוני בקרה.
המשתמש הקצה (End User): אדם פרטי שמשתמש ב-AI אחראי אם הוא ידע שהמערכת אינה מתאימה לשימוש ספציפי ובחר להשתמש בה בכל זאת. רופא שמגיש אבחנה מסתמכת על AI שלא אושר לשימוש קליני — לא יוכל להתחבא מאחורי ה"המלצת האלגוריתם".
בפועל, יותר מגורם אחד עשוי לשאת בחבות. סעיף 11 לפקודת הנזיקין מאפשר תביעה נגד כמה גורמים יחד — ושאלת חלוקת האחריות ביניהם תוכרע לפי מידת האשמה של כל אחד.
קראו גם:
מה ה-EU AI Act אומר לחברות ישראליות
ה-AI Act האירופי (Regulation (EU) 2024/1689) נכנס לתוקף ב-2024 וחל גם על חברות מחוץ לאיחוד — כולל ישראליות — שמפתחות, מוכרות, או מפעילות AI עבור לקוחות אירופאים. זה לא תיאורטי: סטארטאפ ישראלי שמשווק SaaS עם AI לחברות גרמניות כפוף לחוק.
ה-Act מחלק מערכות AI לפי רמת סיכון. מערכות "סיכון גבוה" — כולל AI בגיוס עובדים, אשראי, בריאות, ומשפטים — חייבות בתיעוד מקיף, הערכת סיכונים, ופיקוח אנושי. מערכות "סיכון בלתי מקובל" — כגון דירוג אזרחי (social scoring) או מניפולציה סמויה — אסורות לחלוטין. הסנקציות: עד 35 מיליון יורו או 7% מהמחזור העולמי. מי שממתין לחוק ישראלי לפני שמתחיל לציית — מאחר על הרכבת.
המצב בישראל — ומה צפוי בשנים הקרובות
בישראל, המשפט הנוהג מסתמך על דיני נזיקין ורשלנות. אין חקיקה ספציפית על AI, ובתי המשפט יבססו את פסיקותיהם על המסגרות הקיימות — עד שהמחוקק יתערב. משרד המשפטים ורשות הדיגיטל הלאומית מוציאים מסמכי מדיניות בנושא, ומגמת החקיקה ברורה.
בינתיים, המסר לארגונים ברור: מי שמפעיל AI ללא פיקוח, ללא תיעוד, וללא בדיקות הטיה — ייחשב לרשלן. לא מספיק לומר "סמכנו על הספק". בית המשפט יבדוק מה עשה הארגון בעצמו כדי להגן על האנשים שהמערכת השפיעה עליהם.
מי שמפעיל מערכת AI שפוגעת בציבור ולא הכין את עצמו — הוא שיישא בתוצאות. זו לא שאלה של "אם", אלא "מתי".
📌 זווית מקצועית — לעורכי דין
- טיפ פרקטי: בתביעות AI, מיפוי שרשרת האחריות הוא הצעד הראשון — ספק המודל, integrator, מפעיל, ומשתמש. כל אחד עשוי לשאת חלק. הגש תביעה נגד כולם ותן לבית המשפט לחלק.
- חקיקה רלוונטית: פקודת הנזיקין [נוסח חדש] סעיפים 11, 35-36; חוק הגנת הצרכן, תשמ"א-1981 סעיפים 2-4; EU AI Act 2024 פרק III (מערכות סיכון גבוה).
- טעות נפוצה: מפעילים מניחים ש-Terms of Service של ספק AI מגנה עליהם מפני תביעות צד שלישי. הוא מגן עליהם מול הספק — לא מול הנפגע.
- נקודה טקטית: בגילוי מסמכים בתיקי AI, בקשו את כל תיעוד ה-Model Card, Bias Assessment, ו-Audit Log. אלו המסמכים שיכריעו את התיק.