רמות אוטונומיות — לא הכל "רכב שנוהג לבד"
ארגון SAE International מגדיר שש רמות אוטונומיות (0–5). ברמה 0 — הנהג שולט בכל. ברמה 2 (כמו Autopilot של טסלה) — המערכת מסייעת, אך הנהג אחראי. ברמה 3 — הרכב נוהג, אך הנהג חייב לקחת שליטה לפי בקשה. ברמה 5 — אין צורך בנהג בכלל.
ההבחנה בין הרמות אינה עניין טכני בלבד — היא קובעת מי נושא באחריות משפטית בתאונה. רכב ברמה 2 שמעורב בתאונה מעמיד את הנהג בחזית; רכב ברמה 4–5 מעמיד את היצרן.
מי אחראי בתאונה — שלושת מוקדי הכשל
השאלה "מי אחראי?" היא לב-ליבו של הדין בתחום הזה, ובישראל אין עדיין תשובה חקוקה. הניתוח נסמך על שלושה מסגרות משפטיות קיימות:
- יצרן המערכת — תחת פקודת הנזיקין [נוסח חדש], פרק ה' (אחריות מוצר). אם הכשל נבע מפגם בתכנון, ייצור, או הוראות השימוש — היצרן חשוף לתביעה.
- בעל הרכב / מפעיל — חוק הפיצויים לנפגעי תאונות דרכים, תש"ל-1975 מטיל אחריות חמורה (ללא צורך בהוכחת רשלנות) על "מחזיק" ברכב מנועי. בעל רכב אוטונומי ייחשב "מחזיק" גם אם לא ישב בתוכו.
- הנהג (אם קיים) — ברמות 2–3, הנהג עדיין אחראי אם לא הגיב כנדרש להתרעת המערכת. "הסתמכות עיוורת" על הטכנולוגיה לא תפטור אותו מחבות.
כשלון אלגוריתמי (AV נכשל בזיהוי הולך רגל) מעמיד שאלה נוספת: האם זהו "פגם" בתוצר או "טעות בשיקול דעת" של המערכת? הדין הישראלי טרם ענה.
המצב הרגולטורי בישראל — חוסר ואי-ודאות
נכון לראשית 2026, אין בישראל חוק ייעודי לכלי רכב אוטונומיים. הפעילות הקיימת מוסדרת בתקנות זמניות לניסויי AV שמשרד התחבורה מאשר מעת לעת — לרבות ניסויים של חברות כמו Mobileye, Waymo, ו-Intel במסגרות מפוקחות. ⚠️
האיחוד האירופי כבר פרסם תקנות AVAS (מערכת אקוסטית לכלי רכב חשמליים ואוטונומיים) ואת Product Liability Directive המעודכן (2024) — שמאפשר לתבוע יצרן תוכנה כמו יצרן מוצר פיזי. ישראל טרם אימצה מסגרת מקבילה.
ביטוח — כשהפוליסה הסטנדרטית לא מכסה
פוליסת ביטוח חובה ישראלית (חוק הפיצויים, תש"ל-1975) מכסה נזקי גוף לנפגעים — אך אינה מתייחסת לכשל אלגוריתמי כסיבה נפרדת לתאונה. פוליסת ביטוח מקיף סטנדרטית אינה מכסה "נזק שנגרם עקב תקלת תוכנה" כאשר הנהג לא היה בשליטה.
עד שחברות הביטוח יפתחו מוצרים ייעודיים לרכב אוטונומי (ה-AV Policy, הנפוץ בבריטניה מ-2018), מי שמחזיק ברכב מסוג זה בישראל עלול למצוא עצמו ללא כיסוי מספיק.
השאלה האתית שהחוק טרם פתר
בסיטואציה שבה תאונה אינה נמנעת — האם האלגוריתם יצמצם נזק לנוסע, להולכי הרגל, או יבחר "סטטיסטית" מי יינזק פחות? זוהי "בעיית הטרולי" (Trolley Problem) בגרסת AI.
ה-EU AI Act (2024) מסווג מערכות AV כ-High Risk AI — ומחייב שקיפות, תיעוד, ובקרת אדם. ישראל טרם חוקקה חוק AI מקביל. ⚠️
📌 זווית מקצועית — לעורכי דין
- טיפ פרקטי: בתביעה נגד יצרן זר של מערכת AV — שקלו לבסס את העילה על פקודת הנזיקין (אחריות מוצר, סעיף 35) במקביל לתביעה ישירה בגין Product Liability. בדקו אם ליצרן יש נציגות ישראלית שתשמש כגורם נתבע מקומי.
- פסיקה רלבנטית: ⚠️ טרם קיימת פסיקה ישראלית ייעודית לתאונות AV — הזהרו מהסתמכות על פסיקה אמריקאית שאינה מחייבת.
- טעות נפוצה: להניח שפוליסת ביטוח חובה סטנדרטית מכסה נזק שנגרם כתוצאה מכשל אלגוריתמי — היא אינה כוללת סייג או כיסוי ייעודי לכך.
- נקודה טקטית: ההבחנה בין ADAS (Level 2) לרמה 3 ומעלה קריטית לקביעת האחריות. תעדו בכל תיק AV את רמת האוטונומיה המדויקת של הרכב ואת הגדרות היצרן — זה ישפיע ישירות על שאלת "מי נהג".
קראו גם:
ביטוח וסיכונים אקטואריים
ביטוח רכב אוטונומיים הוא שאלה חדשה כי רוב חברות הביטוח עדיין לא בקיעו בחוקיות של סיכונים אוטונומיים. ייתכן כי ביטוח רכב אוטונומיים יהיה יקר יותר בתחלה בגלל חוסר בדיוק סטטיסטי. עם זאת, אם רכבים אוטונומיים אכן בטוחים יותר מנהיגים אנושיים (כפי שמדווחים), ביטוח אוטונומיים יכול להיות רשוני מתמיד.
חברות ביטוח מתחילות להבחין בין סוגי כלים וטכנולוגיות באחריות הביטוח.
אתיקה וביטחון סייבר
שאלה אתית קשה היא: מה צריך רכב אוטונומי לעשות במצב שבו תאונה היא בלתי נמנעת? האם הוא צריך לבחור בין נזק לנוסע שלו או לנוסעים רכב אחר? שאלה זו היא קריטית מבחינה אתית ומשפטית, אך עדיין אין תשובה ברורה.
- שאלה אתית שלבחירה בין נוסעים שונים
- צורך בניטור מתמיד של טכנולוגיה לאיתור בעיות
- סיכון של ניצול כל טכנולוגיה (כמו האקרים שמנסים לשלוט בכלים)
- צורך בביטחון סייבר חזק כדי למנוע תקיפות סייבר על כלים
בעתיד, ייתכן שממשלה תיצור קודים אתיים או סטנדרטים טכנולוגיים לטיפול בסיטואציות אלה.
חקיקה עתידית בישראל
כיום עדיין אין חקיקה ספציפית לכלים אוטונומיים, אך וועדות בממשלה חוקרות את הנושא. כאשר כלים אוטונומיים יהיו נפוצים יותר בישראל (או כשתופעל פרויקט ניסוי), ממשלה תצטרך לעדכן את חוקי התנועה ואחריות משפטית.
המשפט יצטרך להתמודד עם שאלות חדשות וקשות בנושא כלים אוטונומיים, בעת שהם נעשים לריאליות בדרכינו.